Обзор и тестирование видеокарты ASUS GeForce GTX 680 c 2 ГБ GDDR5
27-03-2012
Предоставив первый графический адаптера на базе 28-нм чипа на три месяца раньше своего основного конкурента, компания AMD, так же, как и осенью 2009 года, получила заметное стратегическое преимущество на рынке. На фоне новых 28-нм решений продукты на базе 40-нм чипов, которые присутствуют на рынке уже довольно долгое время, выглядят гораздо менее привлекательно, даже несмотря на то, что прирост производительности пока кажется не таким уж внушительным. В то же время оптимизированное быстродействие и энергопотребление, уменьшенное тепловыделение, поддержка большого количества прогрессивных технологий, новая универсальная архитектура и хороший разгонный потенциал для большинства геймеров и энтузиастов уже являются более чем достаточными поводами для апгрейда.
Калифорнийский графический гигант, безусловно, должен был сделать свой «ответный ход» на анонс Radeon HD 7970 в максимально короткие сроки, для того чтобы не дать AMD реализовать слишком большое количество высокоуровневых продуктов на базе GPU Tahiti XT. Однако, несмотря на то, что фотографии печатной платы нового флагмана линейки GeForce появились в сети ещё в начале весны, официальная презентация NVIDIA GeForce GTX 680 состоялась лишь 22 марта, что, по словам представителей компании, связано в первую очередь со сложностями в освоении норм 28-нм техпроцесса подрядчиком TSMC.
Немаловажно, что NVIDIA GeForce GTX 680 (GK104) стал первым графическим адаптером, основанным на новой архитектуре NVIDIA Kepler, которая позиционируется маркетологами NVIDIA, как более производительный, функциональный и энергоэффективный наследник удачной микроархитектуры Fermi, представленной более 2х лет назад и задавшей новые стандарты в обработке тесселяции, геометрии и задач общего назначения.
Общие черты новой микроархитектуры остались неизменными: на блок-схеме чипа GK104 приведенной выше мы видим тот же «модульный дизайн» на основе блоков GPC (Graphics Processing Cluster), которые имеют общую кэш-память второго уровня (L2) и юнит GigaThread Engine, распределяющий загрузку между блоками GPC. Число контроллеров памяти было сокращено с шести до 4-х в сравнении с GF110, а ширина шины памяти теперь равна 256 бит (64 бит х 4).
Графические кластеры GPC в свою очередь состоят из юнита растеризации (ROP) и потоковых мультипроцессоров, которые в архитектуре NVIDIA Kepler получили немало изменений и теперь называются производителем SMX-блоками. Каждый мультипроцессор SMX теперь включает не 32, а 192 ядер CUDA, и к тому же функционирующих на одинаковой частоте, что, по словам производителя, обеспечивает вдвое лучшее соотношение между быстродействием и энергопотреблением. Также в сравнении с SM-юнитами в Fermi (GF 110) было вдвое увеличено число текстурных блоков на один мультипроцессор — до 16 штук. Движок обработки геометрии PolyMorph Engine обновился до версии 2.0, однако принципиальными улучшениями в сравнении с предшественником он похвастать не может и в официальной презентации речь идёт лишь об увеличенной общей производительности этих блоков.
Дополнительно разработчики отмечают удвоение количества планировщиков (Warp Scheduler) для каждого SMX процессора, а также упрощение логики их работы, что позволило улучшить общий уровень быстродействия при исполнении различных инструкций параллельно.
Завершая рассказ об особенностях дизайна ядра NVIDIA GK104, стоит сказать несколько слов и о конфигурации кэш-памяти в новом GPU. Так объём кэша первого уровня, который установлен в каждом мультипроцессоре SMX, остался прежним и равняется 64 КБ. В то же время объём кэш-памяти второго уровня был уменьшен с 768 КБ у GF110 до 512 КБ у GK104, что, впрочем, должно компенсироваться его возросшей на 73% пропускной способностью. Отметим также, что новый чип GK104 включает 3,54 млрд. транзисторов на площади 294 мм?.
Осмелимся предположить, что полноценным наследником предыдущего флагмана линейки GeForce «в лице» GeForce GTX 580 (GF110) все же станет видеокарта на основе будущего 28-нм hi-end чипа GK110 (Kepler), анонс которого предположительно должен состояться в третьем или четвертом квартале 2012 года. Именно это решение, судя по всему, займет флагманскую позицию в обновлённой линейке NVIDIA GeForce 600, в то время как GK104 станет основным предложением в верхней части среднего ценового диапазона и вытеснит с этого места различные решения на базе GeForce GTX 560.
Помимо изменений в архитектуре и перехода на более тонкий 28-нм техпроцесс, графические адаптеры из серии NVIDIA GeForce GTX 600 также получили целый ряд функциональных особенностей, включающие поддержку мониторов ультравысокого разрешения и интерфейса PCI-E 3.0, которые должны быть весьма полезны для всех категорий пользователей.
В первую очередь обратим внимание на функцию GPU Boost, которая является аналогом опции Power Tune в видеокартах на базе графических процессоров AMD из серии Radeon HD 7000. В зависимости от нагрузки, частота графического ядра теперь способна динамически изменяться, для получения максимальной производительности в рамках установленного максимального энергопотребления, которое в случае GeForce GTX 680 не превышает 195 Вт.
Штатная частота графического ядра GeForce GTX 680 равняется 1006 МГц, однако в зависимости от нагрузки она может автоматически повышаться до значений превышающих 1,1 ГГц, в то время как «средняя» частота GPU по данным официальной презентации составляет 1058 МГц.
Отдельно стоит отметить, что в процессе разгона функция GPU Boost не отключается, а максимальная частота GPU в турборежиме возрастает прямо пропорционально увеличению штатной частоты графического ядра.
Начиная с 300-й версии драйверов NVIDIA, видеокарты семейств GeForce GTX 400/500/600 получат возможность активации метода сглаживания FXAA с помощью драйвера, даже если он не поддерживается игрой изначально. Отметим, что в сравнении с распространенным мульти-семплинговым сглаживанием (MSAA) продвигаемый специалистами NVIDIA алгоритм FXAA менее требовательный к ресурсам видеокарты и позволяет добиться более высокого качества изображения.
В дополнение к FXAA-сглаживанию, инженеры NVIDIA также подчеркивают поддержку новым поколением графических ускорителей GeForce алгоритма TXAA, который объединяет аппаратное сглаживание и пост-обработку и по замыслу разработчиков должен вывести качество графики в компьютерных играх на уровень, который сегодня можно увидеть в профессиональной компьютерной анимации в кино и мультфильмах. При этом разработчики предлагают два различных режима его работы: TXAA1 и TXAA2. Для первого режима заявлен уровень качества сопоставимый с MSAA х8 при затратах ресурсов сравнимых с MSAA х2, в то время как TXAA2 является качественно новым методом сглаживания, ресурсоёмкость которого сравнима с MSAA х4. Игры с поддержкой TXAA уже анонсировали некоторые крупные разработчики, что позволяет надеяться на то, что новая технология получит широкое распространение
Ещё одна особенность новой версии драйверов NVIDIA, выпуск которой сопровождает анонс GeForce GTX 680, представляет собой улучшенную опцию вертикальной синхронизации (V-Sync), которая была разработана для устранения артефактов и «разрывов» изображения, возникающих в случае, когда частота смены кадров превышает частоту кадровой развёртки монитора. В то же время, если значение fps (frames per second) оказывается ниже частоты кадровой развертки устройства для вывода изображения, максимальное значение fps при активной функции V-Sync ограничивалась 30-ю или даже 15-ю кадрами в секунду, что делает игровой процесс некомфортным. Инженеры NVIDIA, предлагают свой метод решения этой проблемы, который получил название Adaptive V-Sync. Его суть состоит в том, что вертикальная синхронизация активируется лишь в том случае, когда частота смены кадров в игре действительно превышает частоту кадровой развёртки монитора, а если значение fps падает — V-Sync автоматически отключается. Приятно отметить, что Adaptive V-Sync будет доступна и для обладателей видеокарт семейства GeForce GTX 400/500 (архитектура Fermi).
До недавнего времени, видеокарты AMD Radeon предлагали пользователям гораздо более гибкую функциональность при построении мультимониторных конфигураций. Фирменная технология AMD Eyefinity, которая совсем недавно успела обновиться до второй версии, предлагает действительно широкие возможности организации конфигураций из двух, трех, четырёх или даже шести мониторов, подключенных к одной карте (с дополнительными активными переходниками). Компания NVIDIA при этом выступала в роли «догоняющего», ведь графические процессоры серии GeForce GTX 400/500 допускали подключение максимум двух мониторов, а подключение трёх устройств для вывода изображения становилось доступным только при наличии в системе двух видеоускорителей в режиме SLI. Разработчики с гордостью заявляют о том, что к GeForce GTX 680 можно подключить одновременной четыре монитора без дополнительных переходников, к тому же, специалисты NVIDIA серьезно поработали над программной составляющей создания мультимониторных конфигураций. При этом были учтены интересы, как игроков, так и профессиональных пользователей.
Доработке и улучшениям также был подвержен графический движок NVIDIA PhysX, который теперь позволяет моделировать в реальном времени разрушение объектов. То есть теперь при активации аппаратного ускорения PhysX и соответствующей поддержки со стороны разработчиков, разрушение одного и того же объекта будет выглядеть каждый раз по-новому, что должно обеспечить ещё большую реалистичность игровых проектов. В официальной презентации представители компании также обращают внимание на возможность использования NVIDIA PhysX при симуляции движений шерсти и волос персонажей компьютерных игр.
Завершая рассказ о нововведениях в новом поколении графических адаптеров NVIDIA GeForce GTX 600 (архитектура NVIDIA Kepler) нельзя не упомянуть о специальном блоке в GPU под названием NVENC, предназначенном для аппаратного кодирования видео в разрешении вплоть до 4096х4096 точек. Разработчики заверяют, что кодирование видео с использованием NVENC позволяет осуществлять этот процесс в 4-8 раз быстрее реального времени при минимальных затратах энергии. Напомним, что практически аналогичные возможности по аппаратному кодированию видео предлагает и основной конкурент в своих решениях на основе архитектуры Graphics Core Next.
Перед тем как перейти к практической части нашего обзора, приведем сводную таблицу, в которой мы сравнили спецификации нового флагмана линейки GeForce с предшественником и актуальным конкурентом в лице AMD Radeon HD 7970:
|
NVIDIA GeForce GTX 680 |
AMD Radeon HD 7970 |
NVIDIA GeForce GTX 580 |
Кодовое имя |
GK104 |
Tahiti XT |
GF110 |
Количество потоковых процессоров |
1536 |
2048 |
512 |
Текстурные блоки |
128 |
128 |
64 |
Блоки растеризации (ROP) |
32 |
32 |
48 |
Частота графического процессора, МГц |
1006 |
925 |
772 |
Шейдерная частота, МГц |
1006 |
925 |
1544 |
Частота видеопамяти (эффективная), МГц |
1502 (6008) |
1375 (5500) |
1002 (4008) |
Объём памяти GDDR5, Мбайт |
2048 |
3072 |
1536 |
Интерфейс видеопамяти, бит |
256 |
384 |
384 |
Разъёмы питания |
2 x 6-pin |
1 x 6-pin, 1 х 8-pin |
1 x 6-pin, 1 х 8-pin |
Рекомендуемая мощность блока питания, Вт |
550 |
500 |
600 |
Что ж, от теории мы переходим к тестированию видеокарты ASUS GeForce GTX 680 «референсного» дизайна, для того чтобы на практике изучить все особенности передовых технологий NVIDIA.
Модель |
ASUS GeForce GTX 680 |
Графический процессор |
GeForce GTX 680 (GK104) |
Поддерживаемые API |
Microsoft DirectX 11, OpenGL 4.2 |
Поддержка фирменных технологий |
GPU Boost, Adaptive V-Sync, PhysX, SLI, NVIDIA Surround, 3D Vision, CUDA |
Количество конвейеров |
1536 унифицированных |
Частота ядра, МГц |
1006 (1058 МГц средняя частота с учетом использования технологии GPU Boost) |
Частота памяти (эффективная), МГц |
1502 (6008) |
Объём памяти, МБ |
2048 |
Шина памяти, бит |
256 |
Тип памяти |
GDDR5 |
Тип шины |
PCI-E 3.0 x16 |
Максимальное разрешение |
До 2560x1600 Dual-link DVI |
Выходы |
1x DVI-I Dual-Link DVI |
Поддержка HDCP и декодирования HD-видео |
Есть |
Размеры, мм |
256 х 110 |
Рекомендуемая мощность блока питания, Вт |
550 |
Драйверы |
Свежие драйверы можно скачать: |
Сайт производителя |
Исходя из данных таблицы, практически все характеристики рассматриваемого решения совпадают с рекомендованными компанией NVIDIA спецификациями для графического адаптера GeForce GTX 680 референсного дизайна, а, следовательно, и уровень производительности ASUS GeForce GTX 680 должен быть идентичным в сравнении с «эталоном». Мы же традиционно начнём наш обзор с рассказа об упаковке продукта.
Впервые за долгое время дизайнеры ASUS изменили оформление коробки, в которой фирменные видеокарты поставляются в розничные каналы. На смену привычному для наших постоянных читателей изображению «графического рыцаря» пришел более лаконичный, но не менее броский и запоминающийся дизайн. На лицевой стороне упаковки производитель перечисляет некоторые характеристики видеокарты, а также обращает внимание пользователей на возможность программного разгона видеокарты с помощью утилиты GPU Tweak.
На обратной стороне коробки приведены краткие спецификации видеокарты на 12 языках (включая русский), краткое рекламное описание упомянутых выше технологий GPU Boost и Adaptive V-Sync, а также фирменной функции GPU Tweak.
Список системных требований к компьютеру, в который планируется установка ASUS GeForce GTX 680 (GTX680-2GD5), расположен на одной из боковых сторон упаковки. Исходя из рекомендации на коробке, блок питания в такой системе должен обладать мощностью не менее 550 Вт и быть способным выдавать до 38 А по линии 12 В. Для «топовой» модели в линейке GeForce это весьма скромные требования по современным меркам.
Комплект поставки рассматриваемого видеоускорителя довольно скромный, как для решения с рекомендованной стоимостью $500. Помимо самого графического ускорителя в коробке мы обнаружили только руководство пользователя, диск с драйверами, а также один переходник с двух 4-контактных периферийных разъёмов питания на один 6-контактный разъём питания видеокарты. В подавляющем большинстве сценариев эксплуатации дополнительные аксессуары и не понадобятся, однако даже само их наличие в комплекте поставки высокоуровневого продукта, как правило, является довольно приятным бонусом для пользователей.
Для вывода изображения на видеокарте ASUS GeForce GTX 680, так же как и на других адаптерах «референсного» дизайна, предусмотрены следующие интерфейсы:
-
1x DVI-D Dual-Link DVI;
-
1х DVI-I Dual-Link DVI;
-
1х HDMI 1.4a;
-
1х DisplayPort 1.2.
Расположение видеовыходов организованно очень продуманно, ведь, несмотря на их немалое количество, вентиляционная решетка, через которую нагретый воздух выбрасывается за пределы системного блока, в общей сложности занимает почти целый слот. Также приятно отметить тот факт, что разъёмы HDMI и DisplayPort имеют полноразмерное исполнение, что избавляет от необходимости использования дополнительных переходников даже при подключении нескольких дисплеев. Как мы уже упоминали выше, видеокарты на основе графического процессора GeForce GTX 680 поддерживают одновременное подключение до 4-х устройств для вывода изображения без дополнительных активных хабов. Также к рассматриваемому графическому адаптеру можно подключить одновременно три дисплея с поддержкой технологии NVIDIA 3D Vision (режим 3D Vision Surround), двухчиповые связки для этого режима больше не являются необходимостью. Неплохим заделом на будущее также является поддержка видеокартой ASUS GeForce GTX 680 плазменных панелей и мониторов ультравысокого разрешения вплоть до 3840x2160 пикселей.
Внешний вид видеокарты ASUS GeForce GTX 680 в целом не сильно отличается от высокоуровневых решений линейки GeForce предыдущих поколений, однако новинка выгодно отличается от предшественников и актуальных конкурентов небольшой длиной, которая составляет всего 256 мм и позволяет установить этот графический адаптер практически в любой современный корпус формата Middle- или Full-Tower.
Печатная плата графического ускорителя ASUS GeForce GTX 680 выполнена на текстолите черного цвета. Как мы уже упоминали выше, рассматриваемая видеокарта полностью повторяет «референсный» дизайн GeForce GTX 680, предложенный инженерами NVIDIA, поэтому такой же дизайн PCB будут использовать и другие партнёры «зелёного графического гиганта». Разводка элементов на плате выполнена довольно необычно. В первую очередь обращает на себя внимание не совсем привычное расположение элементов модуля стабилизации питания, которые установлены в правой нижней части текстолита, в то время как графическое ядро GK104 и 8 микросхем памяти сдвинуты ближе к интерфейсной панели. К слову, используемая печатная плата, судя по всему, может применяться разработчиками из NVIDIA и для более производительных решений. Об этом свидетельствую свободные «посадочные места для дополнительных компонентов узла стабилизации питания и место для установки ещё одного 6-контактного разъёма питания.
Модуль стабилизации питания выполнен по 4+2-фазной схеме (для GPU и чипов памяти соответственно), а в качестве ШИМ-контроллера используется микросхема Richtek RT8802A.
Помимо шины PCI Express питание видеокарты обеспечивается через два 6-контактных разъёма на боковой стороне видеокарты, которые установлены друг над другом, что сегодня выглядит крайне необычно и может помешать совместимости новинки с распространенными системами воздушного охлаждения от сторонних производителей.
Наличие двух разъёмов для мостиков SLI позволяет объединять до трех видеокарт на графическом процессоре NVIDIA GeForce GTX 680 для совместного расчета графических эффектов и получения высочайше производительности даже при построении мультимониторных конфигураций с поддержкой стереоскопического изображения.
За исключением ШИМ-контроллера и нескольких танталовых конденсаторов, установленных напротив GPU, обратная сторона платы практически лишена элементов, что должно положительно повилять на эффективность охлаждения в целом.
Так выглядит графический чип NVIDIA GK104-400-A2 (Kepler), произведенный с соблюдением норм 28 нм техпроцесса, который является центральной частью тестируемой видеокарты. Впервые со времен GeForce 7800 графическое ядро не защищено от сколов дополнительной теплораспределительной пластиной, что можно объяснить небольшой площадью нового кристалла. Чип GK104 включает 1536 универсальных шейдерных процессоров (или ядер CUDA по терминологии NVIDIA) и 32 блока растеризации, а обмен данными с видеопамятью осуществляется через 256-битную шину. Повторимся, что частоты работы графического ядра и памяти составляют 1006 МГц для ядра и 6008 МГц для видеопамяти. Обращаем внимание, что шейдерный блок теперь работает на той же частоте, что и остальные блоки GPU, а штатная частота работы GPU может автоматически повышаться видеокартой для получения более высокой производительности в рамках установленного энергопотребления. Остальные характеристики чипа GK104 приведены на скриншоте выше.
К сожалению, текущая версия утилиты GPU-Z не позволила определить значение ASIC Quality для видеокарты ASUS GeForce GTX 680, однако мы надеемся, что после обновления этой популярной программы, такая возможность появится.
Видеопамять стандарта GDDR5 общим объемом 2 ГБ набрана с помощью восьми чипов по 256 МБ производства компании Hynix. Чипы имеют маркировку H5GQ2H24MFR R0C и согласно документации могут функционировать на эффективной частоте до 6 ГГц. Учитывая, что память в тестируемой видеокарте уже работает на частоте 6008 МГц, вряд ли у нас есть шансы значительно ускорить ее в процессе ручного разгона, чтобы получить дополнительный прирост производительности.
Для видеокарты ASUS GeForce GTX 680 применяется двухслотовая система охлаждения «турбинного» типа, так же как и для предыдущих поколений высокоуровневых видеокарт на базе графических процессоров NVIDIA GeForce.
Кулер состоит из вентилятора радиальной формы, небольшого алюминиевого радиатора и монтажной металлической рамки, которая также предназначается для охлаждения микросхем памяти и силовых транзисторов системы стабилизации питания, соприкасаясь с ними через специальный термоинтерфейс.
У основания алюминиевого радиатора инженеры NVIDIA установили три тепловые трубки изогнутой формы, которые должны способствовать более эффективному и быстрому распределению тепла по всей поверхности радиатора. С графическим чипом GK104 кулер соприкасается через медную пластину-основание.
В целом со времени GeForce GTX 580 штатный кулер перетерпел ряд изменений в сторону упрощения, что в целом неудивительно, учитывая переход на новый экономичный и энергоэффективный 28-нм техпроцесс. Для того чтобы проверить эффективность «референсной» системы охлаждения на практике мы провели наш стандартный набор тестов. Традиционно тесты проводились в двух режимах работы кулера: автоматическое управление и максимальная скорость вращения турбины.
В автоматическом режиме при максимальной нагрузке температура графического ядра не превышала отметку 80 градусов, что является средним результатом для адаптера такого уровня. При этом вентилятор работал на 60% своей мощности, производя средний уровень шума, заметный на общем фоне работы системы.
После того как мы установили скорость вращения вентилятора на максимум и провели тестирование еще раз, мы зафиксировали снижение максимальной температуры GPU на 18 градусов, а уровень шума, издаваемый кулером при этом, мы бы охарактеризовали как высокий, мешающий комфортной работе.
При отсутствии нагрузки, частоты графического ядра и памяти автоматически понижаются, что приводит к меньшему энергопотреблению и тепловыделению. Кулер в таком режиме работает действительно тихо, а температура графического ядра не превышает 36 градусов.
По результатам тестирования применяемой системы охлаждения, можно отметить стремление разработчиков найти оптимальный баланс между эффективностью и уровнем шума, что удалось им достаточно неплохо, принимая во внимание небольшие габариты кулера. В сравнении с основным конкурентом из лагеря AMD — Radeon HD 7970 — штатная турбина GeForce GTX 680 показалась нам более тихой в работе.
Подписаться на наши каналы | |||||