Обзор и тестирование видеокарты NVIDIA GeForce GTX 780 Ti
21-11-2013
Выход нового семейства видеокарт AMD Volcanic Islands создал такой ажиотаж на рынке графических адаптеров, что даже снижение цен на «топовые» решения от компании NVIDIA на этом фоне прошло как-то незаметно. Чтобы изменить ситуацию в свою сторону, «зеленым» ничего другого не оставалось, как выпустить модель, которая бы затмила флагмана из лагеря конкурентов - AMD Radeon R9 290X.
Хотя, по большому счету, такая видеокарта у компании NVIDIA уже есть в наличии - NVIDIA GeForce GTX TITAN. На сегодняшний день - это самый быстрый одночиповый графический адаптер. Однако он не только недосягаем для других решений в плане производительности, но также недоступен для большинства пользователей в плане стоимости. Даже самые заядлые геймеры десять раз подумают, прежде чем отдать 1000 долларов за видеокарту. Ведь за такую сумму можно купить целую систему, причем довольного приличного уровня.
Поэтому компании NVIDIA требовалась видеокарта, которая могла бы «заткнуть за пояс» AMD Radeon R9 290X, и в то же время была бы более доступной для пользователей, чем NVIDIA GeForce GTX TITAN. Такой моделью стала NVIDIA GeForce GTX 780 Ti, которая автоматически возглавила семейство графических адаптеров NVIDIA GeForce GTX 7хх.
На наш взгляд, эта видеокарта уже давно была готова к выпуску и являлась неким козырем в игре на рынке графических адаптеров. Производитель просто выждал необходимую паузу и задействовал его в нужный момент. Суть этой аллегории становится понятной, если взглянуть на микроархитектуру новинки.
Особенности микроархитектуры
В основе NVIDIA GeForce GTX 780 Ti лежит хорошо знакомый графический чип NVIDIA GK110, использующий микроархитектуру NVIDIA Kepler. Однако говорить, что компания взяла видеоядро от NVIDIA GeForce GTX 780 или NVIDIA GeForce GTX TITAN и просто его перемаркировала, конечно же, нельзя. Так как в новинке чип включает 15 кластеров SMX из 15 возможных, тогда как на NVIDIA GeForce GTX 780 и NVIDIA GeForce GTX TITAN их количество равняется 12 и 14 соответственно. Учитывая, что каждый кластер SMX включает в себя 192 ядра CUDA, получим, что общее количество универсальных шейдерных процессоров в NVIDIA GeForce GTX 780 Ti равняется 2880. А это больше, чем у AMD Radeon R9 290X (2816 потоковых процессоров) и даже дорогущей NVIDIA GeForce GTX TITAN (2688 потоковых процессоров).
Кроме того, использование максимального числа кластеров SMX позволило увеличить и число текстурных блоков. Теперь их общее количество у NVIDIA GeForce GTX 780 Ti составляет 240, тогда как у NVIDIA GeForce GTX TITAN - 224, а у AMD Radeon R9 290X - и вовсе 176. Это значит, что фильтрация текстур у новинки будет происходить примерно на 20% быстрее, чем у флагмана из лагеря конкурентов.
Глядя на эти цифры, невольно задаешься вопросом: «А зачем тогда вообще держать на рынке модель NVIDIA GeForce GTX TITAN, которая имеет меньшее количество структурных блоков в составе GPU и более низкие характеристики, но при этом стоит значительно дороже?» Наверное, в компании NVIDIA тоже озадачились этой проблемой, и нашли из нее очень простой выход. Разработчики просто уменьшили скорость выполнения расчетов двойной точности у NVIDIA GeForce GTX 780 Ti, заблокировав соответствующие ядра CUDA (FP64). Тем самым NVIDIA GeForce GTX 780 Ti и NVIDIA GeForce GTX TITAN были разведены в разные сегменты рынка. Первая ориентирована больше на игры, а вторая - на профессиональные приложения, где скорость вычислений с двойной точностью более востребованная.
Кроме того, NVIDIA GeForce GTX 780 Ti изначально оснащена только 3-мя ГБ памяти GDDR5, тогда как NVIDIA GeForce GTX TITAN - 6-ю ГБ GDDR5.
И раз уж мы коснулись подсистемы памяти, то уместно вспомнить и о прямом конкуренте новинки - AMD Radeon R9 290X. Дело в том, что NVIDIA GeForce GTX 780 Ti содержит шесть 64-битных каналов памяти, а AMD Radeon R9 290X - восемь. Таким образом, суммарная «ширина» шины памяти в первом случае составляет 384 бит, а во втором - 512 бит. Сначала может показаться, что вот оно - бутылочное горлышко новинки. Но разработчики предусмотрели и этот момент, увеличив частоту памяти до 7 ГГц (у AMD Radeon R9 290X этот показатель равняется 5 ГГц). Иными словами, несмотря на 384-битную шину, общая пропускная способность видеопамяти у NVIDIA GeForce GTX 780 Ti даже чуть выше, чем у ее конкурента (336 против 320 ГБ/с).
Однако у новинки все-таки есть своя ахиллесова пята - количество блоков растровых операций (ROP). Их число у NVIDIA GeForce GTX 780 Ti ограничено 48, тогда как на AMD Radeon R9 290X присутствует 64 таких конвейера. То есть в мультимониторных конфигурациях и при больших разрешениях дисплея флагман из лагеря «красных» должен иметь преимущество.
Конечно, это всего лишь «сухие» цифры, но по ним можно сделать однозначный вывод - с технологической точки зрения чип NVIDIA GK110 последней ревизии (GK110-425-B1) является более прогрессивным, чем AMD Hawaii XT, используемый в AMD Radeon R9 290X.
Даже по таким важным параметрам, как энергопотребление и нагрев он находится впереди своего конкурента.
А теперь давайте посмотрим, во что все это выливается на практике.
Данные слайды взяты из официального пресс-релиза компании NVIDIA но даже в таком случае преимущество NVIDIA GeForce GTX 780 Ti над AMD Radeon R9 290X выглядит довольно убедительным. Правда, тут стоит отметить, что графики тестирования поданы для разрешения 2560 х 1440. В мультимониторных конфигурациях отрыв может оказаться значительно меньшим или же вообще отсутствовать. Так как в этом режиме скажется меньшее количество блоков растровых операций и меньший объем видеопамяти, чем у AMD Radeon R9 290X.
Утилиты
Приложение NVIDIA GeForce Experience с поддержкой функции ShadowPlay
Об оболочке NVIDIA GeForce Experience (GFE) мы писали уже неоднократно, но каждый анонс нового продукта от NVIDIA дает лишний повод вспомнить о ней, тем более что компания постоянно внедряет новые функции. Для тех, кто не знает, NVIDIA GeForce Experience - это утилита, основной задачей которой является своевременное обновление драйверов для видеокарт линейки NVIDIA GeForce и оптимизация игровых настроек для пользовательской системы, исходя из системных требований конкретной игры и конфигурации ПК.
Достаточно выбрать из списка одну из игр, установленных на компьютере, и нажать на кнопку «Optimize», - все остальное программа сделает за вас. Причем будет найден максимально точный баланс между производительностью и качеством картинки. Достаточно удобно, особенно если учитывать, что в современных играх порою столько разных настроек, что не всегда даже понимаешь, за что они отвечают, и какие значения нужно задавать.
Приложение NVIDIA GeForce Experience способно найти и установить оптимальные настройки более чем для сотни игр и для всех современных видеокарт компании NVIDIA, включая и рассматриваемую в данном обзоре модель.
Но наиболее интересной возможностью стал инструмент видеозахвата под названием «NVIDIA ShadowPlay». Данная функция позволяет записывать видео игрового процесса в реальном времени, причем в разрешении 1920 х 1080 с частотой 60 кадров за секунду. Для записи используется встроенный во все графические адаптеры серий NVIDIA GeForce GTX 6xx и 7xx аппаратный H.264-кодировщик NVENC. Таким образом достигается минимальная потеря производительности во время игрового процесса.
Ниже представлены видеоролики из игр Batman: Arkham Origins и Call of Duty: Ghosts, полученные с помощью функции NVIDIA ShadowPlay. В обоих случаях было установлено разрешение 1920 х 1080 и средние и максимальные настройки графики.
Игра Batman: Arkham Origins
Игра Call of Duty: Ghosts
После активации процесса записи видео с помощью технологии NVIDIA ShadowPlay, средний показатель FPS (количество кадров за секунду) при максимальных настройках в игре Batman: Arkham Origins упал с 112 до 106, а в Call of Duty: Ghosts - с 125 до 118. То есть при использовании этой функции производительность снижается всего на 5-6%, что на наш взгляд, является несущественным.
Технология NVIDIA ShadowPlay уже получила много позитивных отзывов, поэтому компания NVIDIA и далее планирует ее активное развитие. В частности, в будущих версиях NVIDIA GeForce Experience появится возможность интеграции с онлайн-сервисом Twitch.tv, что позволит владельцам современных карт от компании NVIDIA пересылать туда видео напрямую. Такая возможность уже сейчас реализована для сервиса YouTube.
Утилита от EVGA
Для оптимизации настроек на NVIDIA GeForce GTX 780 Ti, компания рекомендует использовать утилиту от EVGA. По своему функционалу она полностью соответствует популярной программе MSI Afteburner. Правда, в варианте от EVGA используется более интересный и красочный интерфейс.
А сейчас предлагаем перейти от теории к практике и посмотреть, что же на самом деле представляет из себя графический адаптер NVIDIA GeForce GTX 780 Ti.
Спецификация:
Модель |
NVIDIA GeForce GTX 780 Ti |
Графическое ядро |
NVIDIA GK110 (GK110-425-B1) |
Количество универсальных шейдерных процессоров |
2880 |
Поддерживаемые API и технологии |
DirectX 11 (Shader Model 5.0), OpenGL 4.3, NVIDIA GPU Boost 2.0, NVIDIA TXAA, NVIDIA FXAA, NVIDIA Adaptive Vertical Sync, NVIDIA Surround, NVIDIA PhysX, NVIDIA 3D Vision, 3-way NVIDIA SLI, NVIDIA CUDA |
Частота ядра (номинальная / в режиме GPU Boost), МГц |
875 / 928 |
Частота памяти (эффективная), МГц |
1750 (7000) |
Объём памяти, ГБ |
3 |
Шина памяти, бит |
384 |
Тип памяти |
GDDR5 |
Тип шины |
PCI Express 3.0 |
Максимальное разрешение |
Цифровое - 4096 x 2160 Аналоговое - 2048 х 1536 |
Выходы |
1 х DVI-I 1 х DVI-D 1 х HDMI 1 х DisplayPort |
Поддержка HDCP и декодирования HD-видео |
Есть |
Размеры с официального сайта (измеренные в тестовой лаборатории), мм |
267 х 113 (281 х 113) |
Рекомендуемая мощность блока питания, Вт |
600 |
Драйверы |
Свежие драйверы можно скачать с сайта производителя GPU |
Сайт производителя |
Внешний вид
К нам в тестовую лабораторию попал OEM-образец видеокарты NVIDIA GeForce GTX 780 Ti, поэтому описание упаковки и комплекта поставки отсутствует. Сразу перейдем к внешнему виду самого графического адаптера.
NVIDIA GeForce GTX 780 Ti имеет уже ставший стандартным для «топовых» эталонных решений дизайн. Если убрать надпись «GTX 780 Ti», то новинку легко спутать с NVIDIA GeForce GTX 780 или же NVIDIA GeForce GTX TITAN. Всю лицевую часть закрывает огромный кулер со стильным серебристым кожухом. Здесь также система охлаждения состоит из испарительной камеры и вентилятора радиального типа. Такая конфигурация обеспечивает хороший отвод тепла от основных компонентов устройства, а также выброс нагретого воздуха за пределы корпуса. Правда, недостатком таких кулеров, как правило, является повышенный шум при высокой скорости вращения «турбины». Этот момент мы обязательно проверим чуть позже, во время тестирования.
Еще одним элементом системы охлаждения является цельная алюминиевая пластина, которая соприкасается с чипами памяти и силовой частью преобразователя питания. Она также служит своего рода ребром жесткости для видеокарты и основанием для крепления вентилятора.
В целом, модель NVIDIA GeForce GTX 780 Ti нельзя назвать большой. При длине 28,1 см (согласно нашим измерениям) ее можно будет установить в большинство современных корпусов.
Ширина новинки - стандартная, а система охлаждения сконструирована таким образом, чтобы в компьютере она перекрывала только два слота для карт расширения. На одной из сторон находится надпись «GEFORCE GTX», которая во время работы подсвечивается зеленым цветом - фирменная особенность «топовых» эталонных решений от компании NVIDIA.
Тыльная сторона печатной платы представляет собой мало интереса. Привлекает внимание разве что наличие мест под дополнительные чипы памяти. Понятно, что разводка дорожек на плате NVIDIA GeForce GTX 780 Ti осталась от ее «донора» - NVIDIA GeForce GTX TITAN. Но это также наводит на мысль, что, возможно, через некоторое время мы увидим и версии NVIDIA GeForce GTX 780 Ti с 6 ГБ памяти «на борту». По крайней мере, для этого есть все предпосылки, главное, чтобы в самой компании NVIDIA дали «зеленый свет».
Для вывода изображения на NVIDIA GeForce GTX 780 Ti предусмотрен следующий набор интерфейсов:
- 1 х DVI-I;
- 1 х DVI-D;
- 1 х HDMI;
- 1 х DisplayPort.
Данный набор можно считать оптимальным, поскольку он охватывает очень широкий круг видеоинтерфейсов и позволит подключать мониторы разного типа.
Поддерживаются следующие разрешения:
- цифровое - до 4096 x 2160;
- аналоговое - до 2048 x 1536.
Печатная плата и элементная база
NVIDIA GeForce GTX 780 Ti
NVIDIA GeForce GTX TITAN
Мы неспроста назвали NVIDIA GeForce GTX TITAN «донором» для NVIDIA GeForce GTX 780 Ti, ведь взглянув на эти две фотографии очень трудно найти различия. Они, конечно, есть, но незначительные, и в основном коснулись только узлов стабилизации и фильтрации напряжений: на выходах фаз питания добавилось несколько танталовых конденсаторов, входные LC-фильтры также претерпели минимальных изменений. Все-таки, здесь используется видеоядро NVIDIA GK110 на новом степпинге, а значит и требования к подсистеме питания немного ужесточились.
В целом же структура преобразователя питания не изменилась. Он выполнен по схеме 6+2+1 фаза (для GPU, чипов памяти и PLL соответственно). К качеству элементов нет никаких замечаний: во всех цепях установлены твердотельные и танталовые конденсаторы, а также дроссели с ферритовыми сердечниками.
Силовая часть преобразователя питания GPU включает шесть интегральных микросхем FDMF6823A (по одной на каждую фазу), которые основаны на технологии DrMOS (Driver + Mosfet). Данный чип в одном низкопрофильном термостойком корпусе объединяет два полевых транзистора, полнофункциональный драйвер и ограничительный диод. Такое решение позволяет добиться более высокой эффективности работы по сравнению с обычной топологией преобразователя питания. В частности, их КПД может достигать 93%, а максимальная нагрузка - 55 А.
Силовая часть преобразователя питания памяти состоит из обычных MOSFET-транзисторов: двух NTMFS4983NF и двух NTMFS4925N.
В качестве ШИМ-контроллера используется чип NCP4206 производства ON Semiconductor. Он может управлять шестью фазами и, согласно спецификации, позволяет менять напряжение в пределах от 0,375 до 1,6 В. Преимуществом данного чипа является то, что им легко управлять сторонними утилитами. В частности, можно без проблем поднять предел программного вольтмода до значения 1,3 В.
Помимо слота PCI Express х16, питание новинки обеспечивается через два дополнительных разъема (6-контактный и 8-контактный), расположенных на торце графического адаптера. Отметим, что отсоединение коннекторов PCI-E довольно удобное: кожух системы охлаждения никак не мешает этому процессу.
Кстати, в NVIDIA GeForce GTX 780 Ti появилась интересная функция под названием «Power Balancing», которая поможет достичь лучших и более стабильных результатов при разгоне. Суть ее заключается в том, что она равномерно распределяет нагрузку между тремя источниками питания (слот PCI Express х16, 6-контактный PCI-E и 8-контактный PCI-E) во время оптимизации параметров видеокарты. Тем самым избегается ситуация, когда один из них оказывается перегруженным, а остальные – наоборот, недогруженными.
Естественно, что устройство подобного уровня поддерживает режим NVIDIA SLI. Благодаря наличию двух разъемов, можно создать очень мощную игровую конфигурацию, объединяющую от двух до четырех видеоускорителей.
В основе NVIDIA GeForce GTX 780 Ti лежит графический чип NVIDIA GK110 (Kepler), произведенный по 28-нм техпроцессу, который состоит из 2880 универсальных шейдерных конвейеров (или ядер CUDA по терминологии NVIDIA) и включает 48 блоков растеризации и 240 блоков текстурирования. Частота работы графического ядра равняется 876 МГц в номинальном режиме и 928 МГц - в турборежиме.
Однако не обошлось и без очередной загадки. Вначале статьи мы упоминали, что в NVIDIA GeForce GTX 780 Ti используется новая версия чипа NVIDIA GK110 с индексом B1, что, собственно, можно прочесть на теплораспределительной крышке GPU. Однако утилита GPU-Z 0.7.4 определила его как ревизия А1, то есть как графический процессор еще прошлого образца. Конечно, модель NVIDIA GeForce GTX 780 Ti только появилась на рынке, и, скорее всего, программа просто еще некорректно определяет некоторую информацию. Но также это дает повод засомневаться, а был ли вообще осуществлен переход на новый степпинг? Похожие слухи совсем недавно заполонили интернет, только касались они видеоускорителя AMD Radeon R9 280X и того, что в нем не используется чип AMD Tahiti XTL, а вместо этого применяется обычный AMD Tahiti XT2. Теперь и у фанатов продукции AMD тоже появился повод обвинить конкурента в маркетинговых махинациях.
Что касается видеопамяти, то тут уже двух мнений быть не может. Общий ее объем на NVIDIA GeForce GTX 780 Ti составляет 3 ГБ. Набрана память с помощью 12-ти чипов SK Hynix H5GQ2H24AFR. Считается, что микросхемы производства именно этой компании лучше всего адаптированы для высоких частот. Еще раз напомним, что на модели NVIDIA GeForce GTX 780 Ti память работает на очень высокой скорости - 7 ГГц. Обмен данными осуществляется посредством 384-битной шины, при этом пропускная способность достигает 336 ГБ/с.
Система охлаждения
Как уже было сказано раньше, система охлаждения идентична той, которую мы видели на моделях NVIDIA GeForce GTX TITAN и NVIDIA GeForce GTX 780. Поэтому отдельно описывать ее еще раз нет большого смысла. Если хотите более детально ознакомиться с ее конструкцией, предлагаем перейти по ссылкам выше. Мы же решили сосредоточиться в первую очередь на оценке эффективности штатного кулера и на других его параметрах.
Для мониторинга показателей работы видеокарты использовалась утилита MSI Afterburner.
В автоматическом режиме при продолжительной максимальной нагрузке температура графического ядра доходила до отметки 83°С, что можно считать не самым лучшим результатом для продукта такого уровня. Вентилятор работал на 62% своей мощности (около 2560 об/мин по данным встроенного тахометра), при этом уровень создаваемого шума можно охарактеризовать как «средний, и вполне комфортный для продолжительного времяпровождения за компьютером».
В режиме максимальной скорости вращения вентилятора (около 4200 об/мин по данным встроенного тахометра), температура GPU снизилась до 70°С. Создаваемый шум выделялся на общем фоне и был совершенно некомфортным для постоянной работы. Однако тут стоит отметить, что данный режим активировался преднамеренно, и в реальных условиях эксплуатации при автоматическом регулировании скорости вращения лопастей вентилятора он маловероятен.
При отсутствии нагрузки частоты графического ядра и памяти автоматически понижаются, что приводит к уменьшению их энергопотребления и тепловыделения. Вентилятор в таком режиме вращается со скоростью 26% от максимальной (около 1140 об/мин по данным встроенного тахометра). При этом не издается практически никакого шума, а температура GPU не превышает 36°С.
Тестирование
Подписаться на наши каналы | |||||