Обзор и тестирование видеокарты ROG STRIX GeForce GTX 1080 Ti OC Edition: долгожданный джокер
Борьба за потребителя априори включает в себя и борьбу с конкурентами, ведь важно не просто создать эффективный продукт, но еще и выпустить его в подходящий момент с оптимальным ценником. Поэтому производители учитывают массу факторов: спрос на рынке, пики потребительской активности, график релиза наиболее ожидаемых игр, время, необходимое партнерам для подготовки собственных модификаций, и, конечно же, планы конкурентов. В сегменте дискретных видеокарт это делать чуть проще, поскольку тон задают всего две компании: AMD и NVIDIA.
В начале лета 2016 года NVIDIA, выражаясь шахматной терминологией, сделала сильный ход, выпустив модели NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, построенные на базе чипов NVIDIA GP104. Наверняка предполагалось, что AMD ответит релизом своих флагманских адаптеров, на что NVIDIA готовила ответ в виде NVIDIA GeForce GTX 1080 Ti на ядре NVIDIA GP102. То есть GTX 1080 изначально не должна была надолго занимать лидерские позиции, и уже в четвертом квартале 2016 года она могла уступить место на Олимпе настоящему флагману. Но у AMD были другие планы, и компания не смогла оспаривать лидерство этих двух видеокарт в прошлом году, поэтому у NVIDIA и не было особых причин спешить с релизом GTX 1080 Ti, ведь в первую очередь это бы создало ненужную внутреннюю конкуренцию и сопровождалось бы традиционным в таких случаях снижением цен. То есть флагман придерживался как некий джокер в рукаве, готовый в удобный момент привлечь внимание публики и контратаковать позиции конкурента, если бы линейка AMD Radeon RX Vega вышла раньше. Но поскольку этого не случилось и не за горами дебют микроархитектуры NVIDIA Volta, то выжидать больше не было смысла, поэтому начало марта ознаменовалось релизом видеокарты NVIDIA GeForce GTX 1080 Ti.
Она построена на базе 16-нм графического процессора NVIDIA GP102-350, который состоит из 12 млрд. транзисторов. Поскольку микроархитектуру NVIDIA Pascal мы уже подробно рассмотрели в предыдущих обзорах, в частности, на примере NVIDIA GeForce GTX 1080, то в этот раз не будем вникать в детали структуры. Лишь кратко напомним, что GPU располагает 28 SM-блоками, каждый из которых предлагает 128 CUDA-ядер и 8 текстурных модулей. В итоге общее их количество достигает 3584 и 224 соответственно. В свою очередь количество растровых блоков определяет количество контроллеров памяти: по 8 ROP на каждый 32-битный контроллер. Общая разрядность шины памяти достигает 352, то есть имеем 11 контроллеров GDDR5X-памяти и 88 растровых блоков. Отметим, что максимальную конфигурацию чипа NVIDIA GP102 приберегли для более дорогой видеокарты NVIDIA TITAN Xp, которая в первую очередь нацелена на рабочие станции, а не на пользовательские игровые системы. Для большего удобства восприятия информации приводим сводную таблицу видеокарт NVIDIA:
Модель |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 Ti |
NVIDIA GeForce GTX 1080 Ti |
NVIDIA TITAN Xp |
Техпроцесс, нм |
16 (FinFET) |
16 (FinFET) |
28 |
16 (FinFET) |
16 (FinFET) |
GPU |
NVIDIA GP104-200 |
NVIDIA GP104-400 |
NVIDIA GM200-310 |
NVIDIA GP102-350 |
NVIDIA GP102-450 |
Микроархитектура |
NVIDIA Pascal |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Pascal |
Площадь кристалла, мм2 |
314 |
314 |
601 |
471 |
471 |
Количество транзисторов, млрд. |
7,2 |
7,2 |
8,0 |
12 |
12 |
Количество CUDA-ядер |
1920 |
2560 |
2816 |
3584 |
3840 |
Количество текстурных блоков |
120 |
160 |
176 |
224 |
240 |
Количество растровых блоков |
64 |
64 |
96 |
88 |
96 |
Базовая / динамическая частота GPU, МГц |
1506 / 1683 |
1607 / 1733 |
1000 / 1076 |
1480 / 1582 |
1480 / 1582 |
Тип видеопамяти |
GDDR5 |
GDDR5X |
GDDR5 |
GDDR5X |
GDDR5X |
Объем, ГБ |
8 |
8 |
6 |
11 |
12 |
Эффективная частота памяти, МГц |
8 008 |
10 008 |
7 012 |
11 008 |
11 408 |
Разрядность шины, бит |
256 |
256 |
384 |
352 |
384 |
Пропускная способность, ГБ/с |
256,3 |
320 |
337 |
484 |
548 |
Вычислительная мощность, TFLOPS |
5,783 |
8,228 |
5,632 |
10,609 |
11,366 |
TDP, Вт |
150 |
180 |
250 |
250 |
250 |
Рекомендованная стоимость на старте продаж, $ |
379 / 449 |
599 / 699 |
649 |
699 |
1199 |
По сравнению со своим предшественником в лице NVIDIA GeForce GTX 980 Ti, видеокарта NVIDIA GeForce GTX 1080 Ti может похвастать более тонким техпроцессом, более эффективной микроархитектурой и улучшенным стандартом памяти. В результате на кристалле меньшей площади поместилось больше структурных компонентов, существенно возросли тактовые частоты ключевых узлов и почти в два раза увеличилась вычислительная мощность. А рекомендованная стоимость возросла лишь на 8% или на $50, что для данного класса видеокарт можно считать не существенным.
Знакомиться с NVIDIA GeForce GTX 1080 Ti мы будем на примере модели компании ASUS – ROG STRIX GeForce GTX 1080 Ti OC Edition. Как и подобает флагману, она вобрала в себя все лучшие фирменные наработки: модифицированный дизайн печатной платы с усиленной подсистемой питания, эффективную систему охлаждения с LED-подсветкой ASUS Aura Sync, расширенный набор интерфейсов и многое другое. Для начала давайте познакомимся с ее характеристиками.
Спецификация
Модель |
ROG STRIX GeForce GTX 1080 Ti OC Edition (ROG-STRIX-GTX1080TI-O11G-GAMING) |
||
Техпроцесс, нм |
16 (FinFET) |
||
GPU |
NVIDIA GP102-350 |
||
Микроархитектура |
NVIDIA Pascal |
||
Количество CUDA-ядер |
3584 |
||
Количество текстурных блоков |
224 |
||
Количество растровых блоков |
88 |
||
Базовая / динамическая частота GPU, МГц |
«Gaming» |
1569 / 1683 |
|
«OC» |
1594 / 1708 |
||
Тип видеопамяти |
GDDR5X |
||
Объем, ГБ |
11 |
||
Эффективная частота, МГц |
«Gaming» |
11 010 |
|
«OC» |
11 100 |
||
Разрядность шины, бит |
352 |
||
Внутренний интерфейс |
PCI Express 3.0 x16 |
||
Внешние интерфейсы |
1 x DVI-D |
||
Дополнительный коннектор питания |
2 х 8-контактных |
||
Рекомендованная мощность блока питания, Вт |
600 |
||
Размеры, мм |
298 х 134 х 52,5 |
||
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или с сайта производителя GPU |
||
Сайт производителя |
Упаковка и комплектация
Видеокарта ROG-STRIX-GTX1080TI-O11G-GAMING поставляется в красочной картонной упаковке с качественной и весьма информативной полиграфией, которая отображает ключевые преимущества дизайна графического адаптера.
На одной из боковых сторон можно заметить рекомендации производителя к блоку питания: минимальная его мощность не должна опускаться ниже 600 Вт, а нагрузочная способность линии +12В должна превышать 42 А. Эти рекомендации традиционно указаны с запасом, поскольку производитель не может предсказать финальную конфигурацию пользовательской системы.
Сама видеокарта дополнительно спрятана в антистатический пакет и надежно зафиксирована внутри коробки, поэтому ей не страшны механические встряски. Также внутри мы обнаружили руководство пользователя, диск с драйверами и утилитами и пару стяжек для кабелей.
Внешний вид
Внешне видеоускоритель ROG STRIX GeForce GTX 1080 Ti OC Edition выглядит весьма строго и презентабельно. Но стоит лишь подключить питание, как его экстерьер становится более ярким и красочным благодаря RGB LED-подсветке ASUS Aura Sync.
У пользователя есть возможность выбора из миллионов цветов и шести режимов ее работы. Один из профилей отображает с помощью разных цветов динамику изменения температуры GPU. При желании можно синхронизировать работу иллюминации с другими совместимыми фирменными продуктами.
Габариты новинки заявлены производителем на уровне 298 х 134 х 52,5 мм. Согласно собственным измерениям, общая длина достигает 313 мм, а высота – 132 мм. В любом случае видеокарта достаточно большая, поэтому предварительно следует убедиться, что она поместится в корпусе. Да и на материнской плате она займет 2,5 слота расширения, к чему следует быть готовым.
Обратная сторона изначально прикрыта пластиной жесткости, которая не только используется для поддержания массивного кулера, но также принимает участие в отводе излишков тепла.
Сняв систему охлаждения, можем полюбоваться на модифицированный дизайн печатной платы. Хотя общий принцип расположение компонентов сохранился: центральное место отведено графическому процессору, вокруг которого расположились микросхемы памяти. В хвостовой части находится основная часть подсистемы питания.
Последняя предлагает усиленный 10+2-фазный дизайн (в эталонной версии для GPU предусмотрено лишь 7 фаз) с применением надежной элементной базы Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, микросхемы IR3555 и ферритовые дроссели. В качестве ШИМ-контроллера выступает микросхема uP9511P. Поскольку она может обслуживать максимум 8 фаз, то ей активно помогают три микросхемы uP1911R.
На обратной стороне находится достаточно много тантал-полимерных конденсаторов и других электрических компонентов.
Для корректной работы ROG STRIX GeForce GTX 1080 Ti OC Edition требует подключения двух 8-контактных коннекторов PCIe. При этом система охлаждения слегка препятствует этому процессу. Вместе с разъемом PCIe Express 3.0 x16 они могут подводить до 375 Вт питания, чего вполне достаточно для модели с энергопотреблением на уровне 250 Вт. Рядом можно заметить шесть разъемов для мониторинга и изменения напряжений на ключевых узлах.
На торце хвостовой части можно заметить пять дополнительных разъемов. Два нижних используются для питания вентиляторов системы охлаждения и работы LED-подсветки. Средний с красной подложкой – это колодка Aura Sync RGB для синхронизации работы LED-подсветки с другими устройствами. А два верхних 4-контактных разъема предназначены для подключения системных вентиляторов (технология ASUS FanConnect II). Скорость вращения их лопастей в автоматическом режиме может зависеть от температуры CPU или GPU, а в ручном пользователь самостоятельно задает алгоритм функционирования подключенных вертушек. Все это можно настроить в фирменной утилите GPU Tweak II.
В передней части печатной платы следует выделить пару MIO-коннекторов, которые предназначены для подключения мостиков и активации технологии NVIDIA SLI.
В наборе внешних интерфейсов видеоускорителя ROG-STRIX-GTX1080TI-O11G-GAMING присутствуют два порта HDMI 2.0b, два DisplayPort 1.4 и один DVI-D. Эталонная версия предполагает использование трех DisplayPort и одного HDMI. В данном случае упрощается подключение шлемов VR.
Утилита GPU-Z рапортует, что используется режим «OC», в котором графический процессор работает на частотах 1595 / 1709 МГц, а 11 ГБ GDDR5X-памяти от компании Micron функционирует на эффективной частоте 11 112 МГц. Напомним, что эталонные частоты значительно ниже (1480 / 1582 МГц для GPU и 11 008 МГц для памяти), поэтому можно рассчитывать на бонус в производительности.
Кроме того, в утилите GPU Tweak II предусмотрены еще два режима: «Gaming» (1683 МГц для GPU и 11010 МГц для памяти) и «Silent» (1658 и 10 920 МГц соответственно). Также есть возможность сохранять настройки в дополнительные профили для их быстрой активации в будущем.
Система охлаждения
Система охлаждения модели ROG STRIX GeForce GTX 1080 Ti OC Edition радует мощным и продуманным дизайном. Ее конструкция включает в себя никелированное медное основание, шесть никелированных медных 8-мм тепловых трубок, припаянных к алюминиевым пластинам двухсекционного радиатора, дополнительный низкопрофильный радиатор для охлаждения микросхем памяти и три 88-мм осевых вентилятора, закрепленных на пластиковом кожухе. А с помощью термоинтерфейса избыточное тепло от элементов подсистемы питания передается на основной радиатор. Производитель упоминает также о применении фирменной технологии MaxContact для автоматизированной установки кулера с оптимальной прижимной силой для улучшенного отвода тепла.
В роли вентиляторов выступают три вертушки от Power Logic: крайние модели используют маркировку «PLD09210S12HH» (12 В при 0,4 А), а центральный – «PLD09210S12M» (12 В при 0,25 А). Все они построены на подшипниках Long life bearing. Обычно так подписывают подшипники скольжения с увеличенным сроком службы. Сама крыльчатка использует запатентованный дизайн Wing-Blade, который обеспечивает увеличенный воздушный поток и статическое давление. А благодаря технологии 0dB кулер переходит в пассивный режим при низкой нагрузке, что мы обязательно проверим далее.
В автоматическом режиме работы системы охлаждения, при максимальной нагрузке температура графического процессора достигала 69°С. Вентиляторы вращались на 46% (1692 об/мин) от своей максимальной скорости, создавая очень тихий фоновый шум, который абсолютно не мешал работе. Напомним, что критической для ядра считается температура в 91°С. При этом частота GPU поднялась до 1873 МГц благодаря отличной эффективности кулера.
После принудительной установки скорости вентилятора на 100% (3572 об/мин), температура GPU опустилась до 50°С при частоте 1860 МГц. Традиционной расплатой является повышенный уровень шума, который превысил границу комфортности.
В режиме простоя вентиляторы прекратили свою работу, а температура графического процессора уменьшилась до 39°С. В активный режим пропеллеры возвращались лишь тогда, когда температура GPU поднималась до 58°С.
В результате система охлаждения видеокарты ROG STRIX GeForce GTX 1080 Ti OC Edition отлично справляется со своей задачей: в автоматичном режиме она обеспечивает хороший баланс между эффективностью отвода тепла и уровнем создаваемого шума, а при максимальной нагрузке демонстрирует высокий запас прочности для разгонных экспериментов. В нетребовательных задачах кулер и вовсе переходит в бесшумный пассивный режим. Посторонних звуков в виде раздражающего писка дросселей в процессе тестирования замечено не было.
NVIDIA GeForce GTX 1080 Ti появится в продаже в конце марта?
Интересное совпадение (а может это и вовсе не случайность): 28 февраля оба гиганта в сфере создания графических процессоров проведут собственные презентации на выставке GDC 2017. AMD в рамках Capsaicin & Cream планирует раскрыть подробности GPU линейки AMD Vega и видеокарт на их основе, релиз которых запланирован на лето текущего года.
В свою очередь NVIDIA пока не сообщила о конкретной теме своей презентации, но, например, в рамках аналогичного события в 2015 году была представлена видеокарта NVIDIA GeForce GTX 980 Ti. Согласно неофициальной информации, в этот раз опять дебютирует новый флагман – NVIDIA GeForce GTX 1080 Ti. Однако лишь на бумаге и в виде презентации. На полках магазинов он появится ориентировочно 20-23 марта.
Предварительная информация указывает, что в основе новинки находится 16-нм графический процессор NVIDIA GP102 с поддержкой 3328 CUDA-ядер, базовая частота которого составит 1503 МГц, а динамическая – 1623 МГц. Видеопамять общим объемом 10 ГБ будет работать на эффективной частоте 10 000 МГц при 384-битной шине. Показатель TDP заявлен на уровне 250 Вт, а ожидаемая стоимость NVIDIA GeForce GTX 1080 Ti составит $1000. Хотя все это пока неофициальные данные, поэтому для окончательных выводов подождем официального дебюта и результатов тестирования.
http://www.guru3d.com
https://www.techpowerup.com
Сергей Будиловский
Обзор и тестирование видеокарты GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G: экстремально хорошо
«А почему бы нам не сделать самую лучшую версию NVIDIA GeForce GTX 1070 на рынке?», − подумали, по всей видимости, однажды в компании GIGABYTE и разработали новую видеокарту в игровой линейке GIGABYTE Xtreme Gaming.
GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD) является одной из самых дорогих модификаций NVIDIA GeForce GTX 1070 с воздушным охлаждением. По правде говоря, она заняла эту позицию вполне заслуженно, ведь доработок и различных улучшений по сравнению с эталонной версией тут действительно много, начиная от оригинальной системы охлаждения и высокого уровня заводского разгона, и заканчивая двумя дополнительными видеовыходами HDMI для любителей VR. Давайте же разберемся во всех особенностях этой модели.
Спецификация
Модель |
GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD) |
|
GPU |
NVIDIA GP104-200-A1 |
|
Микроархитектура |
NVIDIA Pascal |
|
Техпроцесс, нм |
16 (FinFET) |
|
Количество CUDA-ядер |
1920 |
|
Количество текстурных блоков |
120 |
|
Количество растровых блоков |
64 |
|
Номинальная/динамическая частота графического ядра, МГц |
«Gaming» |
1671 / 1873 |
«OC» |
1695 / 1898 |
|
Частота памяти (эффективная), МГц |
«Gaming» |
2042 (8168) |
«OC» |
2079 (8316) |
|
Объем памяти, ГБ |
8 |
|
Тип памяти |
GDDR5 |
|
Ширина шины памяти, бит |
256 |
|
Тип шины |
PCI Express 3.0 x16 |
|
Интерфейсы вывода изображения |
Стандартный режим |
1 x DVI-D 1 x HDMI 2.0b 3 x DisplayPort 1.4 |
VR режим |
1 x DVI-D 3 x HDMI 2.0b 1 x DisplayPort 1.4 |
|
Минимальная мощность блока питания, Вт |
500 |
|
Дополнительные разъемы питания PCIe |
1 x 8-контактный 1 x 6-контактный |
|
Размеры с официального сайта (измеренные в нашей тестовой лаборатории), мм |
287 х 140 x 57 (300 x 138) |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании GIGABYTE или сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Оформление упаковки вполне однозначно заявляет, что перед нами видеокарта, ориентированная на геймеров. Об этом говорит логотип серии GIGABYTE Xtreme Gaming и упоминание о поддержке VR-устройств. Дополнительно отмечена расширенная четырехлетняя гарантия и целый ряд фирменных достоинств видеокарты на обратной стороне коробки.
Что же касается комплекта поставки, то наличие фирменного напульсника и наклейки с логотипом серии Xtreme Gaming – это, конечно, хорошо, но хотелось бы увидеть в коробке с одной из самых дорогих NVIDIA GeForce GTX 1070 хотя бы пару полезных аксессуаров, к примеру, мостики NVIDIA SLI.
На интерфейсной панели тестируемой модели представлен эталонный набор видеовыходов:
- 1 х DVI-D;
- 1 х HDMI 2.0b;
- 3 х DisplayPort 1.4.
Одновременное подключение мониторов ограничено четырьмя видеовыходами с максимальным разрешением 7680 х 4320 при 60 Гц.
Также на тыльной стороне видеокарты распаяны два дополнительных порта HDMI 2.0b, которые служат для подключения шлема виртуальной реальности.
При помощи двух кабелей HDMI графический адаптер подключается к специальной 5,25-дюймовой панели GIGABYTE VR Extended Front Panel, которая обладает двумя интерфейсами HDMI и двумя USB 3.0.
Также вы можете приобрести специальный набор аксессуаров, который включает в себя фирменный коврик, упомянутую выше панель, мостик NVIDIA SLI и два HDMI-порта на интерфейсную панель ПК, в случае, если вы не хотите подключать шлем виртуальной реальности к фронтальной панели.
В стандартном режиме работы в вашем распоряжении видеовыходы на интерфейсной панели видеокарты, а при желании погрузиться в виртуальную реальность вы переводите видеокарту в режим VR, в котором два из трех интерфейсов DisplayPort отключаются, а взамен активируются два дополнительных порта HDMI. Отдельно отметим, что для смены режимов необходима перезагрузка.
Внешний вид и элементная база
Видеокарта GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G выполнена на оригинальной печатной плате черного цвета. Логика расположения ключевых компонентов весьма привычна: все чипы памяти распаяны вокруг графического ядра, а компоненты подсистемы питания расположены по правую от него сторону. Сама печатная плата обладает специальным защитным покрытием в соответствии с технологией Xtreme Protection, которое предотвращает повреждение от влаги, пыли и коррозии.
Используемая элементная база соответствует фирменной концепции Ultra Durable VGA. В ее состав вошли исключительно надежные компоненты, такие как твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником.
Питание выполнено по усиленной 10+2-фазной схеме, где десять фаз отвечают за питание графического ядра, а две предназначены для подсистемы видеопамяти. Напомним, что эталонная видеокарта работает по пятифазной схеме (4+1).
В качестве ШИМ-контроллера используется микросхема uP9511P производства uPI Semiconductor, которую мы уже видели на NVIDIA GeForce GTX 1080.
Для питания тестируемого графического адаптера используется слот PCI Express x16 и два разъема PCIe (6- и 8-контактные), расположенные на боковой стороне платы. В свою очередь эталонная версия обходится только одним 8-контактным разъемом. Отметим, что кулер немного мешает отключению кабелей PCIe. Отдельно выделим два небольших светодиода рядом с разъемами, которые служат для индикации стабильности питания видеокарты. Если с питанием все хорошо, то они не горят, в случае отключения − они загораются, мигающие же светодиоды сигнализируют о нестабильном питании.
Для обеспечения работы технологии NVIDIA SLI на GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G используются два коннектора для подключения соответствующих мостиков.
Обратная сторона печатной платы прикрыта опорной пластиной, предназначенной не только для повышения жесткости конструкции, но и для прямого охлаждения элементов подсистемы питания, которое происходит посредством термоинтерфейса.
В основе видеоускорителя лежит графический чип NVIDIA GP104-200-A1, произведенный по 16-нм техпроцессу. Он состоит из 1920 ядер CUDA, 120 текстурных блоков и 64 блоков растеризации. Тестирование проводилось в режиме «Gaming», в котором базовая частота графического процессора увеличена с номинальных 1506 до 1671 МГц, а динамическая – с 1683 до 1873 МГц.
При желании в комплектной утилите можно оперативной активировать профили «ECO» или «OC». Первый характеризуется пониженными частотами и энергопотреблением, а второй – более высоким разгоном GPU (1695 / 1898 МГц) и памяти (8316 МГц).
Память тестируемой видеокарты, общим объемом 8 ГБ, набрана с помощью восьми чипов Samsung K4G80325FB-HC25 емкостью 8 Гбит каждый. Эффективная частота их работы в режиме «Gaming» была повышена до 8168 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 261,4 ГБ информации за секунду.
Обладатели корпусов с прозрачной боковой панелью по достоинству оценят наличие LED-подсветки на боковой стороне видеокарты, которая к тому же несет не только декоративную функцию. В частности, ближе к правому краю находится надпись «Fan Stop», сигнализирующая об остановке вентиляторов в случае низкой нагрузки на GPU.
В фирменной утилите Xtreme Engine вы можете выбрать один из нескольких режимов работы подсветки, включая мерцание в такт музыке, затухание и т.д. Также можно настроить цвет в пределах 16,8 млн. оттенков и отрегулировать яркость.
Система охлаждения
GIGABYTE GV-N1070XTREME-8GD с установленной системой охлаждения WINDFORCE 3X занимает два слота расширения и имеет общую длину 287 мм согласно официальному сайту компании (300 мм согласно измерениям в нашей тестовой лаборатории).
Cам кулер состоит из достаточно крупного двухсекционного радиатора, набранного из 71 и 62 алюминиевых никелированных поперечно расположенных пластин, трех вентиляторов с диаметром лопастей 100 мм, а также из пластикового кожуха, который накрывает всю конструкцию сверху.
Часть ребер радиатора расположена под углом, что по заверениям производителя должно способствовать оптимизации воздушного потока, увеличению области контакта потока с радиатором, а также снижению уровня шума.
Вертушки произведены компанией Power Logic и имеют маркировку «PLD10015B12H». Они построены на основе двойных подшипников качения с высоким сроком службы. Их номинальное рабочее напряжение составляет 12 В, а сила тока – 0,55 А.
Несмотря на использование трех 100-мм вентиляторов, производителю удалось сохранить размеры видеокарты в пределах 30 см, что было достигнуто благодаря размещению центральной вертушки под двумя крайними. К тому же она вращается в другом направлении для оптимизации воздушного потока.
Для повышения эффективности теплообмена используются четыре тепловые трубки (три диаметром 8 мм и одна 6-мм). К сожалению, они не покрыты слоем никеля, который применяется для минимизации падения эффективности работы вследствие окисления меди.
Контакт тепловых трубок с ребрами радиатора и основанием улучшен при помощи припоя.
Также производитель позаботился не только о температуре графического ядра, ведь сама система охлаждения контактирует через термоинтерфейс со всеми чипами видеопамяти, полевыми транзисторами и дросселями. Напомним и о наличии термоинтерфейса на опорной пластине, которая снимает излишки тепла с обратной стороны печатной платы в области подсистемы питания.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 66°С, а кулер работал при этом на 54% (1511 об/мин) от своей максимальной мощности. По субъективным ощущениям шум находился ниже среднего уровня, он абсолютно не выделялся на фоне других комплектующих и никоим образом не мешал в процессе использования видеокарты.
Для сравнения напомним, что модель ASUS ROG STRIX GeForce GTX 1080 GAMING OC в аналогичном режиме показала 63°С, а MSI GeForce GTX 1070 GAMING X 8G – 74°С. Но при этом частота GPU у тестируемой видеокарты была самой высокой: 2000 МГц против 1898 МГц у ASUS и 1949 МГц у MSI.
В режиме максимальной скорости вращения лопастей вентиляторов (2809 об/мин) температура GPU опустилась до 49°С. Это указывает на отличный запас мощности кулера, ведь критическая температура NVIDIA GP104 заявлена на уровне 94°С. При этом шум немного превысил средний уровень и перестал быть комфортным, но и громким его назвать нельзя.
И опять отмечаем, что система охлаждения модели GIGABYTE GV-N1070XTREME-8GD отлично смотрится на фоне упомянутых ранее конкурентов: у ASUS ROG STRIX GeForce GTX 1080 GAMING OC температура GPU была зафиксирована на 48°С при частоте GPU 1924 МГц, а показатели MSI GeForce GTX 1070 GAMING X 8G составили 62°С и 1962 МГц соответственно.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU не превышает 35°С, поскольку вентиляторы вообще перестают вращаться, и система охлаждения работает в полностью пассивном режиме. Активация работы вертушек происходит после достижения температурой GPU показателя 52°С.
Подтверждена подготовка видеокарты NVIDIA GeForce GTX 1080 Ti
Наверное, ни у кого не было сомнений, что компания NVIDIA все же выпустит новую флагманскую модель в серии NVIDIA GeForce GTX 10. Конечно же, речь идет о NVIDIA GeForce GTX 1080 Ti. Но поскольку AMD пока не презентовала конкурента на базе GPU AMD Vega 10, то у NVIDIA нет особой причины спешить с релизом NVIDIA GeForce GTX 1080 Ti, поскольку она и так доминирует в верхнем ценовом диапазоне.
Теперь же информация о скором дебюте данной модели получила свое официальное подтверждение благодаря социальной сети LinkedIn. В ней NVIDIA разместила вакансию на пост старшего менеджера по маркетингу (Senior Marketing Manager). В описании этой вакансии есть одно интересное предложение: «обладатели 980 Ti получают первоочередную возможность предварительного заказа 1080 Ti или предложения «Step Up»».
Вполне возможно, что «Step Up» − это программа лояльности, позволяющая владельцам видеокарты NVIDIA GeForce GTX 980 Ti получить определенную скидку при покупке модели NVIDIA GeForce GTX 1080 Ti. Не исключено, что и другие графические адаптеры будут включены в эту программу, поэтому ждем релиза нового флагмана и официальных подробностей программы «Step Up».
https://www.techpowerup.com
Сергей Будиловский
Выбор игрового компьютера. Зима 2016. Часть 3. Высокий и топовый уровень
В предыдущих двух частях мы рассмотрели начальные, базовые и среднеценовые системы для запуска современных игр на разных настройках графики в разрешениях вплоть до Quad HD. В заключительной части поговорим о конфигурациях для заядлых геймеров, которые хотят получить максимум производительности в сверхвысоких разрешениях. Итак, приступим.
Игровая система высокого уровня
Данная сборка нацелена в первую очередь на разрешение 2560 х 1440 (Quad HD), где можно будет поиграть в большинство актуальных игр на максимальных настройках графики. Для этого понадобится более мощная связка процессор + видеокарта. Перейдем сразу к рассмотрению систем.
|
Socket LGA1150 |
Socket LGA1151 |
Socket AM3+ |
|
Материнская плата |
На основе Intel B85 / H87 / H97 / Z97 ($82-110) |
На основе Intel B150 / H170 / Z170 ($87-136) |
На основе AMD 970 / 990FX + SB950 ($79-126) |
|
Процессор |
Intel Core i5-4690 ($243) |
Intel Core i5-6400 в разгоне / Core i5-6600 в номинале ($205-250) |
AMD FX-8300 / 8320E в сильном разгоне ($127) |
|
Графическая подсистема |
Дискретная видеокарта NVIDIA GeForce GTX 1070 c 8 ГБ GDDR5 ($500) |
|||
Оперативная память |
2 x 8 ГБ DDR3 с частотой 1866 МГц ($94-98) |
2 x 8 ГБ DDR4 с частотой 2133 МГц ($94-98) |
2 x 8 ГБ DDR3 с частотой 1866 МГц ($94-98) |
|
Накопитель |
SSD объемом 240 / 256 ГБ ($60 − 78) HDD объемом 2 ТБ ($70-80) |
|||
Система охлаждения |
Кулер башенного типа средней производительности ($21 − 30) |
Кулер башенного типа высокой производительности ($30 − 49) |
||
Блок питания |
Качественная модель мощностью 500 − 650 Вт с модульной системой кабелей ($63 − 110) |
|||
Корпус |
Модель формата Middle Tower ($50− 90) |
|||
Общая стоимость |
$ 1183 − 1339 |
$1150 − 1372 |
$1073 − 1258 |
|
Средняя стоимость |
$1261 |
$1261 |
$1166 |
Время платформ Socket AM3+ и Socket LGA1150 подходит к концу, поэтому лучше собирать новый высокопроизводительный компьютер именно на Socket LGA1151. При этом мы получим не только задел на будущее, но и более высокий FPS в играх. Если планируются разгонные эксперименты, то берем Intel Core i5-6400 и материнскую плату на основе чипсета Intel Z170 или модель серии ASRock Hyper-OC. В противном случае можно обойтись Intel Core i5-6600 и платой попроще, но с качественной аудиподсистемой, продвинутым сетевым контроллером и обилием современных портов ввода-вывода.
Предвидя вопросы по «китайскому» Intel Core i7-6400T, который с недавних пор появился на зарубежных интернет-площадках и активно обсуждается онлайн-сообществом, отвечаем: это инженерные образцы первых Intel Core i7 на микроархитектуре Intel Skylake. На выходе мы получаем 4 ядра и 8 потоков, но с низкой базовой частотой 2200 МГц. Если вам попадется удачный экземпляр, то вполне можно будет получить в разгоне чип уровня Intel Core i7-6700 за каких-то $150 или даже ниже (в номинале он не интересен). Но никто вам этого не гарантирует, равно как и долгой и стабильной работы. Так что все на ваш страх и риск. Если вы все же отважились на его покупку, то рекомендуем брать «камни» с маркировкой по типу QHQJ L501, которые выпущены на первой неделе 2015 года, то есть самые новые. Это дает куда большую уверенность в их стабильности и хорошем разгонном потенциале.
Выбор видеокарты сводится к покупке одной из множества модификаций NVIDIA GeForce GTX 1070, которая демонстрирует необходимую скорость для вывода QHD-картинки в современных требовательных играх при максимальных или близким к ним настройках графики. Во многих актуальных проектах ее хватит и для комфортного 4K-гейминга, но в будущем уровень качества картинки возрастет и придется уже понижать настройки графики для получения приемлемой скорости. Примером уже сейчас может служить новенький Watch Dogs 2, который ставит на колени в 4K даже топовую NVIDIA GeForce GTX 1080. Если говорить про предшественников, то новинка опережает NVIDIA GeForce GTX 980 более чем на 20% и демонстрирует очень близкую производительность с NVIDIA GeForce GTX 980 Ti при более низкой цене. Фактически конкурентов со стороны AMD у NVIDIA GeForce GTX 1070 нет, ведь на текущий момент самой новой видеокартой на рынке из «красного» лагеря является AMD Radeon RX 480, а она выступает в более доступном ценовом сегменте и предсказуемо уступает ей в среднем на 35%. И даже куда более дорогой прошлогодний флагман AMD Radeon R9 FURY X отстает от творения NVIDIA в среднем на 20%. Так что выбор очевиден.
Теперь попробуем получить похожую производительность, но с б/у комплектующими. Давайте посмотрим, что может предложить нам вторичный рынок.
|
Socket AM3+ |
Socket LGA1366 |
Socket LGA1156 |
Socket LGA1155 |
|||
Материнская плата |
На основе AMD 7xx /8xxE / 9xx / G / FX / GX + SB7xxx / 8xx / 9xx ($27-96) |
На основе Intel X58 + ICH10 ($153-222) |
На основе Intel H55 / H57 / Q57 / P55 ($32-117) |
На основе Intel P67 / Z68 / Z75 / Z77 ($38-114) |
|||
Процессор |
AMD FX-8100 / 8120 / 8150 ($70-100) |
Intel Core i7-9xx / Intel Xeon E / L / W / X / 3xxx / 5xxx ($9-100) |
Intel Core i7-860 / 870 / 875K / Intel Xeon X34xx ($41-74) |
Intel Core i5-2500K / 2550K / 3570K ($99-153) |
|||
(в сильном разгоне) |
|||||||
Графическая подсистема |
Дискретная видеокарта NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5 ($420) |
||||||
Оперативная память |
2 x 8 ГБ DDR3 с частотой 1600 МГц ($47-58) |
3 x 4 ГБ DDR3 с частотой 1333 МГц ($40-48) |
4 x 4 ГБ DDR3 с частотой 1333 МГц ($53-64) |
2 x 8 ГБ DDR3 с частотой 1600 МГц ($47-58) |
|||
Накопитель |
SSD объемом 240 / 256 ГБ (новый) ($60 − 78) HDD объемом 2 ТБ ($39-63) |
||||||
Система охлаждения |
Кулер башенного типа высокой производительности ($20 − 40) |
||||||
Блок питания |
Качественная модель мощностью 550 − 650 Вт ($23 − 51) |
||||||
Корпус |
Модель формата Middle Tower ($20 − 58) |
||||||
Общая стоимость |
$726 − 964 |
$784 − 1080 |
$708 − 965 |
$766 − 1035 |
|||
Средняя стоимость |
$845 |
$932 |
$837 |
$900 |
Для начала поговорим о платформе Socket LGA1366. В отличие от прошлой категории, уже не обойтись недорогой китайской материнской платой и номинально работающим 6-ядерным Intel Xeon X5660. Понадобится дорогая брендовая модель, способная к разгону, посему и выходит самая дорогая сборка. Но в результате мы получим 6 ядер / 12 потоков, которые хорошо себя проявляют не только в играх, но и при выполнении ресурсоемких задачах (работа с 3D-пакетами или кодирование видео). А это может быть очень даже весомым преимуществом.
Пожалуй, самые слабые сборки для игр будут на Socket AM3+ и Socket LGA1156, поэтому лучше их избегать. В таком случае вполне оправдана доплата за систему на Socket LGA1155 – высокая производительность на ядро, умеренное тепловыделение и отменный разгонный потенциал.
Переходим к видеоподсистеме. Видеоускорители, сопоставимые с NVIDIA GeForce GTX 1070, представлены на вторичном рынке только NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5. Но просят за нее ненамного дешевле новой GTX 1070, поэтому такая покупка выглядит довольно сомнительной. Двухчиповые модели и титаны стоят еще дороже. Конечно, можно соорудить связку NVIDIA SLI или AMD CrossFireX из нескольких видеокарт, но как показывает практика, далеко не все современные игры реагируют позитивным образом на такой тандем. В любом случае всегда есть варианты и решать только вам.
Обзор и тестирование видеокарты ASUS GeForce GTX 1080 TURBO
С момента анонса видеокарт на базе микроархитектуры NVIDIA Pascal прошло уже достаточно времени, чтобы партнеры порадовали пользователей разнообразием самых различных модификаций. Не стала исключением и компания ASUS, которая вместе с флагманской версией NVIDIA GeForce GTX 1080 (ASUS ROG STRIX GeForce GTX 1080), обладающей фирменной системой охлаждения, заводским разгоном и рядом других особенностей, включила в свой модельный ряд более доступный вариант.
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) позиционируется как самая доступная модификация NVIDIA GeForce GTX 1080 в фирменной линейке, которая получила похожую с версией Founders Edition систему охлаждения турбинного типа. При этом она лишилась опорной пластины, а сам кожух был заменен на более простой, выполненный из черного пластика. Давайте же взглянем, какие преимущества вы получите от покупки данной модели.
Спецификация
Модель |
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) |
Графическое ядро |
NVIDIA GP104-400-A1 |
Количество CUDA-ядер |
2560 |
Номинальная / динамическая частота графического ядра, МГц |
1607 / 1733 |
Эффективная частота памяти, МГц |
10010 |
Объем памяти, ГБ |
8 |
Тип памяти |
GDDR5X |
Ширина шины памяти, бит |
256 |
Пропускная способность памяти, ГБ/с |
320,3 |
Тип шины |
PCI Express 3.0 x16 |
Интерфейсы вывода изображения |
1 x DVI-D |
Минимальная мощность блока питания, Вт |
500 |
Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм |
266,7 x 111,2 x 38,1 (280 х 112) |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в достаточно крупной коробке, выполненной из плотного картона с качественной полиграфией. На лицевой стороне выделено наличие подарка для любителей игры World of Warships, который включает в себя инвайт-код (только для новых игроков) для активации бронепалубного крейсера «Диана» и 15 дней премиумного доступа.
В свою очередь обратная сторона сообщает нам о наличии подсвечивающегося логотипа компании на боковой стороне видеокарты, что будет приятным бонусом для обладателей корпусов с прозрачной боковой панелью.
Список системных требований к компьютеру, в который планируется установка видеоускорителя, расположен на одной из боковых сторон коробки. Исходя из рекомендаций, блок питания в такой системе должен обладать мощностью не менее 500 Вт, выдавать минимум 42 А по линии +12В и поддерживать один 8-контактный кабель питания PCIe.
В комплекте с ASUS TURBO-GTX1080-8G поставляется только краткое руководство пользователя и диск с драйверами и утилитами.
Для вывода изображения на тестируемом адаптере используется модифицированный набор интерфейсов:
- 1 х DVI-D;
- 2 х HDMI;
- 2 х DisplayPort.
Напомним, что эталонная версия использует лишь один порт HDMI, но три DisplayPort. В данном же случае компания ASUS решила пойти на встречу обладателям VR-устройств, предоставив им два порта HDMI.
Внешний вид
Как мы уже упоминали, одним из немногих отличий ASUS TURBO-GTX1080-8G от эталонной NVIDIA GeForce GTX 1080 Founders Edition является кожух системы охлаждения, выполненный из черного пластика. Немного освежают дизайн видеокарты серебристые вставки в виде тонких полос.
К неоспоримым достоинствам данной модели можно отнести высокое качество исполнения благодаря автоматическому процессу производства ASUS AUTO-EXTREME Technology и надежной элементной базы Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником. В результате производитель отмечает снижение рабочих температур, повышение энергоэффективности и увеличение срока службы.
Для питания тестируемого графического адаптера используется слот PCI Express 3.0 х16 и один 8-контактный разъем PCIe. Благодаря его удачному расположению кулер нисколько не затрудняет отключение кабеля PCIe.
Для обеспечения работы технологии NVIDIA SLI используются соответствующие коннекторы для подключения мостиков.
Вторым визуальным отличием ASUS TURBO-GTX1080-8G от NVIDIA GeForce GTX 1080 Founders Edition является отсутствие опорной пластины на обратной стороне печатной платы, которая примечательна некоторыми электрическими компонентами, включая упомянутые выше тантал-полимерные конденсаторы, и крепежными винтами системы охлаждения. Один из них прикрыт гарантийной наклейкой, поэтому снять радиатор без потери гарантии у вас не получится.
В основе новинки лежит графический чип NVIDIA GP104-400-A1, который произведен по 16-нм техпроцессу. Он состоит из 2560 ядер CUDA, 160 текстурных блоков и 64 блоков растеризации. Видеокарта работает на рекомендованных компанией NVIDIA частотах: номинальная − 1607 МГц и динамическая − 1734 МГц.
Память ASUS GeForce GTX 1080 TURBO, общим объемом 8 ГБ, набрана с помощью восьми GDDR5X-чипов компании Micron, которые работают на рекомендованной эффективной частоте 10010 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 320,3 ГБ информации за секунду.
Интересно, что компания ASUS не заявляет на официальном сайте о наличии других режимов работы ASUS GeForce GTX 1080 TURBO, однако в ПО ASUS GPU Tweak II есть возможность активировать профиль «OC», в котором номинальная частота работы графического ядра повышается до 1645 МГц, а динамическая − до 1772 МГц. Отметим, что тестирование проводилось в номинальном режиме с рекомендованными частотами.
Система охлаждения
Мы не разбирали видеокарту, дабы не нарушать гарантию, но вполне вероятно, что конструкция системы охлаждения очень похожа на дизайн эталонной модификации. В качестве преимущества компания ASUS указывает на использование долговечного двойного шарикоподшипника в основе вентилятора.
При автоматическом регулировании скорости вращения лопастей вентилятора, в режиме максимальной нагрузки, графическое ядро нагрелось до 82°С, а кулер, судя по показаниям мониторинга, работал на 66% от своей максимальной мощности. Уровень шума при этом был ниже среднего и абсолютно комфортным. Напомним, что кулер NVIDIA GeForce GTX 1080 Founders Edition в аналогичном режиме также удерживал температуру GPU на 82°С, но работал при более низкой скорости (2266 против 2788 об/мин).
В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 75°С. Издаваемый при этом шум слегка превысил средний уровень и вышел за комфортные рамки. В свою очередь кулер NVIDIA GeForce GTX 1080 Founders Edition смог охладить графическое ядро в аналогичном режиме до 69°С. Возможно, у ASUS TURBO-GTX1080-8G также отсутствует испарительная камера, уменьшены размеры радиатора либо разницу в показателях обеспечивает отсутствующая пластина жесткости.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, что приводит к уменьшению их энергопотребления и тепловыделения. В таком режиме температура GPU не превышает 43°С.
Обзор и тестирование видеокарты NVIDIA GeForce GTX 1080 Founders Edition на базе NVIDIA Pascal
Первое поколение 28-нм микроархитектуры NVIDIA Maxwell было представлено 18 февраля 2014 года в моделях NVIDIA GeForce GTX 750 и NVIDIA GeForce GTX 750 Ti. Ожидалось, что через полгода выйдет второе ее поколение, но уже на основе 20-нм техпроцесса. И действительно, 18 сентября 2014 года дебютировало второе поколение NVIDIA Maxwell в высокопроизводительных моделях NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980. Вот только использовали они все то же 28-нм техпроцесс. То ли NVIDIA изначально не планировала переходить на 20 нм, то ли у TSMC возникли сложности с освоением новой технологии, то ли AMD не удивила уровнем производительности конкурентных аналогов. Одним словом, в течение двух лет на рынке доминировала 28-нм микроархитектура NVIDIA Maxwell.
Согласно исследованиям аналитической компании Jon Peddie Research, именно в 2014 году позиции AMD на рынке десктопной графики (включая интегрированную графику в APU) опустились ниже 20%. А вот кривая NVIDIA показала восходящую тенденцию. То есть ставка на снижение энергопотребления с одновременным повышением быстродействия полностью себя оправдала. Особенно в мобильных системах, где NVIDIA полностью переиграла AMD по количеству успешных дизайнов.
Но индустрия спешит вперед, и компания TSMC уже успешно освоила 16-нм технологию FinFET. Intel и Samsung разобрались с 14-нм FinFET для производства сложных чипов, таких как центральные или графические процессоры. Одним словом, 2016 год – время очередного столкновения в некоторых сегментах. В данном случае – на рынке видеокарт. Позиции NVIDIA будет отстаивать микроархитектура NVIDIA Pascal. Конкуренцию ей составят 14-нм AMD Vega в сегменте Hi-End, а также AMD Polaris в категориях Middle-End и Performance. То есть лето и осень обещают быть жаркими и напряженными. Знакомство с NVIDIA Pascal мы начнем с топового на данный момент представителя – NVIDIA GeForce GTX 1080. Для начала давайте сравним между собой текущее и новое поколение графических адаптеров компании NVIDIA:
Модель |
NVIDIA GeForce GTX 970 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 980 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 Ti |
Техпроцесс, нм |
28 |
16 FinFET |
28 |
16 FinFET |
28 |
GPU |
NVIDIA GM204-200-A1 |
NVIDIA GP104-200-A1 |
NVIDIA GM204-400-A1 |
NVIDIA GP104-400-A1 |
NVIDIA GM200-310-A1 |
Микроархитектура |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
Площадь кристалла, мм2 |
398 |
314 |
398 |
314 |
601 |
Количество транзисторов, млрд. |
5,2 |
7,2 |
5,2 |
7,2 |
8,0 |
Количество CUDA-ядер |
1664 |
1920 |
2048 |
2560 |
2816 |
Количество текстурных блоков |
104 |
120 |
128 |
160 |
176 |
Количество растровых блоков |
56 |
64 |
64 |
64 |
96 |
Базовая / динамическая частота GPU, МГц |
1050 / 1178 |
1506 / 1683 |
1127 / 1216 |
1607 / 1733 |
1000 / 1076 |
Тип видеопамяти |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
GDDR5 |
Объем, ГБ |
4 |
8 |
4 |
8 |
6 |
Эффективная частота памяти, МГц |
7 012 |
8 008 |
7 012 |
10 008 |
7 012 |
Разрядность шины, бит |
256 |
256 |
256 |
256 |
384 |
Пропускная способность, ГБ/с |
224,4 |
256,3 |
224,4 |
320 |
337 |
Вычислительная мощность, TFLOPS |
3,494 |
5,783 |
4,616 |
8,228 |
5,632 |
TDP, Вт |
148 |
150 |
165 |
180 |
250 |
Рекомендованная стоимость на старте продаж, $ |
329 |
379 / 449 |
549 |
599 / 699 |
649 |
Как видим, общая тенденция к увеличению производительности и уменьшению энергопотребления сохранилась. Например, NVIDIA GeForce GTX 1070 по вычислительной мощности номинально превосходит NVIDIA GeForce GTX 980 Ti, а уровень ее TDP на 100 Вт ниже. В свою очередь NVIDIA GeForce GTX 1080 на 78% улучшила показатель уровня производительности по сравнению со своим предшественником. А ее тепловой пакет при этом возрос лишь на 9%. Достижению этого сопутствовали как улучшения в микроархитектуре, так и ряд технологий. Более того, NVIDIA добавила и некоторые интересные функции (например, HDR или Ansel), которые напрямую не влияют на скорость вычислений, но делают погружение в виртуальный мир компьютерной графики еще ярче и приятнее. О них мы и поговорим далее.
Микроархитектура и новые технологии
Поскольку NVIDIA Pascal совершил огромный прыжок с 28-нм технологии на 16-нм FinFET, то вносить кардинальные изменения в его структуру компания NVIDIA не стала. К тому же NVIDIA Maxwell отлично себя показала как в плане производительности и балансировки нагрузок, так и в вопросе энергоэффективности, поэтому решение лишь немного доработать этот дизайн вполне логичное.
Структурная схема графического процессора NVIDIA GP100
На данный момент графический процессор NVIDIA GP104, который и лежит в основе NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, является вторым по старшинству после NVIDIA GP100. Похожую ситуацию мы наблюдали и в семействе NVIDIA Maxwell: NVIDIA GM204 использовался для видеокарт NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980, а NVIDIA GM200 – для NVIDIA GeForce GTX 980 Ti и NVIDIA GeForce GTX TITAN X. Однако есть и одна важная разница: NVIDIA GP100 установлен в профессиональном ускорителе NVIDIA Tesla P100 для дата-центров, и в своей структуре он использует специальные CUDA-ядра для вычислений двойной точности (FP64) наряду с обычными. В играх и большинстве повседневных программах они не задействованы, поэтому особой пользы от них нет. Существует пока неофициальная версия о наличии GPU NVIDIA GP102. Предположительно именно он ляжет в основу видеокарты NVIDIA GeForce GTX 1080 Ti и новой модели серии NVIDIA GeForce GTX TITAN.
Структурная схема графического процессора NVIDIA GP104
Структурная схема графического процессора NVIDIA GM204
Структурная схема кластера TPC в NVIDIA GP104 (слева) и NVIDIA GM204 (справа)
Структурно графический процессор NVIDIA GP104 разбит на четыре вычислительных кластера (Graphics Processing Cluster (GPC)), как и NVIDIA GM204. Однако переход на более тонкий техпроцесс позволил увеличить количество потоковых мультипроцессоров (Streaming Multiprocessor (SM)), поэтому у новинки в каждом GPC используется по пять SM-блоков вместо четырех у NVIDIA GM204.
Уже традиционно SM-блок вместе с движком PolyMorph Engine объединены в Texture Processor Cluster (TPC). Структура TPC у NVIDIA GP104 практически не изменилась по сравнению NVIDIA GM204. Ключевое различие заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection, которого не было раньше.
Если мы нырнем еще глубже в микроархитектуру и заглянем в SM-блок, то увидим, что он включает в себя 4 планировщика (Warp Scheduler), 128 CUDA-ядер, регистровый файл общим объемом 256 КБ, кэш-память L1 объемом 48 КБ и 8 текстурных блоков – тут все без изменений.
Общая структура контроллера памяти немного изменилась - вместо четырех 64-битных используются восемь 32-битных, но в общем счете получаем ту же 256-битную шину, что и у NVIDIA GM204. Для более наглядного восприятия давайте сведем всю обозначенную информацию в одну таблицу:
Видеокарта |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 |
Графический процессор |
NVIDIA GP104-400 |
NVIDIA GM204-400 |
Техпроцесс, нм |
16 FinFET |
28 |
Площадь кристалла, мм2 |
314 |
398 |
Общее количество транзисторов, млрд. |
7,2 |
5,2 |
Количество кластеров GPC |
4 |
4 |
Количество кластеров TPC |
20 |
16 |
Количество SM-блоков |
20 |
16 |
Количество CUDA-ядер |
2560 |
2048 |
Количество текстурных блоков |
160 |
128 |
Количество растровых блоков |
64 |
64 |
Объем кэш-памяти L2, КБ |
2048 |
2048 |
Скорость выборки текстур, гигатекселей/с |
257,1 |
144,3 |
Скорость закраски, гигапикселей/с |
102,8 |
72,1 |
NVIDIA GPU Boost 3.0
После короткого погружения в микроархитектуру, давайте рассмотрим наиболее интересные технологии, дебютирующие в NVIDIA Pascal. Первая на очереди – технология динамического разгона NVIDIA GPU Boost 3.0. Она позволяет в индивидуальном порядке получить более высокие показатели тактовых частот. Принципиальное отличие от GPU Boost 2.0 заключается в большем контроле со стороны пользователя. Раньше смещение динамической частоты относительно номинальной скорости GPU было строго фиксированным. Но ведь возможности каждого графического процессора, то есть максимальные частотные кривые в рамках заданных температурных рамок, разные. Например, одни могут повышать скорость от 1733 до 2000 МГц, а другие – от 1733 до 1800 МГц. Поэтому GPU Boost 3.0 позволяет задать смещение частоты в турборежиме для каждого отдельно взятого графического процессора и на всем промежутке возможных напряжений.
Для этого в утилитах для оверклокинга добавлена соответствующая функция. На первом этапе работы она протестирует установленную в системе видеокарту и составит для нее индивидуальную кривую максимально возможных динамических частот для каждого заданного напряжения. На втором этапе пользователь в автоматическом или в ручном режиме указывает оптимальные показатели динамических частот, чтобы они использовали возможности текущего GPU по максимуму, но не превышали безопасных температурных рамок.
GDDR5X
Использование HBM в моделях линейки AMD Radeon R9 FURY позволяет существенно улучшить производительность подсистемы видеопамяти. Но вместе с тем это повышает сложность изготовления графического процессора и его конечную стоимость. Поэтому NVIDIA приберегла стандарт HBM2 для GPU NVIDIA GP100 (и, возможно, NVIDIA GP102), а вот в NVIDIA GP104 интегрирован контроллер с поддержкой стандартов GDDR5X и GDDR5. Первый тип памяти предназначен для NVIDIA GeForce GTX 1080, второй – для NVIDIA GeForce GTX 1070.
Вкратце напомним, что стандарт GDDR5X позволяет передавать четыре бита данных за такт (Quad Data Rate) вместо двух (Double Data Rate) у GDDR5. Также с 8n до 16n увеличилась предварительная выборка данных (prefetch). В результате пропускная способность интерфейса на контакт увеличилась с 7-8 до 10-12 Гбит/с. Для используемой памяти GDDR5X в модели NVIDIA GeForce GTX 1080 этот показатель как раз и составляет минимальные 10 Гбит/с. В последующих поколениях микросхем планируется довести его до 16 Гбит/с. Но даже показатель в 10 Гбит/с на контакт позволил увеличить пропускную способность памяти новой видеокарты до 320 ГБ/с при 256-битной шине, что потребовало изменений в дизайне контроллера памяти и печатной платы. Напомним, что у NVIDIA GeForce GTX 980 этот параметр составляет 224,4 ГБ/с при аналогичной разрядности шины. А у NVIDIA GeForce GTX 980 Ti – 336 ГБ/с при 384-битной шине.
К другим ключевым преимуществам GDDR5X относится увеличенный максимальный объем одной микросхемы (с 8 до 16 Гбит), что позволяет реализовать большую общую емкость подсистемы видеопамяти при одинаковом количестве чипов, и уменьшенное напряжение питания (с 1,5 до 1,35 В), что ведет к повышенной энергоэффективности. К тому же в стандарте прописана необходимость управления скоростью микросхем памяти от уровня их температуры. Теоретически, это должно повысить внимание разработчиков к эффективности охлаждения чипов памяти.
Memory Comptression
Увеличенная пропускная способность памяти – это большое преимущество, но дополнительный бонус к скорости работы подсистемы видеопамяти и видеокарты в целом обеспечивает четвертое поколение метода компрессии на основе разницы цвета (Delta Color Compression). Суть его работы заключается в обнаружении групп пикселов с минимальным различием в цвете. А затем они кодируются с помощью двух показателей: базового цвета и разницы (дельты) между базовым и реальным цветом.
Третье поколение этой технологии использовалось в NVIDIA Maxwell. По сравнению с ним NVIDIA Pascal улучшил алгоритм сжатия 2:1, а также добавил режимы 4:1 и 8:1. Если же в изображении используется очень много различных оттенков, то сжатие может и не осуществляться.
Оригинальное изображение (слева), сжатие в NVIDIA Maxwell (по центру), сжатие в NVIDIA Pascal (справа)
Для наглядной демонстрации преимуществ работы движка Pascal Memory Compression Engine над Maxwell Memory Compression Engine компания NVIDIA использовала кадр из игры Project CARS. Пурпурным цветом закрашены области изображения, которые удалось сжать. В результате этой процедуры уменьшается объем данных, циркулирующих между памятью, кэшем L2, текстурными блоками, буфером кадра и другими блоками графического процессора. В цифровом эквиваленте движок Pascal Memory Compression Engine добавляет 20% к показателю пропускной способности, теоретически увеличивая его до 384 ГБ/с.
В общей сложности сочетание более высокой пропускной способности GDDR5X-памяти и улучшенных алгоритмов сжатия информации обеспечивают прирост производительности подсистемы видеопамяти NVIDIA GeForce GTX 1080 относительно NVIDIA GeForce GTX 980 на уровне 70%.
Async Compute: Dynamic Load Balancing и Pixel Level Preemption
До сентября 2015 года многие даже и не подозревали о технологии асинхронных вычислений (Async Compute) и ее влиянии на итоговую производительность компьютера, поскольку API DirectX 11 ее попросту не использует. А вот в DirectX 12 разработчики могут применять ее для оптимизации задействованных ресурсов. Дело в том, что при рендеринге игровой сцены компьютер просчитывает множество сложных эффектов (тени, свет, физику поведение объектов, алгоритм работы AI и другие). В DirectX 11 он это делает в последовательном режиме, шаг за шагом, поэтому задержка на одном этапе тормозит весь процесс. А в DirectX 12 появилась возможность параллельного вычисления. Например, одна часть системы занимается сложным расчетом эффектов света, а другая тем временем обрабатывает поведение AI или занимается другими стадиями подготовки изображения. Такой сценарий отлично иллюстрирует работу одной из составных частей Async Compute – технологии динамической балансировки нагрузок (Dynamic Load Balancing).
В NVIDIA Maxwell используется статическая балансировка, при которой одна часть ресурсов выделяется на графические задачи, другая – на вычислительные. Если, например, первая справилась со своей работой быстрее, то она некоторое время простаивает без нагрузки. Динамическая балансировка в NVIDIA Pascal использует всеми любимый принцип: кто справился быстрее, тот помогает отстающему. В результате многие задачи решаются более оперативно.
Второй вариант использования асинхронных вычислений – технология Pixel Level Preemption – отлично подойдет для тех задач, которые следует делать либо вовремя, либо не делать вообще. Например, она помогает реализовать алгоритм Asynchronous TimeWarp (ATW) в VR-шлемах. Системы виртуальной реальности сами по себе требуют много вычислительных ресурсов, а пользователь своими резкими вращениями головой добавляет нагрузку на графический процессор, ведь изменение ее положения в пространстве требует обработки уже другого кадра. Поэтому если система не успела вовремя закончить просчет кадра до его вывода на экран, то он теряет свою актуальность и вычислительные ресурсы необходимо направить на другие задачи. В такой ситуации технология Pixel Level Preemption прервет его рендеринг, при необходимости выгрузит результат в память и займется другой задачей.
Simultaneous Multi-Projection
При взгляде на микроархитектуру мы упоминали, что ключевое различие в схеме кластера TPC между NVIDIA Pascal и NVIDIA Maxwell заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection. Он отвечает за реализацию одноименной технологии, суть работы которой сводится к достоверному проецированию геометрических 3D-объектов на плоских экранах в зависимости от угла просмотра.
Проекция в одной плоскости (слева), некорректная проекция в нескольких плоскостях (по центру), корректная проекция благодаря Simultaneous Multi-Projection
Монитор – это наше окно в мир 3D-графики. На одном экране мы можем наблюдать очень качественную 3D-картинку. Но если установить, например, три экрана со смещением друг к другу, то картинка будет и дальше обрабатываться лишь в одной проекции, а смотреть на нее мы уже будем под тремя разными углами. В таком случае создается впечатление, что достоверная геометрия реализована лишь на центральном экране, расположенном перпендикулярно взгляду пользователя. А вот боковые дисплеи будут искажать картинку. Именно в этом случае Simultaneous Multi-Projection обеспечит корректность восприятия.
Другой пример использования этой технологии – VR. Она отрисовывает геометрию для правого и левого глаз одновременно за один проход, что обеспечивает повышенный уровень производительности для шлемов виртуальной реальности. Дополнительно она позволяет оперировать меньшим объемом данных, снижая необходимое для комфортного восприятия разрешение изображения в Oculus Rift с 4,2 до 2,8 Мп. Это трансформируется в экономию вычислительных ресурсов и времени на их обработку. В результате NVIDIA Pascal демонстрирует отличную производительность в VR-бенчмарках.
Аппаратное декодирование видео и HDR
Микроархитектура NVIDIA Pascal принесла с собой улучшения в блоке вывода изображения на экран. Например, появилась возможность аппаратного кодирования и декодирования видеопотока в HEVC с глубиной цвета 10 или 12 бит на канал, улучшено декодирование H.264 и некоторых других стандартов.
Однако настоящим прорывом обещает стать High Dynamic Range (HDR). Мониторы с ее поддержкой могут воспроизводить 75% видимого цветового спектра, что в два раза больше, чем у современных экранов. Максимальная яркость у них увеличится до 1000 кд/м2 (сейчас – 250 – 350 кд/м2), а статическая контрастность – до 10 000:1 (сейчас 1 000:1 для TN и IPS, 3 000:1 для VA).
Видео и игры для HDR обещают буйство красок и настоящее пиршество для глаз. Поэтому если вы в ближайшей перспективе планировали покупать новый монитор, то рекомендуем подождать выхода HDR-совместимых моделей, которые должны дебютировать до конца года.
Fast Sync
Показатели в игре Counter-Strike: Global Offensive
В посвященном технологии NVIDIA G-SYNC материале мы подробно разобрались в недостатках работы технологии вертикальной синхронизации (V-SYNC On). Наибольшие проблемы она создает любителям динамичных игр и онлайн-проектов, где высокая частота кадров сопутствует низким задержкам в смене игровой обстановки. Поэтому многие пользователи попросту выключают ее и не обращают внимание на возможные разрывы кадров. В качестве альтернативы NVIDIA Pascal предлагает технологию Fast Sync, которая позволяет устранить артефакты изображения и сохранить сравнительно низкие задержки вывода кадров на экран.
В чем же заключается ее суть? Во-первых, вся цепочка подготовки кадра условно делится на две независимые части. В первую входит игровой движок, драйвер и графический процессор. Их задача – обеспечивать максимально быстрый рендеринг каждой сцены, независимо от частоты обновления экрана. То есть наследуется принцип работы с выключенной вертикальной синхронизацией (V-SYNC Off). За условной пунктирной чертой на рисунке находится вторая часть – первичный буфер (Front Buffer), вторичный буфер (Back Buffer), буфер LRB (Last Rendered Buffer) и сам экран. Эта часть уже ориентируется на частоту обновления экрана, чтобы кадр выводился целиком, без каких-либо разрывов. То есть наследуется принцип работы V-SYNC On.
Вся система взаимодействует следующим образом: после рендеринга готовый кадр попадает в Back Buffer, который сразу же после этого меняется именами с Last Rendered Buffer, чтобы графический процессор имел место для хранения нового кадра (смена именами заменяет процесс копирования). То есть Back Buffer получает готовый кадр для вывода на экран и становится Last Rendered Buffer, а Last Rendered Buffer становится Back Buffer и готов к приему нового кадра от графического процессора. Как только монитор запрашивает новый кадр, сразу же Last Rendered Buffer с готовым изображением меняется именами с Front Buffer, поскольку именно из него информация подается на экран. Таким образом, GPU может обрабатывать кадры с максимально возможной скоростью, а карусель между тремя буферами гарантирует, что они не пропадут бесследно и на экран будет выводится нужный кадр без больших задержек и разрывов. Вот только Fast Sync эффективно работает для тех игр, в которых скорость воспроизведения выше частоты обновления экрана. Для обычных мониторов она составляет 60 Гц. Если уровень FPS выше 60, тогда есть смысл использовать Fast Sync. Если ниже, тогда плавность картинки обеспечит NVIDIA G-SYNC.
Multi-GPU
Если вы планируете использовать несколько графических адаптеров NVIDIA Pascal в режиме NVIDIA SLI, особенно для поддержки экранов с высокими разрешениями, тогда вам просто необходим новый мостик High Bandwidth SLI Bridge (SLI HB Bridge).
В отличие от стандартного, он использует оба SLI-коннектора на печатной плате видеокарты. Также с 400 до 650 МГц повысилась частота работы комбинированного SLI-интерфейса. В результате существенно возрастает его пропускная способность, что и позволяет реализовать комфортную поддержку 4K- и 5K-экранов.
И еще один важный момент: теперь компания NVIDIA не рекомендует использовать 3 или 4 видеокарты в режиме NVIDIA SLI. Дело в том, что масштабирование производительности для режима NVIDIA SLI в играх и программах − достаточно сложный и трудоемкий процесс, поэтому NVIDIA решила ограничиться оптимизацией под 2 видеокарты. Чтобы разблокировать режим 3-Way или 4-Way NVIDIA SLI, пользователям необходимо будет загрузить бесплатную утилиту Enthusiast Key из официального сайта NVIDIA, которая поможет активировать необходимые настройки. В качестве альтернативы NVIDIA предлагает использовать режимы «Multi Display Adapter (MDA)» или «Linked Display Adapter (LDA)» в совместимых DirectX 12 играх, которые могут реализовать поддержку 4 видеокарт.
NVIDIA Ansel
С каждым годом компьютерная графика в играх становится все более красочнее и реалистичнее. Среди многих людей бытует мнение, что компьютерные игры – это новый вид искусства, поэтому некоторые художники и фотографы всячески популяризируют процесс захвата наиболее удачных игровых кадров. Вот только разработчики обычно не уделяют этому много внимания, поэтому выбрать нужный ракурс достаточно сложно, особенно в динамичном игровом процессе.
Но теперь есть технология NVIDIA Ansel, обещающая настоящий прорыв в этом вопросе. Для ее реализации в программный код игры необходимо будет добавить определенные фрагменты: для The Witness – это около 40 строк кода, а для The Witcher 3: Wild Hunt – около 150, то есть сущие пустяки по сравнению с общим объемом.
Взамен она предоставляет уникальные возможности:
- свободную камеру, позволяющую выбрать нужный ракурс для создания максимально эффектного скриншота;
- фильтры постобработки, которые позволяют поиграться с различными цветовыми эффектами;
- возможность захвата снимков с разрешением, которое в 32 раза превышает максимальное разрешение экрана;
- поддержку высокого цветового спектра для последующего экспорта снимка в Adobe Photoshop;
- съемку 360-градусных фото для дальнейшего просмотра с помощью VR-устройств.
Поддержка технологии Ansel уже заявлена для Tom Clansy’s The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky и Unreal Tournament. Со временем наверняка и другие проекты присоединятся к этому списку.
NVIDIA VRWorks
VR – это один из новых мощных драйверов для рынка компьютерных технологий в целом и игр в частности. Пока это достаточно дорогое удовольствие с ограниченным количеством контента, но перспективы у него очень большие. Прекрасно это понимая, NVIDIA оперативно выпустила обновленный пакет инструментов NVIDIA VRWorks. Он включает в себя различные технологии, инструменты и библиотеки полезных функций, которые существенно упрощают разработчикам процесс создания программ и игр под VR. В результате программисты экономят время и ресурсы, используя готовые и протестированные инструменты, а пользователи получают более реалистичный контент. Конечно, при условии, что используют совместимую видеокарту компании NVIDIA.
Для лучшего понимания возможностей NVIDIA VRWorks предлагаем посмотреть демонстрационный ролик, отображающий и объясняющий преимущества использования одной из ее технологии − VRWorks Audio.
Видеокарты NVIDIA GeForce GTX 970, GTX 980 и GTX 980 Ti становятся дешевле
Вполне логичный и ожидаемый ход сделала компания NVIDIA: с целью побыстрее распродать остатки видеокарт предыдущего поколения были снижены цены на высокопроизводительные модели линейки NVIDIA Maxwell. В частности, стоимость NVIDIA GeForce GTX 970 упала на $25, желающим купить NVIDIA GeForce GTX 980 придется заплатить на $75 меньше, а новые обладатели NVIDIA GeForce GTX 980 Ti могут сэкономить $125.
В первую очередь снижение цен зафиксировано на западных онлайн-площадках, хотя источник сообщает, что это глобальный шаг, поэтому в ближайшие несколько дней стоимость указанных видеоускорителей должна упасть и для других рынков. Таким образом, конкуренция усиливается не только для внутреннего модельного ряда компании NVIDIA, но и для новых видеокарт серии AMD Polaris, которые придут на рынок в конце июня. А это значит, что у пользователей есть шанс приобрести добротную модель по более доступной стоимости.
http://videocardz.com
Сергей Будиловский
Обзор и тестирование видеокарты GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)
Продолжая разговор о текущих флагманских видеокартах AMD, выполненных на основе графического ядра AMD Fiji, мы рассмотрим топовый графический ускоритель AMD Radeon R9 FURY X.
В отличие от рассмотренной ранее AMD Radeon R9 FURY, тестируемая модель, как и AMD Radeon R9 Nano, получила максимальную версию графического ядра AMD Fiji, включающую в себя 4096 потоковых процессоров, 256 текстурных блоков и 64 модуля растровых операций. Если же сопоставить AMD Radeon R9 FURY X с AMD Radeon R9 Nano, то мы увидим более высокую частоту графического процессора (1050 против 1000 МГц) и увеличенный показатель теплового пакета (275 против 175 Вт). Итоговая сравнительная таблица характеристик всех трех видеокарт выглядит следующим образом:
Модель |
AMD R9 Fury X |
AMD R9 Fury |
AMD R9 Nano |
Графическое ядро |
AMD Fiji XT |
AMD Fiji PRO |
AMD Fiji XT |
Микроархитектура |
AMD GCN 1.2 |
||
Количество потоковых процессоров |
4096 |
3584 |
4096 |
Количество текстурных блоков (TMU) |
256 |
224 |
256 |
Количество модулей растровых операций (ROP) |
64 |
64 |
64 |
Частота графического ядра, МГц |
1050 |
1000 |
1000 |
Тип памяти |
HBM |
||
Объем видеопамяти, ГБ |
4 |
||
Эффективная частота видеопамяти, МГц |
1000 |
||
Ширина шины видеопамяти, бит |
4096 |
||
Пропускная способность видеопамяти, ГБ/с |
512 |
||
Показатель TDP, Вт |
275 |
275 |
175 |
Отдельно напомним, что с подробным описанием всех характеристик и возможностей AMD Fiji вы можете ознакомиться в обзоре AMD Radeon R9 Nano, ну а мы тем временем перейдем непосредственно к обзору AMD Radeon R9 FURY X.
И сделать это нам поможет модификация GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B). Данный видеоускоритель любезно предоставлен смарт-маркетом электроники VSESVIT.BIZ, где его же можно и купить ориентировочно за $785.
Спецификация:
Модель |
GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) |
Графическое ядро |
AMD Fiji XT |
Количество потоковых процессоров |
4096 |
Частота графического ядра, МГц |
1050 |
Частота памяти (эффективная), МГц |
500 (1000) |
Объем памяти, ГБ |
4 |
Тип памяти |
HBM |
Ширина шины памяти, бит |
4096 |
Пропускная способность памяти, ГБ/с |
512 |
Тип шины |
PCI Express 3.0 x16 |
Интерфейсы вывода изображения |
1 x HDMI 3 x DisplayPort |
Рекомендованная мощность блока питания, Вт |
750 |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
210 х 130 х 40 (208 x 116) |
Драйверы |
Свежие драйверы можно скачать с сайта компании GIGABYTE или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в достаточно крупной и объемной коробке, что неудивительно, учитывая наличие комплектной СВО. Дизайн упаковки выполнен в уже знакомом фирменном стиле, а качественная полиграфия является весьма информативной.
На обратной стороне упоминается техническая спецификация, некоторые преимущества GIGABYTE GV-R9FURYX-4GD-B и список системных требований. Исходя из рекомендаций, блок питания в системе должен обладать мощностью не менее 750 Вт и поддерживать два 8-контактных кабеля PCIe. А в корпусе ПК одно из посадочных мест под 120-мм системный вентилятор будет использовано для крепления радиатора СВО.
В комплекте с графическим адаптером мы обнаружили только стандартный набор аксессуаров в виде документации и диска с ПО. Какие-либо переходники в коробке отсутствуют, а значит, при необходимости поиском адаптеров для подключения питания придется озаботиться заблаговременно.
Для вывода изображения на тестируемой модели используется эталонный набор интерфейсов:
- 1 х HDMI;
- 3 х DisplayPort.
Вполне логичным шагом производителя выглядит отказ от аналогового видеовыхода в топовой видеокарте. А что касается DVI, то разместить его на плате было проблематично из-за используемой системы охлаждения, поэтому при необходимости можно приобрести соответствующий переходник.
Внешний вид и система охлаждения
В список достоинств GIGABYTE Radeon R9 FURY X несомненно следует занести ее компактные габариты, благодаря которым не возникнет никаких проблем с установкой даже в относительно маленькие корпуса (при условии, что найдется посадочное место для радиатора СВО). Отдельно выделим вполне узнаваемый и стильный дизайн в темных тонах, который отлично дополняется логотипом красного цвета и софт-тач покрытием верхней крышки кулера.
Обратная сторона прикрыта опорной пластиной, на которой нанесены наклейки с необходимой сервисной информацией.
Отдельно отметим наличие на обратной стороне небольшого переключателя, который отвечает за активацию и управление диагностической подсветкой, реализованной при помощи 9 светодиодов рядом с разъемами питания.
При помощи переключателя можно не только выключить работу подсветки, но и изменить цвет ее свечения с красного на синий.
Еще один тумблер отвечает за переключение между двумя прошивками BIOS (основной и запасной). Он расположен рядом со светящимся красным цветом логотипом «Radeon».
В отличие от упомянутых выше светодиодов, данный логотип всегда светится только красным цветом, и управлять его работой нельзя.
Для питания тестируемого графического адаптера доступен слот PCI Express x16 и два 8-контактных разъема PCIe, расположенных на боковой стороне платы. Система охлаждения не закрывает доступ к ним, что сопутствует удобному подключению и отключению кабелей питания.
В основе тестируемой модели лежит GPU AMD Fiji XT, произведенный по 28-нм техпроцессу. Он включает в себя 4096 потоковых процессоров, 64 блока растеризации и 256 текстурных блоков. Частота графического процессора соответствует эталонным 1050 МГц.
Память, общим объемом 4 ГБ, набрана с помощью четырех HBM-чипов производства SK hynix, которые работают на эффективной частоте 1000 МГц. Обмен данными между графическим процессором и памятью осуществляется через 4096-битную шину, которая способна пропускать 512 ГБ/с.
Система охлаждения
Система охлаждения модели GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) представляет собой замкнутый контур. Из корпуса видеокарты выходят два соединительных шланга для циркуляции жидкости и кабель питания. Внутри они подключены к совмещенному с помпой водоблоку, который установлен на алюминиевой пластине, накрывающей печатную плату.
Для охлаждения хладагента используется массивный радиатор с размерами 150 х 120 х 38 мм.
Активным элементом этой части конструкции выступает осевой вентилятор типоразмера 120 мм с диаметром лопастей 111 мм. Ширина радиатора с установленной вертушкой составляет 64 мм.
В автоматическом режиме работы с максимальной нагрузкой графическое ядро нагрелось до 64°С, а кулер, судя по показаниям мониторинга, работал при этом на 19% от своей пиковой мощности. Уровень шума при этом был очень тихим и абсолютно комфортным. Для сравнения напомним, что достаточно габаритный кулер с тремя вентиляторами, установленный на GIGABYTE Radeon R9 FURY WINDFORCE 3X OC, смог охладить работающий на меньших частотах AMD Fiji PRO до 69°С.
В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 42°С. Издаваемый при этом шум немного превысил средний уровень и стал некомфортным для постоянного использования. В свою очередь температура GIGABYTE Radeon R9 FURY WINDFORCE 3X OC в аналогичном режиме составила 50°С.
При отсутствии нагрузки частоты графического ядра и памяти автоматически снижались, что приводило к меньшему их энергопотреблению и тепловыделению. К сожалению, СВО не переходит при этом в пассивный режим и продолжает работать. Температура графического ядра в таком режиме не превышала отметку в 25°С. Отдельно отметим, что периодически был различим высокочастотный шум дросселей, что не критично, но не очень приятно.
NVIDIA GeForce GTX 1070 быстрее NVIDIA GeForce GTX TITAN X
NVIDIA демонстрирует другим IT-компаниям наглядный пример того, каким должно быть новое поколение продуктов, и на сколько должен отличаться уровень его производительности. В частности, специалистам одного авторитетного веб-сайта удалось заполучить в свое распоряжение видеокарту NVIDIA GeForce GTX 1070 Founders Edition, которую они протестировали в трех режимах бенчмарка 3DMark FireStrike («Performance 1080p», «Extreme 1440p» и «Ultra 2160p»), а затем сравнили полученные результаты с конкурентными аналогами. В результате NVIDIA GeForce GTX TITAN X ($999) отстала от NVIDIA GeForce GTX 1070 ($449) в среднем на 3%, а NVIDIA GeForce GTX 980 Ti ($649) и AMD Radeon R9 Fury X ($649) – на 5%. Интересно то, что чем выше разрешение экрана, тем увереннее себя чувствует NVIDIA GeForce GTX 1070. Например, отрыв от NVIDIA GeForce GTX 970 ($329) в режиме «Performance 1080p» составил 36%, а в «Ultra 2160p» − уже 50%.
А вот оверклокинг видеоускорителя NVIDIA GeForce GTX 1070 Founders Edition вызвал двойственные чувства. С одной стороны, технические показатели удалось существенно ускорить: частота GPU в среднем достигла 2060 МГц, а эффективная скорость видеопамяти взяла планку в 9 ГГц. С другой – даже эти значения не позволили превзойти результат NVIDIA GeForce GTX 1080 Founders Edition. К тому же предусмотренное количество фаз питания версии NVIDIA GeForce GTX 1070 Founders Edition не позволило раскрыть весь доступный потенциал. Поэтому любителям максимального разгона все же рекомендуется смотреть в сторону моделей с усиленной подсистемой питания.
Сравнительная таблица технической спецификации видеокарт NVIDIA GeForce GTX 1070 и NVIDIA GeForce GTX 1080:
Финальная спецификация и слайды с презентации NVIDIA GeForce GTX 1080
Хотя официальная презентация видеокарты NVIDIA GeForce GTX 1080 состоялась в начале мая, лишь сейчас появились все подробности технической спецификации графического процессора NVIDIA GP104-400. Очень интересно сравнить полученные данные с уже существующими на рынке адаптерами, что позволяет полнее оценить проделанную компанией NVIDIA работу и преимущества от перехода на более тонкий техпроцесс.
Например, общая площадь кристалла NVIDIA GP104-400 составляет 314 мм2, а общее количество транзисторов – 7,2 млрд. Для сравнения, аналогичные показатели у NVIDIA GM200-310 (NVIDIA GeForce GTX 980 Ti) достигают 601 мм2 и 8,0 млрд., а у NVIDIA GM204-400 (NVIDIA GeForce GTX 980) – 398 мм2 и 5,2 млрд.
Блок-схема NVIDIA GP104-400
Блок-схема NVIDIA GP100
Любопытно, что блок-схема NVIDIA GP104-400 существенно отличается от таковой у NVIDIA GP100, который используется в профессиональной видеокарте NVIDIA Tesla P100. В частности, графический процессор NVIDIA GP104-400 разделен на 4 блока (Graphics Processing Clusters), каждый из которых имеет в своем составе 5 SM-модулей. В свою очередь каждый SM включает в себя два блока по 64 CUDA-ядер в каждом. А вот у NVIDIA GP100 мы видели лишь 64 обычных CUDA-ядер в одном SM-модуле и еще 32 дополнительных CUDA-ядер для вычислений двойной точности. То есть уже на уровне графического процессора идет разделение на пользовательские модели и профессиональную графику.
Вместе с подробностями NVIDIA GeForce GTX 1080 в интернет просочилась презентация данной модели, в которой более подробно акцентируется внимание на ее преимуществах. Например, упоминается поддержка распиаренной технологии Async Compute. Сравнительная таблица технической спецификации видеокарты NVIDIA GeForce GTX 1080 с внутренними конкурентами выглядит следующим образом:
Обзор и тестирование видеокарты ASUS ROG Matrix Platinum GTX 980 Ti
При выборе топовой видеокарты для высокоуровневой игровой системы либо оверклокерских экспериментов вопрос цены зачастую отходит на второй план, поскольку пользователи готовы ради отличной производительности потратить существенную для большинства сумму денег и не хотят идти на какие-либо компромиссы.
Видеокарта ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING) является именно таким решением, которое соединило в себе практически все наработки компании ASUS в производстве видеокарт для получения максимального эффекта. На момент подготовки обзора данная модель является одной из самых дорогих в линейке компании, за исключением модификаций NVIDIA GeForce GTX TITAN X и еще двух версий NVIDIA GeForce GTX 980 Ti, которые мы упомянем немного позже в качестве альтернативы. Чем же обусловлена такая стоимость, и оправдывает ли ее конечный продукт. Давайте разбираться.
Спецификация видеокарты ASUS MATRIX-GTX980TI-P-6GD5-GAMING:
Модель |
ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING) |
|
Графическое ядро |
NVIDIA GM200-310 (Maxwell) |
|
Количество CUDA-ядер |
2816 |
|
Номинальная / динамическая частота графического ядра, МГц |
«Gaming» |
1190 / 1291 |
«OC» |
1216 / 1317 |
|
Частота памяти (эффективная), МГц |
1800 (7200) |
|
Объем памяти, ГБ |
6 |
|
Тип памяти |
GDDR5 |
|
Ширина шины памяти, бит |
384 |
|
Пропускная способность памяти, ГБ/с |
345,6 |
|
Тип шины |
PCI Express 3.0 x16 |
|
Интерфейсы вывода изображения |
1 x DVI-I 1 x HDMI 2.0 3 x DisplayPort |
|
Минимальная мощность блока питания, Вт |
600 |
|
Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм |
295,2 x 138,2 x 50,9 (308 х 150) |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в соответствующей своему флагманскому статусу крупной коробке, выполненной из плотного картона и украшенной лаконичной и стильной полиграфией с логотипом линейки ASUS ROG. В ее конструкции используется откидывающаяся крышка и ручка для более удобной переноски.
На обратной стороне откидывающейся крышки, под которой находится небольшое смотровое окно, расположено описание основных достоинств ASUS ROG Matrix Platinum GTX 980 Ti:
- ASUS AUTO-EXTREME c Super Alloy Power II – данная модель создана на полностью автоматизированной линии, что гарантирует стабильно высокое качество и обеспечивает отказ от агрессивных химических веществ в процессе производства. К тому же в ее основе используется качественная элементная база (Super Alloy Power II), позволяющая еще больше повысить надежность работы новинки.
Пример работы LED-подсветки на видеокарте ASUS ROG Matrix Platinum GTX 980 Ti
- ROG Color Indicator – любители моддинга должны по достоинству оценить логотип серии ASUS ROG на боковой стороне видеокарты, который оснащен LED-подсветкой, изменяющей свой цвет в зависимости от нагрузки.
- Memory Defroster – позволяет прогреть микросхемы видеопамяти для повышения стабильности работы в условиях очень низких температур, возникающих при использовании систем на базе жидкого азота.
- Safe Mode – позволяет исправить последствия неудачного разгона путем возврата к изначальным настройкам BIOS видеокарты.
На обратной стороне упоминается техническая спецификация, некоторые преимущества ASUS MATRIX-GTX980TI-P-6GD5-GAMING и список системных требований. Исходя из рекомендаций, блок питания в системе должен обладать мощностью не менее 600 Вт и выдавать минимум 42 А по линии +12В. Также тестируемая модель требует подключения двух 8-контактных кабелей PCIe.
В комплекте с графическим адаптером мы обнаружили стандартную документацию, инвайт-код для получения подарков в игре World of Warships (крейсер «Диана» и 15 дней премиум-доступа), диск с ПО и пару переходников для питания.
Для вывода изображения на тестируемой модели используется эталонный набор интерфейсов:
- 1 х DVI-I;
- 1 х HDMI 2.0;
- 3 х DisplayPort.
Поддерживаются следующие разрешения:
- цифровое − до 5120 x 3200;
- аналоговое − до 2048 x 1536.
Внешний вид и элементная база
Модель ASUS ROG Matrix Platinum GTX 980 Ti выполнена на оригинальной печатной плате черного цвета с эталонным принципом компоновки. Внешне плата очень похожа на используемую в ASUS STRIX-GTX980TI-DC3OC-6GD5-GAMING. Другая фирменная модификация NVIDIA GeForce GTX 980 Ti, ASUS POSEIDON-GTX980TI-P-6GD5, характеризуется заметно более компактными размерами.
Используемая элементная база соответствует фирменной концепции Super Alloy Power II и включает в себя исключительно высококачественные компоненты: твердотельные и тантал-полимерные конденсаторы, микросхемы IOR 3555M и дроссели с ферритовым сердечником. Это повышает стабильность и надежность работы графического адаптера в целом, а также продлевает срок его службы.
Столь крупные габариты печатной платы легко объясняются усиленной 12+2-фазной схемой, где 12 фаз отвечают за питание графического ядра, а 2 предназначены для подсистемы видеопамяти. Напомним, что питание эталонной NVIDIA GeForce GTX 980 Ti выполнено по 6+2-фазной схеме.
Подсистема питания ядра реализована на цифровом ШИМ-контроллере DIGI+ VRM ASP1212 производства компании International Rectifier, который обладает рядом защитных технологий: OVP (от перегрузки по напряжению), UVP (от пониженного напряжения), OCP (от перегрузки по току) и OTP (от повышенной температуры). Поскольку он обеспечивает поддержку максимум восьми фаз, то в данном случае используется принцип удвоения.
Для питания тестируемого графического адаптера доступен слот PCI Express x16 и два 8-контактных разъема PCIe, расположенных на боковой стороне платы. В свою очередь эталонная версия обходится только одним усиленным 8-контактным и одним 6-контактным разъемом.
Отдельно отметим 4-контактный разъем дополнительного питания, который необходим для корректной работы упомянутой технологии Memory Defroster, а также кнопку активации режима «Safe Mode».
На верхней стороне печатной платы находится переключатель режима «LN2», который предусмотрен для экстремального разгона. Он снимает все ограничения на повышение параметров видеоадаптера, что позволяет на свой страх и риск достигать более высоких результатов.
Для обеспечения работы технологии NVIDIA SLI используются два коннектора для подключения соответствующих мостиков, которые позволяют объединять до трех видеоускорителей для совместного расчета графических эффектов.
Обратная сторона ASUS MATRIX-GTX980TI-P-6GD5-GAMING, изначально прикрытая опорной пластиной, примечательна рядом электрических компонентов, включая упомянутые выше тантал-полимерные конденсаторы.
В основе тестируемой модели лежит GPU NVIDIA GM200-310 (Maxwell), произведенный по 28-нм техпроцессу. Он включает в себя 2816 ядер CUDA, 96 блоков растеризации и 176 текстурных блоков. По умолчанию в ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING) активен режим «OC», в котором базовая частота графического процессора увеличена с номинальных 1000 до 1216 МГц, а динамическая – с 1076 до 1317 МГц. В утилите ASUS GPU Tweak II with XSplit Gamecaster также можно включить профиль «Gaming» со скоростями 1190 и 1291 МГц соответственно.
Память, общим объемом 6 ГБ, набрана с помощью 12 чипов SK hynix H5GQ4H24MFR-R2C емкостью 4 Гбит каждый. Согласно документации, их эффективная частота равна 7000 МГц, но в данном случае она была повышена до 7200 МГц. Обмен данными между графическим процессором и памятью осуществляется через 384-битную шину, которая способна пропускать 345,6 ГБ/с (эталонный показатель составляет 336,6 ГБ/с).
Система охлаждения
Видеоускоритель с установленной фирменной системой охлаждения DirectCU II занимает два слота расширения и имеет общую длину 308 мм (согласно измерениям в нашей тестовой лаборатории).
Охладитель состоит из достаточно крупного радиатора, в конструкции которого применяются 53 продольно расположенные алюминиевые пластины, двух вентиляторов с диаметром крыльчатки 94 мм и пластикового кожуха, который накрывает всю конструкцию сверху.
Непосредственно сами вертушки произведены компанией FirstDo и имеют маркировку «FD10015H12S». Судя по букве «S» в названии, они построены на подшипниках скольжения (Sleeve bearing). Номинальное напряжение их работы составляет 12 В, а сила тока – 0,55 А, что дает в итоге мощность в 6,6 Вт.
Для равномерного распределения тепла по всей площади радиатора применяются пять медных тепловых трубок диаметром 6-8-8-10-6 мм. Стандартно для кулеров DirectCU II используется схема их непосредственного контакта с поверхностью графического процессора через небольшой слой термопасты.
Для повышения эффективности теплообмена тепловые трубки надежно припаяны к ребрам алюминиевого радиатора и медному основанию. К тому же они не только покрыты слоем никеля для предотвращения окислительных процессов, но и окрашены в черный цвет для более эффектного внешнего вида.
Для дополнительного охлаждения элементов подсистемы питания используется отдельный низкопрофильный радиатор с термоинтерфейсом на обратной стороне, а вот чипы памяти, к сожалению, лишены какого-либо дополнительного охлаждения.
При автоматическом регулировании скорости вращения вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 65°С, а кулер, судя по показаниям мониторинга, работал на 49% от своей максимальной мощности. Издаваемый шум находился ниже среднего уровня, и он был едва различим на фоне других комплектующих системы.
Полученный результат является очень хорошим для моделей серии NVIDIA GeForce GTX 980 Ti. К примеру, гибридный кулер ASUS POSEIDON-GTX980TI-P-6GD5 в аналогичном режиме обеспечивает работу разогнанного до 1114 МГц графического процессора при температуре 80°С, а система охлаждения видеокарты ASUS STRIX-GTX980TI-DC3OC-6GD5-GAMING с тремя 88-мм вентиляторами удержала температуру разогнанного до 1216 МГц графического ядра на отметке 79°С.
После принудительного увеличения скорости вращения вентиляторов до максимального уровня, температура GPU опустилась до 53°С. При этом заметно возрос и уровень шума, который превысил средний показатель и стал не очень комфортным для продолжительного использования.
Обозначенные выше внутренние конкуренты в аналогичном режиме смогли достичь лишь отметки 71°С. Напомним, что критическим для GPU NVIDIA GM200-310 считается показатель 92°С.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, позволяя снизить их энергопотребление и тепловыделение. В таком режиме температура GPU не превышала 29°С, а видеокарта работала абсолютно бесшумно.
Печатная плата NVIDIA GeForce GTX 1080 Founders Edition использует 6-фазный VRM
В интернет просочились первые фото печатной платы видеокарты NVIDIA GeForce GTX 1080 Founders Edition. Напомним, что «Founders Edition» − это новое обозначение референсного дизайна, поэтому так будут выглядеть все аналогичные видеокарты от партнеров NVIDIA.
Печатная плата (NVIDIA PG413) использует уже знакомую компоновку, центральным элементом которой выступает графический процессор. Только если в моделях NVIDIA GeForce GTX 980 и NVIDIA GeForce GTX 980 Ti GPU оснащается металлической рамкой, чтобы обезопасить кристалл от повреждения при демонтаже или установке системы охлаждения, то тут она отсутствует. Восемь GDDR5X-микросхем расположены вокруг графического процессора, а правее приютилась подсистема питания.
У NVIDIA GeForce GTX 1080 Founders Edition используется 5+1-фазный блок VRM: пять фаз для GPU и одна для памяти. Напомним, что NVIDIA GeForce GTX 980 использует 4+1-фазную подсистему питания, а NVIDIA GeForce GTX 980 Ti – 6+2-фазную. Для подключения дополнительного питания эталонному дизайну достаточно одного 8-контактного разъема, но рядом есть место для еще одного, в случае, если партнерам он понадобится.
NVIDIA GeForce GTX 980
NVIDIA GeForce GTX 980 Ti
http://videocardz.com
Сергей Будиловский
NVIDIA GeForce GTX 1080 прошла испытания в 3DMark
В ближайшее время должно состояться важное мероприятие компании NVIDIA, на котором могут быть представлены первые 16-нм графические процессоры с микроархитектурой NVIDIA Pascal. А пока в интернет просочились тесты видеокарты NVIDIA GeForce GTX 1080 в бенчмарке 3DMark.
Испытания проводились на двух разных системах. В первом случае связка NVIDIA GeForce GTX 1080 и Intel Core i7-5820K смогла набрать 19 005 баллов в бенчмарке 3DMark 11 Performance. Во втором случае система из NVIDIA GeForce GTX 1080 и Intel Core i7-3770K показала 8959 баллов в тесте 3DMark FireStrike Extreme. Оба результата превышают показатели NVIDIA GeForce GTX 980 Ti, что дает уверенность в хорошем приросте производительности новинки для своей ценовой категории.
http://www.techpowerup.com
Сергей Будиловский
Первые тестовые результаты видеокарты AMD Radeon Pro Duo
В преддверии полноценного релиза видеокарты AMD Radeon Pro Duo, бумажный анонс которой состоялся в середине марта, веб-сайт Expreview одним из первых поделился результатами тестирования данной новинки. Напомним, что в ее основе находится пара графических процессоров AMD Fiji XT, каждый из которых оснащен собственными 4 ГБ HBM-памяти.
В сравнении с AMD Radeon R9 Fury X двухчиповый флагман в среднем демонстрирует на 60,7% более высокий уровень производительности в разрешении 4K Ultra HD и на 50,4% превосходит в Full HD-разрешении. Если же сравнивать с NVIDIA GeForce GTX 980 Ti, то преимущество AMD Radeon Pro Duo сокращается до 59,4% и 32,45% соответственно.
Сами по себе цифры весьма хороши. Еще лучше выглядят температурные показатели продуктов компании AMD, ведь они используют систему жидкостного охлаждения. Однако заявленная стоимость AMD Radeon R9 Fury X и NVIDIA GeForce GTX 980 Ti на момент анонса составляла $649, а вот AMD Radeon Pro Duo будет предлагаться по цене $1499. Интересно, много ли желающих будет приобрести эту новинку?
http://www.techpowerup.com
http://videocardz.com
Сергей Будиловский