up
ru ua en
menu


Trancend_.gif

geforce gtx 980 ti

Выбрать из: Обзоров Новостей
Только в разделе
Искать в найденом тег:

Обзор и тестирование видеокарты ROG STRIX GeForce GTX 1080 Ti OC Edition: долгожданный джокер

Борьба за потребителя априори включает в себя и борьбу с конкурентами, ведь важно не просто создать эффективный продукт, но еще и выпустить его в подходящий момент с оптимальным ценником. Поэтому производители учитывают массу факторов: спрос на рынке, пики потребительской активности, график релиза наиболее ожидаемых игр, время, необходимое партнерам для подготовки собственных модификаций, и, конечно же, планы конкурентов. В сегменте дискретных видеокарт это делать чуть проще, поскольку тон задают всего две компании: AMD и NVIDIA.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В начале лета 2016 года NVIDIA, выражаясь шахматной терминологией, сделала сильный ход, выпустив модели NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, построенные на базе чипов NVIDIA GP104. Наверняка предполагалось, что AMD ответит релизом своих флагманских адаптеров, на что NVIDIA готовила ответ в виде NVIDIA GeForce GTX 1080 Ti на ядре NVIDIA GP102. То есть GTX 1080 изначально не должна была надолго занимать лидерские позиции, и уже в четвертом квартале 2016 года она могла уступить место на Олимпе настоящему флагману. Но у AMD были другие планы, и компания не смогла оспаривать лидерство этих двух видеокарт в прошлом году, поэтому у NVIDIA и не было особых причин спешить с релизом GTX 1080 Ti, ведь в первую очередь это бы создало ненужную внутреннюю конкуренцию и сопровождалось бы традиционным в таких случаях снижением цен. То есть флагман придерживался как некий джокер в рукаве, готовый в удобный момент привлечь внимание публики и контратаковать позиции конкурента, если бы линейка AMD Radeon RX Vega вышла раньше. Но поскольку этого не случилось и не за горами дебют микроархитектуры NVIDIA Volta, то выжидать больше не было смысла, поэтому начало марта ознаменовалось релизом видеокарты NVIDIA GeForce GTX 1080 Ti.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Она построена на базе 16-нм графического процессора NVIDIA GP102-350, который состоит из 12 млрд. транзисторов. Поскольку микроархитектуру NVIDIA Pascal мы уже подробно рассмотрели в предыдущих обзорах, в частности, на примере NVIDIA GeForce GTX 1080, то в этот раз не будем вникать в детали структуры. Лишь кратко напомним, что GPU располагает 28 SM-блоками, каждый из которых предлагает 128 CUDA-ядер и 8 текстурных модулей. В итоге общее их количество достигает 3584 и 224 соответственно. В свою очередь количество растровых блоков определяет количество контроллеров памяти: по 8 ROP на каждый 32-битный контроллер. Общая разрядность шины памяти достигает 352, то есть имеем 11 контроллеров GDDR5X-памяти и 88 растровых блоков. Отметим, что максимальную конфигурацию чипа NVIDIA GP102 приберегли для более дорогой видеокарты NVIDIA TITAN Xp, которая в первую очередь нацелена на рабочие станции, а не на пользовательские игровые системы. Для большего удобства восприятия информации приводим сводную таблицу видеокарт NVIDIA:

Модель

NVIDIA GeForce GTX 1070

NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 980 Ti

NVIDIA GeForce GTX 1080 Ti

NVIDIA TITAN Xp

Техпроцесс, нм

16 (FinFET)

16 (FinFET)

28

16 (FinFET) 

16 (FinFET)

GPU

NVIDIA GP104-200

NVIDIA GP104-400

NVIDIA GM200-310

NVIDIA GP102-350

NVIDIA GP102-450

Микроархитектура

NVIDIA Pascal

NVIDIA Pascal 

NVIDIA Maxwell 2.0

NVIDIA Pascal 

NVIDIA Pascal

Площадь кристалла, мм2

314

314

601

471

471

Количество транзисторов, млрд.

7,2

7,2

8,0

12

12

Количество CUDA-ядер

1920

2560

2816

3584

3840

Количество текстурных блоков

120

160

176

224

240

Количество растровых блоков

64

64

96

88

96

Базовая / динамическая частота GPU, МГц

1506 / 1683

1607 / 1733

1000 / 1076

1480 / 1582

1480 / 1582

Тип видеопамяти

GDDR5

GDDR5X

GDDR5

GDDR5X 

GDDR5X

Объем, ГБ

8

8

6

11

12

Эффективная частота памяти, МГц

8 008

10 008

7 012

11 008

11 408

Разрядность шины, бит

256

256

384

352

384

Пропускная способность, ГБ/с

256,3

320

337

484

548

Вычислительная мощность, TFLOPS

5,783

8,228

5,632

10,609

11,366

TDP, Вт

150

180

250

250

250

Рекомендованная стоимость на старте продаж, $

379 / 449

599 / 699

649

699

1199

По сравнению со своим предшественником в лице NVIDIA GeForce GTX 980 Ti, видеокарта NVIDIA GeForce GTX 1080 Ti может похвастать более тонким техпроцессом, более эффективной микроархитектурой и улучшенным стандартом памяти. В результате на кристалле меньшей площади поместилось больше структурных компонентов, существенно возросли тактовые частоты ключевых узлов и почти в два раза увеличилась вычислительная мощность. А рекомендованная стоимость возросла лишь на 8% или на $50, что для данного класса видеокарт можно считать не существенным.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Знакомиться с NVIDIA GeForce GTX 1080 Ti мы будем на примере модели компании ASUS – ROG STRIX GeForce GTX 1080 Ti OC Edition. Как и подобает флагману, она вобрала в себя все лучшие фирменные наработки: модифицированный дизайн печатной платы с усиленной подсистемой питания, эффективную систему охлаждения с LED-подсветкой ASUS Aura Sync, расширенный набор интерфейсов и многое другое. Для начала давайте познакомимся с ее характеристиками.

Спецификация

Модель

ROG STRIX GeForce GTX 1080 Ti OC Edition (ROG-STRIX-GTX1080TI-O11G-GAMING)

Техпроцесс, нм

16 (FinFET)

GPU

NVIDIA GP102-350

Микроархитектура

NVIDIA Pascal

Количество CUDA-ядер

3584

Количество текстурных блоков

224

Количество растровых блоков

88

Базовая / динамическая частота GPU, МГц

«Gaming»

1569 / 1683

«OC»

1594 / 1708

Тип видеопамяти

GDDR5X

Объем, ГБ

11

Эффективная частота, МГц

«Gaming»

11 010

«OC»

11 100

Разрядность шины, бит

352

Внутренний интерфейс

PCI Express 3.0 x16

Внешние интерфейсы

1 x DVI-D
2 x HDMI 2.0b
2 x DisplayPort 1.4

Дополнительный коннектор питания

2 х 8-контактных

Рекомендованная мощность блока питания, Вт

600

Размеры, мм

298 х 134 х 52,5

Драйверы

Свежие драйверы можно скачать с сайта компании ASUS или с сайта производителя GPU

Сайт производителя

ASUS

Упаковка и комплектация

ROG STRIX GeForce GTX 1080 Ti OC Edition ROG STRIX GeForce GTX 1080 Ti OC Edition

Видеокарта ROG-STRIX-GTX1080TI-O11G-GAMING поставляется в красочной картонной упаковке с качественной и весьма информативной полиграфией, которая отображает ключевые преимущества дизайна графического адаптера.

ROG STRIX GeForce GTX 1080 Ti OC Edition

На одной из боковых сторон можно заметить рекомендации производителя к блоку питания: минимальная его мощность не должна опускаться ниже 600 Вт, а нагрузочная способность линии +12В должна превышать 42 А. Эти рекомендации традиционно указаны с запасом, поскольку производитель не может предсказать финальную конфигурацию пользовательской системы.

ROG STRIX GeForce GTX 1080 Ti OC Edition ROG STRIX GeForce GTX 1080 Ti OC Edition

Сама видеокарта дополнительно спрятана в антистатический пакет и надежно зафиксирована внутри коробки, поэтому ей не страшны механические встряски. Также внутри мы обнаружили руководство пользователя, диск с драйверами и утилитами и пару стяжек для кабелей.

Внешний вид

ROG STRIX GeForce GTX 1080 Ti OC Edition

Внешне видеоускоритель ROG STRIX GeForce GTX 1080 Ti OC Edition выглядит весьма строго и презентабельно. Но стоит лишь подключить питание, как его экстерьер становится более ярким и красочным благодаря RGB LED-подсветке ASUS Aura Sync.

У пользователя есть возможность выбора из миллионов цветов и шести режимов ее работы. Один из профилей отображает с помощью разных цветов динамику изменения температуры GPU. При желании можно синхронизировать работу иллюминации с другими совместимыми фирменными продуктами.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Габариты новинки заявлены производителем на уровне 298 х 134 х 52,5 мм. Согласно собственным измерениям, общая длина достигает 313 мм, а высота – 132 мм. В любом случае видеокарта достаточно большая, поэтому предварительно следует убедиться, что она поместится в корпусе. Да и на материнской плате она займет 2,5 слота расширения, к чему следует быть готовым.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Обратная сторона изначально прикрыта пластиной жесткости, которая не только используется для поддержания массивного кулера, но также принимает участие в отводе излишков тепла.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Сняв систему охлаждения, можем полюбоваться на модифицированный дизайн печатной платы. Хотя общий принцип расположение компонентов сохранился: центральное место отведено графическому процессору, вокруг которого расположились микросхемы памяти. В хвостовой части находится основная часть подсистемы питания.

ROG STRIX GeForce GTX 1080 Ti OC Edition

ROG STRIX GeForce GTX 1080 Ti OC Edition

Последняя предлагает усиленный 10+2-фазный дизайн (в эталонной версии для GPU предусмотрено лишь 7 фаз) с применением надежной элементной базы Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, микросхемы IR3555 и ферритовые дроссели. В качестве ШИМ-контроллера выступает микросхема uP9511P. Поскольку она может обслуживать максимум 8 фаз, то ей активно помогают три микросхемы uP1911R.

ROG STRIX GeForce GTX 1080 Ti OC Edition

На обратной стороне находится достаточно много тантал-полимерных конденсаторов и других электрических компонентов.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Для корректной работы ROG STRIX GeForce GTX 1080 Ti OC Edition требует подключения двух 8-контактных коннекторов PCIe. При этом система охлаждения слегка препятствует этому процессу. Вместе с разъемом PCIe Express 3.0 x16 они могут подводить до 375 Вт питания, чего вполне достаточно для модели с энергопотреблением на уровне 250 Вт. Рядом можно заметить шесть разъемов для мониторинга и изменения напряжений на ключевых узлах.

ROG STRIX GeForce GTX 1080 Ti OC Edition

На торце хвостовой части можно заметить пять дополнительных разъемов. Два нижних используются для питания вентиляторов системы охлаждения и работы LED-подсветки. Средний с красной подложкой – это колодка Aura Sync RGB для синхронизации работы LED-подсветки с другими устройствами. А два верхних 4-контактных разъема предназначены для подключения системных вентиляторов (технология ASUS FanConnect II). Скорость вращения их лопастей в автоматическом режиме может зависеть от температуры CPU или GPU, а в ручном пользователь самостоятельно задает алгоритм функционирования подключенных вертушек. Все это можно настроить в фирменной утилите GPU Tweak II.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В передней части печатной платы следует выделить пару MIO-коннекторов, которые предназначены для подключения мостиков и активации технологии NVIDIA SLI.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В наборе внешних интерфейсов видеоускорителя ROG-STRIX-GTX1080TI-O11G-GAMING присутствуют два порта HDMI 2.0b, два DisplayPort 1.4 и один DVI-D. Эталонная версия предполагает использование трех DisplayPort и одного HDMI. В данном случае упрощается подключение шлемов VR.

ROG STRIX GeForce GTX 1080 Ti OC Edition

Утилита GPU-Z рапортует, что используется режим «OC», в котором графический процессор работает на частотах 1595 / 1709 МГц, а 11 ГБ GDDR5X-памяти от компании Micron функционирует на эффективной частоте 11 112 МГц. Напомним, что эталонные частоты значительно ниже (1480 / 1582 МГц для GPU и 11 008 МГц для памяти), поэтому можно рассчитывать на бонус в производительности.

Кроме того, в утилите GPU Tweak II предусмотрены еще два режима: «Gaming» (1683 МГц для GPU и 11010 МГц для памяти) и «Silent» (1658 и 10 920 МГц соответственно). Также есть возможность сохранять настройки в дополнительные профили для их быстрой активации в будущем.

Система охлаждения

Система охлаждения модели ROG STRIX GeForce GTX 1080 Ti OC Edition радует мощным и продуманным дизайном. Ее конструкция включает в себя никелированное медное основание, шесть никелированных медных 8-мм тепловых трубок, припаянных к алюминиевым пластинам двухсекционного радиатора, дополнительный низкопрофильный радиатор для охлаждения микросхем памяти и три 88-мм осевых вентилятора, закрепленных на пластиковом кожухе. А с помощью термоинтерфейса избыточное тепло от элементов подсистемы питания передается на основной радиатор. Производитель упоминает также о применении фирменной технологии MaxContact для автоматизированной установки кулера с оптимальной прижимной силой для улучшенного отвода тепла.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В роли вентиляторов выступают три вертушки от Power Logic: крайние модели используют маркировку «PLD09210S12HH» (12 В при 0,4 А), а центральный – «PLD09210S12M» (12 В при 0,25 А). Все они построены на подшипниках Long life bearing. Обычно так подписывают подшипники скольжения с увеличенным сроком службы. Сама крыльчатка использует запатентованный дизайн Wing-Blade, который обеспечивает увеличенный воздушный поток и статическое давление. А благодаря технологии 0dB кулер переходит в пассивный режим при низкой нагрузке, что мы обязательно проверим далее.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В автоматическом режиме работы системы охлаждения, при максимальной нагрузке температура графического процессора достигала 69°С. Вентиляторы вращались на 46% (1692 об/мин) от своей максимальной скорости, создавая очень тихий фоновый шум, который абсолютно не мешал работе. Напомним, что критической для ядра считается температура в 91°С. При этом частота GPU поднялась до 1873 МГц благодаря отличной эффективности кулера.

ROG STRIX GeForce GTX 1080 Ti OC Edition

После принудительной установки скорости вентилятора на 100% (3572 об/мин), температура GPU опустилась до 50°С при частоте 1860 МГц. Традиционной расплатой является повышенный уровень шума, который превысил границу комфортности.

ROG STRIX GeForce GTX 1080 Ti OC Edition

В режиме простоя вентиляторы прекратили свою работу, а температура графического процессора уменьшилась до 39°С. В активный режим пропеллеры возвращались лишь тогда, когда температура GPU поднималась до 58°С.

В результате система охлаждения видеокарты ROG STRIX GeForce GTX 1080 Ti OC Edition отлично справляется со своей задачей: в автоматичном режиме она обеспечивает хороший баланс между эффективностью отвода тепла и уровнем создаваемого шума, а при максимальной нагрузке демонстрирует высокий запас прочности для разгонных экспериментов. В нетребовательных задачах кулер и вовсе переходит в бесшумный пассивный режим. Посторонних звуков в виде раздражающего писка дросселей в процессе тестирования замечено не было. 

Читать обзор полностью >>>

NVIDIA GeForce GTX 1080 Ti появится в продаже в конце марта?

Интересное совпадение (а может это и вовсе не случайность): 28 февраля оба гиганта в сфере создания графических процессоров проведут собственные презентации на выставке GDC 2017. AMD в рамках Capsaicin & Cream планирует раскрыть подробности GPU линейки AMD Vega и видеокарт на их основе, релиз которых запланирован на лето текущего года.

NVIDIA GeForce GTX 1080 Ti

В свою очередь NVIDIA пока не сообщила о конкретной теме своей презентации, но, например, в рамках аналогичного события в 2015 году была представлена видеокарта NVIDIA GeForce GTX 980 Ti. Согласно неофициальной информации, в этот раз опять дебютирует новый флагман – NVIDIA GeForce GTX 1080 Ti. Однако лишь на бумаге и в виде презентации. На полках магазинов он появится ориентировочно 20-23 марта.

Предварительная информация указывает, что в основе новинки находится 16-нм графический процессор NVIDIA GP102 с поддержкой 3328 CUDA-ядер, базовая частота которого составит 1503 МГц, а динамическая – 1623 МГц. Видеопамять общим объемом 10 ГБ будет работать на эффективной частоте 10 000 МГц при 384-битной шине. Показатель TDP заявлен на уровне 250 Вт, а ожидаемая стоимость NVIDIA GeForce GTX 1080 Ti составит $1000. Хотя все это пока неофициальные данные, поэтому для окончательных выводов подождем официального дебюта и результатов тестирования.

http://www.guru3d.com
https://www.techpowerup.com
Сергей Будиловский

Читать новость полностью >>>

Обзор и тестирование видеокарты GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G: экстремально хорошо

«А почему бы нам не сделать самую лучшую версию NVIDIA GeForce GTX 1070 на рынке?», − подумали, по всей видимости, однажды в компании GIGABYTE и разработали новую видеокарту в игровой линейке GIGABYTE Xtreme Gaming.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD) является одной из самых дорогих модификаций NVIDIA GeForce GTX 1070 с воздушным охлаждением. По правде говоря, она заняла эту позицию вполне заслуженно, ведь доработок и различных улучшений по сравнению с эталонной версией тут действительно много, начиная от оригинальной системы охлаждения и высокого уровня заводского разгона, и заканчивая двумя дополнительными видеовыходами HDMI для любителей VR. Давайте же разберемся во всех особенностях этой модели.

Спецификация

Модель

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

GPU

NVIDIA GP104-200-A1 

Микроархитектура

NVIDIA Pascal

Техпроцесс, нм

16 (FinFET)

Количество CUDA-ядер

1920

Количество текстурных блоков

120

Количество растровых блоков

64

Номинальная/динамическая частота графического ядра, МГц

«Gaming»

1671 / 1873

«OC»

1695 / 1898

Частота памяти (эффективная), МГц

«Gaming»

2042 (8168)

«OC»

2079 (8316)

Объем памяти, ГБ

8

Тип памяти

GDDR5

Ширина шины памяти, бит

256

Тип шины

PCI Express 3.0 x16

Интерфейсы вывода изображения

Стандартный режим

1 x DVI-D

1 x HDMI 2.0b

3 x DisplayPort 1.4

VR режим

1 x DVI-D

3 x HDMI 2.0b

1 x DisplayPort 1.4

Минимальная мощность блока питания, Вт

500

Дополнительные разъемы питания PCIe

1 x 8-контактный

1 x 6-контактный

Размеры с официального сайта (измеренные в нашей тестовой лаборатории), мм

287 х 140 x 57 (300 x 138)

Драйверы

Свежие драйверы можно скачать с сайта компании GIGABYTE или сайта производителя GPU

Сайт производителя

GIGABYTE

Упаковка и комплектация

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD) GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Оформление упаковки вполне однозначно заявляет, что перед нами видеокарта, ориентированная на геймеров. Об этом говорит логотип серии GIGABYTE Xtreme Gaming и упоминание о поддержке VR-устройств. Дополнительно отмечена расширенная четырехлетняя гарантия и целый ряд фирменных достоинств видеокарты на обратной стороне коробки.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Что же касается комплекта поставки, то наличие фирменного напульсника и наклейки с логотипом серии Xtreme Gaming – это, конечно, хорошо, но хотелось бы увидеть в коробке с одной из самых дорогих NVIDIA GeForce GTX 1070 хотя бы пару полезных аксессуаров, к примеру, мостики NVIDIA SLI.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

На интерфейсной панели тестируемой модели представлен эталонный набор видеовыходов:

  • 1 х DVI-D;
  • 1 х HDMI 2.0b;
  • 3 х DisplayPort 1.4.

Одновременное подключение мониторов ограничено четырьмя видеовыходами с максимальным разрешением 7680 х 4320 при 60 Гц.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Также на тыльной стороне видеокарты распаяны два дополнительных порта HDMI 2.0b, которые служат для подключения шлема виртуальной реальности.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

При помощи двух кабелей HDMI графический адаптер подключается к специальной 5,25-дюймовой панели GIGABYTE VR Extended Front Panel, которая обладает двумя интерфейсами HDMI и двумя USB 3.0.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Также вы можете приобрести специальный набор аксессуаров, который включает в себя фирменный коврик, упомянутую выше панель, мостик NVIDIA SLI и два HDMI-порта на интерфейсную панель ПК, в случае, если вы не хотите подключать шлем виртуальной реальности к фронтальной панели.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

В стандартном режиме работы в вашем распоряжении видеовыходы на интерфейсной панели видеокарты, а при желании погрузиться в виртуальную реальность вы переводите видеокарту в режим VR, в котором два из трех интерфейсов DisplayPort отключаются, а взамен активируются два дополнительных порта HDMI. Отдельно отметим, что для смены режимов необходима перезагрузка.

Внешний вид и элементная база

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Видеокарта GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G выполнена на оригинальной печатной плате черного цвета. Логика расположения ключевых компонентов весьма привычна: все чипы памяти распаяны вокруг графического ядра, а компоненты подсистемы питания расположены по правую от него сторону. Сама печатная плата обладает специальным защитным покрытием в соответствии с технологией Xtreme Protection, которое предотвращает повреждение от влаги, пыли и коррозии.

Используемая элементная база соответствует фирменной концепции Ultra Durable VGA. В ее состав вошли исключительно надежные компоненты, такие как твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Питание выполнено по усиленной 10+2-фазной схеме, где десять фаз отвечают за питание графического ядра, а две предназначены для подсистемы видеопамяти. Напомним, что эталонная видеокарта работает по пятифазной схеме (4+1).

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

В качестве ШИМ-контроллера используется микросхема uP9511P производства uPI Semiconductor, которую мы уже видели на NVIDIA GeForce GTX 1080.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Для питания тестируемого графического адаптера используется слот PCI Express x16 и два разъема PCIe (6- и 8-контактные), расположенные на боковой стороне платы. В свою очередь эталонная версия обходится только одним 8-контактным разъемом. Отметим, что кулер немного мешает отключению кабелей PCIe. Отдельно выделим два небольших светодиода рядом с разъемами, которые служат для индикации стабильности питания видеокарты. Если с питанием все хорошо, то они не горят, в случае отключения − они загораются, мигающие же светодиоды сигнализируют о нестабильном питании.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Для обеспечения работы технологии NVIDIA SLI на GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G используются два коннектора для подключения соответствующих мостиков.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Обратная сторона печатной платы прикрыта опорной пластиной, предназначенной не только для повышения жесткости конструкции, но и для прямого охлаждения элементов подсистемы питания, которое происходит посредством термоинтерфейса.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

В основе видеоускорителя лежит графический чип NVIDIA GP104-200-A1, произведенный по 16-нм техпроцессу. Он состоит из 1920 ядер CUDA, 120 текстурных блоков и 64 блоков растеризации. Тестирование проводилось в режиме «Gaming», в котором базовая частота графического процессора увеличена с номинальных 1506 до 1671 МГц, а динамическая – с 1683 до 1873 МГц.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

При желании в комплектной утилите можно оперативной активировать профили «ECO» или «OC». Первый характеризуется пониженными частотами и энергопотреблением, а второй – более высоким разгоном GPU (1695 / 1898 МГц) и памяти (8316 МГц).

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Память тестируемой видеокарты, общим объемом 8 ГБ, набрана с помощью восьми чипов Samsung K4G80325FB-HC25 емкостью 8 Гбит каждый. Эффективная частота их работы в режиме «Gaming» была повышена до 8168 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 261,4 ГБ информации за секунду.

Обладатели корпусов с прозрачной боковой панелью по достоинству оценят наличие LED-подсветки на боковой стороне видеокарты, которая к тому же несет не только декоративную функцию. В частности, ближе к правому краю находится надпись «Fan Stop», сигнализирующая об остановке вентиляторов в случае низкой нагрузки на GPU.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

В фирменной утилите Xtreme Engine вы можете выбрать один из нескольких режимов работы подсветки, включая мерцание в такт музыке, затухание и т.д. Также можно настроить цвет в пределах 16,8 млн. оттенков и отрегулировать яркость.

Система охлаждения

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

GIGABYTE GV-N1070XTREME-8GD с установленной системой охлаждения WINDFORCE 3X занимает два слота расширения и имеет общую длину 287 мм согласно официальному сайту компании (300 мм согласно измерениям в нашей тестовой лаборатории).

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Cам кулер состоит из достаточно крупного двухсекционного радиатора, набранного из 71 и 62 алюминиевых никелированных поперечно расположенных пластин, трех вентиляторов с диаметром лопастей 100 мм, а также из пластикового кожуха, который накрывает всю конструкцию сверху.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Часть ребер радиатора расположена под углом, что по заверениям производителя должно способствовать оптимизации воздушного потока, увеличению области контакта потока с радиатором, а также снижению уровня шума.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Вертушки произведены компанией Power Logic и имеют маркировку «PLD10015B12H». Они построены на основе двойных подшипников качения с высоким сроком службы. Их номинальное рабочее напряжение составляет 12 В, а сила тока – 0,55 А.

Несмотря на использование трех 100-мм вентиляторов, производителю удалось сохранить размеры видеокарты в пределах 30 см, что было достигнуто благодаря размещению центральной вертушки под двумя крайними. К тому же она вращается в другом направлении для оптимизации воздушного потока.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Для повышения эффективности теплообмена используются четыре тепловые трубки (три диаметром 8 мм и одна 6-мм). К сожалению, они не покрыты слоем никеля, который применяется для минимизации падения эффективности работы вследствие окисления меди.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Контакт тепловых трубок с ребрами радиатора и основанием улучшен при помощи припоя.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

Также производитель позаботился не только о температуре графического ядра, ведь сама система охлаждения контактирует через термоинтерфейс со всеми чипами видеопамяти, полевыми транзисторами и дросселями. Напомним и о наличии термоинтерфейса на опорной пластине, которая снимает излишки тепла с обратной стороны печатной платы в области подсистемы питания.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 66°С, а кулер работал при этом на 54% (1511 об/мин) от своей максимальной мощности. По субъективным ощущениям шум находился ниже среднего уровня, он абсолютно не выделялся на фоне других комплектующих и никоим образом не мешал в процессе использования видеокарты.

Для сравнения напомним, что модель ASUS ROG STRIX GeForce GTX 1080 GAMING OC в аналогичном режиме показала 63°С, а MSI GeForce GTX 1070 GAMING X 8G – 74°С. Но при этом частота GPU у тестируемой видеокарты была самой высокой: 2000 МГц против 1898 МГц у ASUS и 1949 МГц у MSI.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

В режиме максимальной скорости вращения лопастей вентиляторов (2809 об/мин) температура GPU опустилась до 49°С. Это указывает на отличный запас мощности кулера, ведь критическая температура NVIDIA GP104 заявлена на уровне 94°С. При этом шум немного превысил средний уровень и перестал быть комфортным, но и громким его назвать нельзя.

И опять отмечаем, что система охлаждения модели GIGABYTE GV-N1070XTREME-8GD отлично смотрится на фоне упомянутых ранее конкурентов: у ASUS ROG STRIX GeForce GTX 1080 GAMING OC температура GPU была зафиксирована на 48°С при частоте GPU 1924 МГц, а показатели MSI GeForce GTX 1070 GAMING X 8G составили 62°С и 1962 МГц соответственно.

GIGABYTE GeForce GTX 1070 Xtreme Gaming 8G (GV-N1070XTREME-8GD)

При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU не превышает 35°С, поскольку вентиляторы вообще перестают вращаться, и система охлаждения работает в полностью пассивном режиме. Активация работы вертушек происходит после достижения температурой GPU показателя 52°С.

Учитывая рабочие частоты графического процессора и памяти, система охлаждения WINDFORCE 3X показала лучшие результаты среди всех ранее тестированных нами модификаций NVIDIA GeForce GTX 1070. Она обеспечила не только отличные температурные показатели, но и продемонстрировала очень низкий уровень шума при повседневном использовании. Также отметим полное отсутствие каких-либо посторонних звуков от элементной базы в виде высокочастотного писка дросселей. 

Читать обзор полностью >>>

Подтверждена подготовка видеокарты NVIDIA GeForce GTX 1080 Ti

Наверное, ни у кого не было сомнений, что компания NVIDIA все же выпустит новую флагманскую модель в серии NVIDIA GeForce GTX 10. Конечно же, речь идет о NVIDIA GeForce GTX 1080 Ti. Но поскольку AMD пока не презентовала конкурента на базе GPU AMD Vega 10, то у NVIDIA нет особой причины спешить с релизом NVIDIA GeForce GTX 1080 Ti, поскольку она и так доминирует в верхнем ценовом диапазоне.

NVIDIA GeForce GTX 1080 Ti

Теперь же информация о скором дебюте данной модели получила свое официальное подтверждение благодаря социальной сети LinkedIn. В ней NVIDIA разместила вакансию на пост старшего менеджера по маркетингу (Senior Marketing Manager). В описании этой вакансии есть одно интересное предложение: «обладатели 980 Ti получают первоочередную возможность предварительного заказа 1080 Ti или предложения «Step Up»».

Вполне возможно, что «Step Up» − это программа лояльности, позволяющая владельцам видеокарты NVIDIA GeForce GTX 980 Ti получить определенную скидку при покупке модели NVIDIA GeForce GTX 1080 Ti. Не исключено, что и другие графические адаптеры будут включены в эту программу, поэтому ждем релиза нового флагмана и официальных подробностей программы «Step Up».

https://www.techpowerup.com
Сергей Будиловский

Читать новость полностью >>>

Выбор игрового компьютера. Зима 2016. Часть 3. Высокий и топовый уровень

В предыдущих двух частях мы рассмотрели начальные, базовые и среднеценовые системы для запуска современных игр на разных настройках графики в разрешениях вплоть до Quad HD. В заключительной части поговорим о конфигурациях для заядлых геймеров, которые хотят получить максимум производительности в сверхвысоких разрешениях. Итак, приступим.

Игровая система высокого уровня

gecid pc

Данная сборка нацелена в первую очередь на разрешение 2560 х 1440 (Quad HD), где можно будет поиграть в большинство актуальных игр на максимальных настройках графики. Для этого понадобится более мощная связка процессор + видеокарта. Перейдем сразу к рассмотрению систем.

 

Socket LGA1150

Socket LGA1151

Socket AM3+

Материнская плата

На основе Intel B85 / H87 / H97 / Z97

($82-110)

На основе Intel B150 / H170 / Z170

($87-136)

На основе AMD 970 / 990FX + SB950

($79-126)

Процессор

Intel Core i5-4690

($243) 

Intel Core i5-6400 в разгоне / Core i5-6600 в номинале 

($205-250)

AMD FX-8300 / 8320E в сильном разгоне

($127)

Графическая подсистема

Дискретная видеокарта NVIDIA GeForce GTX 1070 c 8 ГБ GDDR5

($500)

Оперативная память

2 x 8 ГБ DDR3 с частотой 1866 МГц

($94-98)

2 x 8 ГБ DDR4 с частотой 2133 МГц

($94-98)

2 x 8 ГБ DDR3 с частотой 1866 МГц

($94-98)

Накопитель

SSD объемом 240 / 256 ГБ

($60 − 78)

HDD объемом 2 ТБ

($70-80)

Система охлаждения

Кулер башенного типа средней производительности

($21 − 30)

Кулер башенного типа высокой производительности

($30 − 49)

Блок питания

Качественная модель мощностью 500 − 650 Вт с модульной системой кабелей

($63 − 110)

Корпус

Модель формата Middle Tower

($50− 90)

Общая стоимость

$ 1183 − 1339

$1150 − 1372

$1073 − 1258

Средняя стоимость

$1261

$1261

$1166

Время платформ Socket AM3+ и Socket LGA1150 подходит к концу, поэтому лучше собирать новый высокопроизводительный компьютер именно на Socket LGA1151. При этом мы получим не только задел на будущее, но и более высокий FPS в играх. Если планируются разгонные эксперименты, то берем Intel Core i5-6400 и материнскую плату на основе чипсета Intel Z170 или модель серии ASRock Hyper-OC. В противном случае можно обойтись Intel Core i5-6600 и платой попроще, но с качественной аудиподсистемой, продвинутым сетевым контроллером и обилием современных портов ввода-вывода.

Предвидя вопросы по «китайскому» Intel Core i7-6400T, который с недавних пор появился на зарубежных интернет-площадках и активно обсуждается онлайн-сообществом, отвечаем: это инженерные образцы первых Intel Core i7 на микроархитектуре Intel Skylake. На выходе мы получаем 4 ядра и 8 потоков, но с низкой базовой частотой 2200 МГц. Если вам попадется удачный экземпляр, то вполне можно будет получить в разгоне чип уровня Intel Core i7-6700 за каких-то $150 или даже ниже (в номинале он не интересен). Но никто вам этого не гарантирует, равно как и долгой и стабильной работы. Так что все на ваш страх и риск. Если вы все же отважились на его покупку, то рекомендуем брать «камни» с маркировкой по типу QHQJ L501, которые выпущены на первой неделе 2015 года, то есть самые новые. Это дает куда большую уверенность в их стабильности и хорошем разгонном потенциале.

Выбор видеокарты сводится к покупке одной из множества модификаций NVIDIA GeForce GTX 1070, которая демонстрирует необходимую скорость для вывода QHD-картинки в современных требовательных играх при максимальных или близким к ним настройках графики. Во многих актуальных проектах ее хватит и для комфортного 4K-гейминга, но в будущем уровень качества картинки возрастет и придется уже понижать настройки графики для получения приемлемой скорости. Примером уже сейчас может служить новенький Watch Dogs 2, который ставит на колени в 4K даже топовую NVIDIA GeForce GTX 1080. Если говорить про предшественников, то новинка опережает NVIDIA GeForce GTX 980 более чем на 20% и демонстрирует очень близкую производительность с NVIDIA GeForce GTX 980 Ti при более низкой цене. Фактически конкурентов со стороны AMD у NVIDIA GeForce GTX 1070 нет, ведь на текущий момент самой новой видеокартой на рынке из «красного» лагеря является AMD Radeon RX 480, а она выступает в более доступном ценовом сегменте и предсказуемо уступает ей в среднем на 35%. И даже куда более дорогой прошлогодний флагман AMD Radeon R9 FURY X отстает от творения NVIDIA в среднем на 20%. Так что выбор очевиден.

gecid pc

Теперь попробуем получить похожую производительность, но с б/у комплектующими. Давайте посмотрим, что может предложить нам вторичный рынок.

 

Socket AM3+

Socket LGA1366

Socket LGA1156

Socket LGA1155

Материнская плата

На основе AMD 7xx /8xxE / 9xx / G / FX / GX + SB7xxx / 8xx / 9xx

($27-96)

На основе Intel X58 + ICH10

($153-222)

На основе Intel H55 / H57 / Q57 / P55

($32-117)

На основе Intel P67 / Z68 / Z75 / Z77

($38-114)

Процессор

AMD FX-8100 / 8120 / 8150

($70-100)

Intel Core i7-9xx / Intel Xeon E / L / W / X / 3xxx / 5xxx

($9-100)

Intel Core i7-860 / 870 / 875K / Intel Xeon X34xx

($41-74)

Intel Core i5-2500K / 2550K / 3570K

($99-153)

(в сильном разгоне)

Графическая подсистема

Дискретная видеокарта NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5

($420)

Оперативная память

2 x 8 ГБ DDR3 с частотой 1600 МГц

($47-58)

3 x 4 ГБ DDR3 с частотой 1333 МГц

($40-48)

4 x 4 ГБ DDR3 с частотой 1333 МГц

($53-64)

2 x 8 ГБ DDR3 с частотой 1600 МГц

($47-58)

Накопитель

SSD объемом 240 / 256 ГБ (новый)

($60 − 78)

HDD объемом 2 ТБ

($39-63)

Система охлаждения

Кулер башенного типа высокой производительности

($20 − 40)

Блок питания

Качественная модель мощностью 550 − 650 Вт

($23 − 51)

Корпус

Модель формата Middle Tower

($20 − 58)

Общая стоимость

$726 − 964

$784 − 1080

$708 − 965

$766 − 1035

Средняя стоимость

$845

$932

$837

$900

Для начала поговорим о платформе Socket LGA1366. В отличие от прошлой категории, уже не обойтись недорогой китайской материнской платой и номинально работающим 6-ядерным Intel Xeon X5660. Понадобится дорогая брендовая модель, способная к разгону, посему и выходит самая дорогая сборка. Но в результате мы получим 6 ядер / 12 потоков, которые хорошо себя проявляют не только в играх, но и при выполнении ресурсоемких задачах (работа с 3D-пакетами или кодирование видео). А это может быть очень даже весомым преимуществом.

Пожалуй, самые слабые сборки для игр будут на Socket AM3+ и Socket LGA1156, поэтому лучше их избегать. В таком случае вполне оправдана доплата за систему на Socket LGA1155 – высокая производительность на ядро, умеренное тепловыделение и отменный разгонный потенциал.

Переходим к видеоподсистеме. Видеоускорители, сопоставимые с NVIDIA GeForce GTX 1070, представлены на вторичном рынке только NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5. Но просят за нее ненамного дешевле новой GTX 1070, поэтому такая покупка выглядит довольно сомнительной. Двухчиповые модели и титаны стоят еще дороже. Конечно, можно соорудить связку NVIDIA SLI или AMD CrossFireX из нескольких видеокарт, но как показывает практика, далеко не все современные игры реагируют позитивным образом на такой тандем. В любом случае всегда есть варианты и решать только вам. 

Читать обзор полностью >>>

Обзор и тестирование видеокарты ASUS GeForce GTX 1080 TURBO

С момента анонса видеокарт на базе микроархитектуры NVIDIA Pascal прошло уже достаточно времени, чтобы партнеры порадовали пользователей разнообразием самых различных модификаций. Не стала исключением и компания ASUS, которая вместе с флагманской версией NVIDIA GeForce GTX 1080 (ASUS ROG STRIX GeForce GTX 1080), обладающей фирменной системой охлаждения, заводским разгоном и рядом других особенностей, включила в свой модельный ряд более доступный вариант.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) позиционируется как самая доступная модификация NVIDIA GeForce GTX 1080 в фирменной линейке, которая получила похожую с версией Founders Edition систему охлаждения турбинного типа. При этом она лишилась опорной пластины, а сам кожух был заменен на более простой, выполненный из черного пластика. Давайте же взглянем, какие преимущества вы получите от покупки данной модели.

Спецификация

Модель

ASUS GeForce GTX 1080 TURBO

(TURBO-GTX1080-8G)

Графическое ядро

NVIDIA GP104-400-A1

Количество CUDA-ядер

2560

Номинальная / динамическая частота графического ядра, МГц

1607 / 1733

Эффективная частота памяти, МГц

10010

Объем памяти, ГБ

8

Тип памяти

GDDR5X

Ширина шины памяти, бит

256

Пропускная способность памяти, ГБ/с

320,3

Тип шины

PCI Express 3.0 x16

Интерфейсы вывода изображения

1 x DVI-D
2 x HDMI 2.0b
2 x DisplayPort 1.4

Минимальная мощность блока питания, Вт

500

Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм

266,7 x 111,2 x 38,1 (280 х 112)

Драйверы

Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU

Сайт производителя

ASUS

Упаковка и комплектация

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Видеокарта поставляется в достаточно крупной коробке, выполненной из плотного картона с качественной полиграфией. На лицевой стороне выделено наличие подарка для любителей игры World of Warships, который включает в себя инвайт-код (только для новых игроков) для активации бронепалубного крейсера «Диана» и 15 дней премиумного доступа.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

В свою очередь обратная сторона сообщает нам о наличии подсвечивающегося логотипа компании на боковой стороне видеокарты, что будет приятным бонусом для обладателей корпусов с прозрачной боковой панелью.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Список системных требований к компьютеру, в который планируется установка видеоускорителя, расположен на одной из боковых сторон коробки. Исходя из рекомендаций, блок питания в такой системе должен обладать мощностью не менее 500 Вт, выдавать минимум 42 А по линии +12В и поддерживать один 8-контактный кабель питания PCIe.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

В комплекте с ASUS TURBO-GTX1080-8G поставляется только краткое руководство пользователя и диск с драйверами и утилитами.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Для вывода изображения на тестируемом адаптере используется модифицированный набор интерфейсов:

  • 1 х DVI-D;
  • 2 х HDMI;
  • 2 х DisplayPort.

Напомним, что эталонная версия использует лишь один порт HDMI, но три DisplayPort. В данном же случае компания ASUS решила пойти на встречу обладателям VR-устройств, предоставив им два порта HDMI.

Внешний вид

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Как мы уже упоминали, одним из немногих отличий ASUS TURBO-GTX1080-8G от эталонной NVIDIA GeForce GTX 1080 Founders Edition является кожух системы охлаждения, выполненный из черного пластика. Немного освежают дизайн видеокарты серебристые вставки в виде тонких полос.

К неоспоримым достоинствам данной модели можно отнести высокое качество исполнения благодаря автоматическому процессу производства ASUS AUTO-EXTREME Technology и надежной элементной базы Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником. В результате производитель отмечает снижение рабочих температур, повышение энергоэффективности и увеличение срока службы.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Для питания тестируемого графического адаптера используется слот PCI Express 3.0 х16 и один 8-контактный разъем PCIe. Благодаря его удачному расположению кулер нисколько не затрудняет отключение кабеля PCIe.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Для обеспечения работы технологии NVIDIA SLI используются соответствующие коннекторы для подключения мостиков.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Вторым визуальным отличием ASUS TURBO-GTX1080-8G от NVIDIA GeForce GTX 1080 Founders Edition является отсутствие опорной пластины на обратной стороне печатной платы, которая примечательна некоторыми электрическими компонентами, включая упомянутые выше тантал-полимерные конденсаторы, и крепежными винтами системы охлаждения. Один из них прикрыт гарантийной наклейкой, поэтому снять радиатор без потери гарантии у вас не получится.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

В основе новинки лежит графический чип NVIDIA GP104-400-A1, который произведен по 16-нм техпроцессу. Он состоит из 2560 ядер CUDA, 160 текстурных блоков и 64 блоков растеризации. Видеокарта работает на рекомендованных компанией NVIDIA частотах: номинальная − 1607 МГц и динамическая − 1734 МГц.

Память ASUS GeForce GTX 1080 TURBO, общим объемом 8 ГБ, набрана с помощью восьми GDDR5X-чипов компании Micron, которые работают на рекомендованной эффективной частоте 10010 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 320,3 ГБ информации за секунду.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Интересно, что компания ASUS не заявляет на официальном сайте о наличии других режимов работы ASUS GeForce GTX 1080 TURBO, однако в ПО ASUS GPU Tweak II есть возможность активировать профиль «OC», в котором номинальная частота работы графического ядра повышается до 1645 МГц, а динамическая − до 1772 МГц. Отметим, что тестирование проводилось в номинальном режиме с рекомендованными частотами.

Система охлаждения

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

Мы не разбирали видеокарту, дабы не нарушать гарантию, но вполне вероятно, что конструкция системы охлаждения очень похожа на дизайн эталонной модификации. В качестве преимущества компания ASUS указывает на использование долговечного двойного шарикоподшипника в основе вентилятора.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

При автоматическом регулировании скорости вращения лопастей вентилятора, в режиме максимальной нагрузки, графическое ядро нагрелось до 82°С, а кулер, судя по показаниям мониторинга, работал на 66% от своей максимальной мощности. Уровень шума при этом был ниже среднего и абсолютно комфортным. Напомним, что кулер NVIDIA GeForce GTX 1080 Founders Edition в аналогичном режиме также удерживал температуру GPU на 82°С, но работал при более низкой скорости (2266 против 2788 об/мин).

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 75°С. Издаваемый при этом шум слегка превысил средний уровень и вышел за комфортные рамки. В свою очередь кулер NVIDIA GeForce GTX 1080 Founders Edition смог охладить графическое ядро в аналогичном режиме до 69°С. Возможно, у ASUS TURBO-GTX1080-8G также отсутствует испарительная камера, уменьшены размеры радиатора либо разницу в показателях обеспечивает отсутствующая пластина жесткости.

ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G)

При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, что приводит к уменьшению их энергопотребления и тепловыделения. В таком режиме температура GPU не превышает 43°С.

В целом кулер тестируемой модели справляется с поставленной задачей, ведь критической для графического процессора является температура 94°С. Но для улучшения температурного режима внутри корпуса не помешает пара дополнительных вентиляторов. Из позитивных моментов протестированной системы охлаждения выделим тот факт, что она выталкивает горячий воздух за пределы корпуса. 

Читать обзор полностью >>>

Обзор и тестирование видеокарты NVIDIA GeForce GTX 1080 Founders Edition на базе NVIDIA Pascal

Первое поколение 28-нм микроархитектуры NVIDIA Maxwell было представлено 18 февраля 2014 года в моделях NVIDIA GeForce GTX 750 и NVIDIA GeForce GTX 750 Ti. Ожидалось, что через полгода выйдет второе ее поколение, но уже на основе 20-нм техпроцесса. И действительно, 18 сентября 2014 года дебютировало второе поколение NVIDIA Maxwell в высокопроизводительных моделях NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980. Вот только использовали они все то же 28-нм техпроцесс. То ли NVIDIA изначально не планировала переходить на 20 нм, то ли у TSMC возникли сложности с освоением новой технологии, то ли AMD не удивила уровнем производительности конкурентных аналогов. Одним словом, в течение двух лет на рынке доминировала 28-нм микроархитектура NVIDIA Maxwell.

NVIDIA GeForce GTX 1080 Founders Edition

Согласно исследованиям аналитической компании Jon Peddie Research, именно в 2014 году позиции AMD на рынке десктопной графики (включая интегрированную графику в APU) опустились ниже 20%. А вот кривая NVIDIA показала восходящую тенденцию. То есть ставка на снижение энергопотребления с одновременным повышением быстродействия полностью себя оправдала. Особенно в мобильных системах, где NVIDIA полностью переиграла AMD по количеству успешных дизайнов.

NVIDIA GeForce GTX 1080 Founders Edition

Но индустрия спешит вперед, и компания TSMC уже успешно освоила 16-нм технологию FinFET. Intel и Samsung разобрались с 14-нм FinFET для производства сложных чипов, таких как центральные или графические процессоры. Одним словом, 2016 год – время очередного столкновения в некоторых сегментах. В данном случае – на рынке видеокарт. Позиции NVIDIA будет отстаивать микроархитектура NVIDIA Pascal. Конкуренцию ей составят 14-нм AMD Vega в сегменте Hi-End, а также AMD Polaris в категориях Middle-End и Performance. То есть лето и осень обещают быть жаркими и напряженными. Знакомство с NVIDIA Pascal мы начнем с топового на данный момент представителя – NVIDIA GeForce GTX 1080. Для начала давайте сравним между собой текущее и новое поколение графических адаптеров компании NVIDIA:

Модель

NVIDIA GeForce GTX 970

NVIDIA GeForce GTX 1070 

NVIDIA GeForce GTX 980

NVIDIA GeForce GTX 1080 

NVIDIA GeForce GTX 980 Ti

Техпроцесс, нм

28

16 FinFET

28

16 FinFET 

28

GPU

NVIDIA GM204-200-A1

NVIDIA GP104-200-A1

NVIDIA GM204-400-A1

NVIDIA GP104-400-A1 

NVIDIA GM200-310-A1

Микроархитектура

NVIDIA Maxwell 2.0

NVIDIA Pascal

NVIDIA Maxwell 2.0

NVIDIA Pascal 

NVIDIA Maxwell 2.0

Площадь кристалла, мм2

398

314

398

314

601

Количество транзисторов, млрд.

5,2

7,2

5,2

7,2

8,0

Количество CUDA-ядер

1664

1920

2048

2560

2816

Количество текстурных блоков

104

120

128

160

176

Количество растровых блоков

56

64

64

64

96

Базовая / динамическая частота GPU, МГц

1050 / 1178

1506 / 1683

1127 / 1216

1607 / 1733

1000 / 1076

Тип видеопамяти

GDDR5

GDDR5

GDDR5

GDDR5X 

GDDR5

Объем, ГБ

4

8

4

8

6

Эффективная частота памяти, МГц

7 012

8 008

7 012

10 008

7 012

Разрядность шины, бит

256

256

256

256

384

Пропускная способность, ГБ/с

224,4

256,3

224,4

320

337

Вычислительная мощность, TFLOPS

3,494

5,783

4,616

8,228

5,632

TDP, Вт

148

150

165

180

250

Рекомендованная стоимость на старте продаж, $

329

379 / 449

549

599 / 699

649

Как видим, общая тенденция к увеличению производительности и уменьшению энергопотребления сохранилась. Например, NVIDIA GeForce GTX 1070 по вычислительной мощности номинально превосходит NVIDIA GeForce GTX 980 Ti, а уровень ее TDP на 100 Вт ниже. В свою очередь NVIDIA GeForce GTX 1080 на 78% улучшила показатель уровня производительности по сравнению со своим предшественником. А ее тепловой пакет при этом возрос лишь на 9%. Достижению этого сопутствовали как улучшения в микроархитектуре, так и ряд технологий. Более того, NVIDIA добавила и некоторые интересные функции (например, HDR или Ansel), которые напрямую не влияют на скорость вычислений, но делают погружение в виртуальный мир компьютерной графики еще ярче и приятнее. О них мы и поговорим далее.

Микроархитектура и новые технологии

Поскольку NVIDIA Pascal совершил огромный прыжок с 28-нм технологии на 16-нм FinFET, то вносить кардинальные изменения в его структуру компания NVIDIA не стала. К тому же NVIDIA Maxwell отлично себя показала как в плане производительности и балансировки нагрузок, так и в вопросе энергоэффективности, поэтому решение лишь немного доработать этот дизайн вполне логичное.

NVIDIA GeForce GTX 1080 Founders Edition

Структурная схема графического процессора NVIDIA GP100

На данный момент графический процессор NVIDIA GP104, который и лежит в основе NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, является вторым по старшинству после NVIDIA GP100. Похожую ситуацию мы наблюдали и в семействе NVIDIA Maxwell: NVIDIA GM204 использовался для видеокарт NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980, а NVIDIA GM200 – для NVIDIA GeForce GTX 980 Ti и NVIDIA GeForce GTX TITAN X. Однако есть и одна важная разница: NVIDIA GP100 установлен в профессиональном ускорителе NVIDIA Tesla P100 для дата-центров, и в своей структуре он использует специальные CUDA-ядра для вычислений двойной точности (FP64) наряду с обычными. В играх и большинстве повседневных программах они не задействованы, поэтому особой пользы от них нет. Существует пока неофициальная версия о наличии GPU NVIDIA GP102. Предположительно именно он ляжет в основу видеокарты NVIDIA GeForce GTX 1080 Ti и новой модели серии NVIDIA GeForce GTX TITAN.

NVIDIA GeForce GTX 1080 Founders Edition

Структурная схема графического процессора NVIDIA GP104

NVIDIA GeForce GTX 1080 Founders Edition

Структурная схема графического процессора NVIDIA GM204

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

Структурная схема кластера TPC в NVIDIA GP104 (слева) и NVIDIA GM204 (справа)

Структурно графический процессор NVIDIA GP104 разбит на четыре вычислительных кластера (Graphics Processing Cluster (GPC)), как и NVIDIA GM204. Однако переход на более тонкий техпроцесс позволил увеличить количество потоковых мультипроцессоров (Streaming Multiprocessor (SM)), поэтому у новинки в каждом GPC используется по пять SM-блоков вместо четырех у NVIDIA GM204.

Уже традиционно SM-блок вместе с движком PolyMorph Engine объединены в Texture Processor Cluster (TPC). Структура TPC у NVIDIA GP104 практически не изменилась по сравнению NVIDIA GM204. Ключевое различие заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection, которого не было раньше.

Если мы нырнем еще глубже в микроархитектуру и заглянем в SM-блок, то увидим, что он включает в себя 4 планировщика (Warp Scheduler), 128 CUDA-ядер, регистровый файл общим объемом 256 КБ, кэш-память L1 объемом 48 КБ и 8 текстурных блоков – тут все без изменений.

Общая структура контроллера памяти немного изменилась - вместо четырех 64-битных используются восемь 32-битных, но в общем счете получаем ту же 256-битную шину, что и у NVIDIA GM204. Для более наглядного восприятия давайте сведем всю обозначенную информацию в одну таблицу:

Видеокарта

NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 980

Графический процессор

NVIDIA GP104-400

NVIDIA GM204-400

Техпроцесс, нм

16 FinFET

28

Площадь кристалла, мм2

314

398

Общее количество транзисторов, млрд.

7,2

5,2

Количество кластеров GPC

4

4

Количество кластеров TPC

20

16

Количество SM-блоков

20

16

Количество CUDA-ядер

2560

2048

Количество текстурных блоков

160

128

Количество растровых блоков

64

64

Объем кэш-памяти L2, КБ

2048

2048

Скорость выборки текстур, гигатекселей/с

257,1

144,3

Скорость закраски, гигапикселей/с

102,8

72,1

NVIDIA GPU Boost 3.0

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

После короткого погружения в микроархитектуру, давайте рассмотрим наиболее интересные технологии, дебютирующие в NVIDIA Pascal. Первая на очереди – технология динамического разгона NVIDIA GPU Boost 3.0. Она позволяет в индивидуальном порядке получить более высокие показатели тактовых частот. Принципиальное отличие от GPU Boost 2.0 заключается в большем контроле со стороны пользователя. Раньше смещение динамической частоты относительно номинальной скорости GPU было строго фиксированным. Но ведь возможности каждого графического процессора, то есть максимальные частотные кривые в рамках заданных температурных рамок, разные. Например, одни могут повышать скорость от 1733 до 2000 МГц, а другие – от 1733 до 1800 МГц. Поэтому GPU Boost 3.0 позволяет задать смещение частоты в турборежиме для каждого отдельно взятого графического процессора и на всем промежутке возможных напряжений.

NVIDIA GeForce GTX 1080 Founders Edition

Для этого в утилитах для оверклокинга добавлена соответствующая функция. На первом этапе работы она протестирует установленную в системе видеокарту и составит для нее индивидуальную кривую максимально возможных динамических частот для каждого заданного напряжения. На втором этапе пользователь в автоматическом или в ручном режиме указывает оптимальные показатели динамических частот, чтобы они использовали возможности текущего GPU по максимуму, но не превышали безопасных температурных рамок.

GDDR5X

NVIDIA GeForce GTX 1080 Founders Edition

Использование HBM в моделях линейки AMD Radeon R9 FURY позволяет существенно улучшить производительность подсистемы видеопамяти. Но вместе с тем это повышает сложность изготовления графического процессора и его конечную стоимость. Поэтому NVIDIA приберегла стандарт HBM2 для GPU NVIDIA GP100 (и, возможно, NVIDIA GP102), а вот в NVIDIA GP104 интегрирован контроллер с поддержкой стандартов GDDR5X и GDDR5. Первый тип памяти предназначен для NVIDIA GeForce GTX 1080, второй – для NVIDIA GeForce GTX 1070.

NVIDIA GeForce GTX 1080 Founders Edition

Вкратце напомним, что стандарт GDDR5X позволяет передавать четыре бита данных за такт (Quad Data Rate) вместо двух (Double Data Rate) у GDDR5. Также с 8n до 16n увеличилась предварительная выборка данных (prefetch). В результате пропускная способность интерфейса на контакт увеличилась с 7-8 до 10-12 Гбит/с. Для используемой памяти GDDR5X в модели NVIDIA GeForce GTX 1080 этот показатель как раз и составляет минимальные 10 Гбит/с. В последующих поколениях микросхем планируется довести его до 16 Гбит/с. Но даже показатель в 10 Гбит/с на контакт позволил увеличить пропускную способность памяти новой видеокарты до 320 ГБ/с при 256-битной шине, что потребовало изменений в дизайне контроллера памяти и печатной платы. Напомним, что у NVIDIA GeForce GTX 980 этот параметр составляет 224,4 ГБ/с при аналогичной разрядности шины. А у NVIDIA GeForce GTX 980 Ti – 336 ГБ/с при 384-битной шине.

К другим ключевым преимуществам GDDR5X относится увеличенный максимальный объем одной микросхемы (с 8 до 16 Гбит), что позволяет реализовать большую общую емкость подсистемы видеопамяти при одинаковом количестве чипов, и уменьшенное напряжение питания (с 1,5 до 1,35 В), что ведет к повышенной энергоэффективности. К тому же в стандарте прописана необходимость управления скоростью микросхем памяти от уровня их температуры. Теоретически, это должно повысить внимание разработчиков к эффективности охлаждения чипов памяти.

Memory Comptression

NVIDIA GeForce GTX 1080 Founders Edition

Увеличенная пропускная способность памяти – это большое преимущество, но дополнительный бонус к скорости работы подсистемы видеопамяти и видеокарты в целом обеспечивает четвертое поколение метода компрессии на основе разницы цвета (Delta Color Compression). Суть его работы заключается в обнаружении групп пикселов с минимальным различием в цвете. А затем они кодируются с помощью двух показателей: базового цвета и разницы (дельты) между базовым и реальным цветом.

Третье поколение этой технологии использовалось в NVIDIA Maxwell. По сравнению с ним NVIDIA Pascal улучшил алгоритм сжатия 2:1, а также добавил режимы 4:1 и 8:1. Если же в изображении используется очень много различных оттенков, то сжатие может и не осуществляться.

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

Оригинальное изображение (слева), сжатие в NVIDIA Maxwell (по центру), сжатие в NVIDIA Pascal (справа)

Для наглядной демонстрации преимуществ работы движка Pascal Memory Compression Engine над Maxwell Memory Compression Engine компания NVIDIA использовала кадр из игры Project CARS. Пурпурным цветом закрашены области изображения, которые удалось сжать. В результате этой процедуры уменьшается объем данных, циркулирующих между памятью, кэшем L2, текстурными блоками, буфером кадра и другими блоками графического процессора. В цифровом эквиваленте движок Pascal Memory Compression Engine добавляет 20% к показателю пропускной способности, теоретически увеличивая его до 384 ГБ/с.

NVIDIA GeForce GTX 1080 Founders Edition

В общей сложности сочетание более высокой пропускной способности GDDR5X-памяти и улучшенных алгоритмов сжатия информации обеспечивают прирост производительности подсистемы видеопамяти NVIDIA GeForce GTX 1080 относительно NVIDIA GeForce GTX 980 на уровне 70%.

Async Compute: Dynamic Load Balancing и Pixel Level Preemption

NVIDIA GeForce GTX 1080 Founders Edition

До сентября 2015 года многие даже и не подозревали о технологии асинхронных вычислений (Async Compute) и ее влиянии на итоговую производительность компьютера, поскольку API DirectX 11 ее попросту не использует. А вот в DirectX 12 разработчики могут применять ее для оптимизации задействованных ресурсов. Дело в том, что при рендеринге игровой сцены компьютер просчитывает множество сложных эффектов (тени, свет, физику поведение объектов, алгоритм работы AI и другие). В DirectX 11 он это делает в последовательном режиме, шаг за шагом, поэтому задержка на одном этапе тормозит весь процесс. А в DirectX 12 появилась возможность параллельного вычисления. Например, одна часть системы занимается сложным расчетом эффектов света, а другая тем временем обрабатывает поведение AI или занимается другими стадиями подготовки изображения. Такой сценарий отлично иллюстрирует работу одной из составных частей Async Compute – технологии динамической балансировки нагрузок (Dynamic Load Balancing).

NVIDIA GeForce GTX 1080 Founders Edition

В NVIDIA Maxwell используется статическая балансировка, при которой одна часть ресурсов выделяется на графические задачи, другая – на вычислительные. Если, например, первая справилась со своей работой быстрее, то она некоторое время простаивает без нагрузки. Динамическая балансировка в NVIDIA Pascal использует всеми любимый принцип: кто справился быстрее, тот помогает отстающему. В результате многие задачи решаются более оперативно.

NVIDIA GeForce GTX 1080 Founders Edition

Второй вариант использования асинхронных вычислений – технология Pixel Level Preemption – отлично подойдет для тех задач, которые следует делать либо вовремя, либо не делать вообще. Например, она помогает реализовать алгоритм Asynchronous TimeWarp (ATW) в VR-шлемах. Системы виртуальной реальности сами по себе требуют много вычислительных ресурсов, а пользователь своими резкими вращениями головой добавляет нагрузку на графический процессор, ведь изменение ее положения в пространстве требует обработки уже другого кадра. Поэтому если система не успела вовремя закончить просчет кадра до его вывода на экран, то он теряет свою актуальность и вычислительные ресурсы необходимо направить на другие задачи. В такой ситуации технология Pixel Level Preemption прервет его рендеринг, при необходимости выгрузит результат в память и займется другой задачей.

Simultaneous Multi-Projection

NVIDIA GeForce GTX 1080 Founders Edition

При взгляде на микроархитектуру мы упоминали, что ключевое различие в схеме кластера TPC между NVIDIA Pascal и NVIDIA Maxwell заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection. Он отвечает за реализацию одноименной технологии, суть работы которой сводится к достоверному проецированию геометрических 3D-объектов на плоских экранах в зависимости от угла просмотра.

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

Проекция в одной плоскости (слева), некорректная проекция в нескольких плоскостях (по центру), корректная проекция благодаря Simultaneous Multi-Projection

Монитор – это наше окно в мир 3D-графики. На одном экране мы можем наблюдать очень качественную 3D-картинку. Но если установить, например, три экрана со смещением друг к другу, то картинка будет и дальше обрабатываться лишь в одной проекции, а смотреть на нее мы уже будем под тремя разными углами. В таком случае создается впечатление, что достоверная геометрия реализована лишь на центральном экране, расположенном перпендикулярно взгляду пользователя. А вот боковые дисплеи будут искажать картинку. Именно в этом случае Simultaneous Multi-Projection обеспечит корректность восприятия.

NVIDIA GeForce GTX 1080 Founders Edition

Другой пример использования этой технологии – VR. Она отрисовывает геометрию для правого и левого глаз одновременно за один проход, что обеспечивает повышенный уровень производительности для шлемов виртуальной реальности. Дополнительно она позволяет оперировать меньшим объемом данных, снижая необходимое для комфортного восприятия разрешение изображения в Oculus Rift с 4,2 до 2,8 Мп. Это трансформируется в экономию вычислительных ресурсов и времени на их обработку. В результате NVIDIA Pascal демонстрирует отличную производительность в VR-бенчмарках.

Аппаратное декодирование видео и HDR

NVIDIA GeForce GTX 1080 Founders Edition

Микроархитектура NVIDIA Pascal принесла с собой улучшения в блоке вывода изображения на экран. Например, появилась возможность аппаратного кодирования и декодирования видеопотока в HEVC с глубиной цвета 10 или 12 бит на канал, улучшено декодирование H.264 и некоторых других стандартов.

NVIDIA GeForce GTX 1080 Founders Edition

Однако настоящим прорывом обещает стать High Dynamic Range (HDR). Мониторы с ее поддержкой могут воспроизводить 75% видимого цветового спектра, что в два раза больше, чем у современных экранов. Максимальная яркость у них увеличится до 1000 кд/м2 (сейчас – 250 – 350 кд/м2), а статическая контрастность – до 10 000:1 (сейчас 1 000:1 для TN и IPS, 3 000:1 для VA).

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA GeForce GTX 1080 Founders Edition

Видео и игры для HDR обещают буйство красок и настоящее пиршество для глаз. Поэтому если вы в ближайшей перспективе планировали покупать новый монитор, то рекомендуем подождать выхода HDR-совместимых моделей, которые должны дебютировать до конца года.

Fast Sync

NVIDIA GeForce GTX 1080 Founders Edition

Показатели в игре Counter-Strike: Global Offensive

В посвященном технологии NVIDIA G-SYNC материале мы подробно разобрались в недостатках работы технологии вертикальной синхронизации (V-SYNC On). Наибольшие проблемы она создает любителям динамичных игр и онлайн-проектов, где высокая частота кадров сопутствует низким задержкам в смене игровой обстановки. Поэтому многие пользователи попросту выключают ее и не обращают внимание на возможные разрывы кадров. В качестве альтернативы NVIDIA Pascal предлагает технологию Fast Sync, которая позволяет устранить артефакты изображения и сохранить сравнительно низкие задержки вывода кадров на экран.

NVIDIA GeForce GTX 1080 Founders Edition

В чем же заключается ее суть? Во-первых, вся цепочка подготовки кадра условно делится на две независимые части. В первую входит игровой движок, драйвер и графический процессор. Их задача – обеспечивать максимально быстрый рендеринг каждой сцены, независимо от частоты обновления экрана. То есть наследуется принцип работы с выключенной вертикальной синхронизацией (V-SYNC Off). За условной пунктирной чертой на рисунке находится вторая часть – первичный буфер (Front Buffer), вторичный буфер (Back Buffer), буфер LRB (Last Rendered Buffer) и сам экран. Эта часть уже ориентируется на частоту обновления экрана, чтобы кадр выводился целиком, без каких-либо разрывов. То есть наследуется принцип работы V-SYNC On.

Вся система взаимодействует следующим образом: после рендеринга готовый кадр попадает в Back Buffer, который сразу же после этого меняется именами с Last Rendered Buffer, чтобы графический процессор имел место для хранения нового кадра (смена именами заменяет процесс копирования). То есть Back Buffer получает готовый кадр для вывода на экран и становится Last Rendered Buffer, а Last Rendered Buffer становится Back Buffer и готов к приему нового кадра от графического процессора. Как только монитор запрашивает новый кадр, сразу же Last Rendered Buffer с готовым изображением меняется именами с Front Buffer, поскольку именно из него информация подается на экран. Таким образом, GPU может обрабатывать кадры с максимально возможной скоростью, а карусель между тремя буферами гарантирует, что они не пропадут бесследно и на экран будет выводится нужный кадр без больших задержек и разрывов. Вот только Fast Sync эффективно работает для тех игр, в которых скорость воспроизведения выше частоты обновления экрана. Для обычных мониторов она составляет 60 Гц. Если уровень FPS выше 60, тогда есть смысл использовать Fast Sync. Если ниже, тогда плавность картинки обеспечит NVIDIA G-SYNC.

Multi-GPU 

NVIDIA GeForce GTX 1080 Founders Edition

Если вы планируете использовать несколько графических адаптеров NVIDIA Pascal в режиме NVIDIA SLI, особенно для поддержки экранов с высокими разрешениями, тогда вам просто необходим новый мостик High Bandwidth SLI Bridge (SLI HB Bridge).

В отличие от стандартного, он использует оба SLI-коннектора на печатной плате видеокарты. Также с 400 до 650 МГц повысилась частота работы комбинированного SLI-интерфейса. В результате существенно возрастает его пропускная способность, что и позволяет реализовать комфортную поддержку 4K- и 5K-экранов.

NVIDIA GeForce GTX 1080 Founders Edition

И еще один важный момент: теперь компания NVIDIA не рекомендует использовать 3 или 4 видеокарты в режиме NVIDIA SLI. Дело в том, что масштабирование производительности для режима NVIDIA SLI в играх и программах − достаточно сложный и трудоемкий процесс, поэтому NVIDIA решила ограничиться оптимизацией под 2 видеокарты. Чтобы разблокировать режим 3-Way или 4-Way NVIDIA SLI, пользователям необходимо будет загрузить бесплатную утилиту Enthusiast Key из официального сайта NVIDIA, которая поможет активировать необходимые настройки. В качестве альтернативы NVIDIA предлагает использовать режимы «Multi Display Adapter (MDA)» или «Linked Display Adapter (LDA)» в совместимых DirectX 12 играх, которые могут реализовать поддержку 4 видеокарт.

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA Ansel

С каждым годом компьютерная графика в играх становится все более красочнее и реалистичнее. Среди многих людей бытует мнение, что компьютерные игры – это новый вид искусства, поэтому некоторые художники и фотографы всячески популяризируют процесс захвата наиболее удачных игровых кадров. Вот только разработчики обычно не уделяют этому много внимания, поэтому выбрать нужный ракурс достаточно сложно, особенно в динамичном игровом процессе.

NVIDIA GeForce GTX 1080 Founders Edition

Но теперь есть технология NVIDIA Ansel, обещающая настоящий прорыв в этом вопросе. Для ее реализации в программный код игры необходимо будет добавить определенные фрагменты: для The Witness – это около 40 строк кода, а для The Witcher 3: Wild Hunt – около 150, то есть сущие пустяки по сравнению с общим объемом.

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

Взамен она предоставляет уникальные возможности:

  • свободную камеру, позволяющую выбрать нужный ракурс для создания максимально эффектного скриншота;
  • фильтры постобработки, которые позволяют поиграться с различными цветовыми эффектами;
  • возможность захвата снимков с разрешением, которое в 32 раза превышает максимальное разрешение экрана;

NVIDIA GeForce GTX 1080 Founders Edition

  • поддержку высокого цветового спектра для последующего экспорта снимка в Adobe Photoshop;

NVIDIA GeForce GTX 1080 Founders Edition

  • съемку 360-градусных фото для дальнейшего просмотра с помощью VR-устройств.

Поддержка технологии Ansel уже заявлена для Tom Clansy’s The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky и Unreal Tournament. Со временем наверняка и другие проекты присоединятся к этому списку.

NVIDIA VRWorks

NVIDIA GeForce GTX 1080 Founders Edition

VR – это один из новых мощных драйверов для рынка компьютерных технологий в целом и игр в частности. Пока это достаточно дорогое удовольствие с ограниченным количеством контента, но перспективы у него очень большие. Прекрасно это понимая, NVIDIA оперативно выпустила обновленный пакет инструментов NVIDIA VRWorks. Он включает в себя различные технологии, инструменты и библиотеки полезных функций, которые существенно упрощают разработчикам процесс создания программ и игр под VR. В результате программисты экономят время и ресурсы, используя готовые и протестированные инструменты, а пользователи получают более реалистичный контент. Конечно, при условии, что используют совместимую видеокарту компании NVIDIA.

Для лучшего понимания возможностей NVIDIA VRWorks предлагаем посмотреть демонстрационный ролик, отображающий и объясняющий преимущества использования одной из ее технологии − VRWorks Audio. 

Читать обзор полностью >>>

Видеокарты NVIDIA GeForce GTX 970, GTX 980 и GTX 980 Ti становятся дешевле

Вполне логичный и ожидаемый ход сделала компания NVIDIA: с целью побыстрее распродать остатки видеокарт предыдущего поколения были снижены цены на высокопроизводительные модели линейки NVIDIA Maxwell. В частности, стоимость NVIDIA GeForce GTX 970 упала на $25, желающим купить NVIDIA GeForce GTX 980 придется заплатить на $75 меньше, а новые обладатели NVIDIA GeForce GTX 980 Ti могут сэкономить $125.

NVIDIA GeForce GTX 980

В первую очередь снижение цен зафиксировано на западных онлайн-площадках, хотя источник сообщает, что это глобальный шаг, поэтому в ближайшие несколько дней стоимость указанных видеоускорителей должна упасть и для других рынков. Таким образом, конкуренция усиливается не только для внутреннего модельного ряда компании NVIDIA, но и для новых видеокарт серии AMD Polaris, которые придут на рынок в конце июня. А это значит, что у пользователей есть шанс приобрести добротную модель по более доступной стоимости.

http://videocardz.com
Сергей Будиловский

Читать новость полностью >>>

Обзор и тестирование видеокарты GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Продолжая разговор о текущих флагманских видеокартах AMD, выполненных на основе графического ядра AMD Fiji, мы рассмотрим топовый графический ускоритель AMD Radeon R9 FURY X.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В отличие от рассмотренной ранее AMD Radeon R9 FURY, тестируемая модель, как и AMD Radeon R9 Nano, получила максимальную версию графического ядра AMD Fiji, включающую в себя 4096 потоковых процессоров, 256 текстурных блоков и 64 модуля растровых операций. Если же сопоставить AMD Radeon R9 FURY X с AMD Radeon R9 Nano, то мы увидим более высокую частоту графического процессора (1050 против 1000 МГц) и увеличенный показатель теплового пакета (275 против 175 Вт). Итоговая сравнительная таблица характеристик всех трех видеокарт выглядит следующим образом:

Модель

AMD R9 Fury X

AMD R9 Fury

AMD R9 Nano

Графическое ядро

AMD Fiji XT 

AMD Fiji PRO 

AMD Fiji XT

Микроархитектура

AMD GCN 1.2

Количество потоковых процессоров

4096

3584

4096

Количество текстурных блоков (TMU)

256

224

256

Количество модулей растровых операций (ROP)

64

64

64

Частота графического ядра, МГц

1050

1000

1000

Тип памяти

HBM

Объем видеопамяти, ГБ

4

Эффективная частота видеопамяти, МГц

1000

Ширина шины видеопамяти, бит

4096

Пропускная способность видеопамяти, ГБ/с

512

Показатель TDP, Вт

275

275

175

Отдельно напомним, что с подробным описанием всех характеристик и возможностей AMD Fiji вы можете ознакомиться в обзоре AMD Radeon R9 Nano, ну а мы тем временем перейдем непосредственно к обзору AMD Radeon R9 FURY X.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

И сделать это нам поможет модификация GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B). Данный видеоускоритель любезно предоставлен смарт-маркетом электроники VSESVIT.BIZ, где его же можно и купить ориентировочно за $785.

Спецификация:

Модель

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Графическое ядро

AMD Fiji XT

Количество потоковых процессоров

4096

Частота графического ядра, МГц

1050

Частота памяти (эффективная), МГц

500 (1000)

Объем памяти, ГБ

4

Тип памяти

HBM

Ширина шины памяти, бит

4096

Пропускная способность памяти, ГБ/с

512

Тип шины

PCI Express 3.0 x16

Интерфейсы вывода изображения

1 x HDMI

3 x DisplayPort

Рекомендованная мощность блока питания, Вт

750

Размеры (согласно измерениям в нашей тестовой лаборатории), мм

210 х 130 х 40 (208 x 116)

Драйверы

Свежие драйверы можно скачать с сайта компании GIGABYTE или сайта производителя GPU

Сайт производителя

GIGABYTE

Упаковка и комплектация

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Видеокарта поставляется в достаточно крупной и объемной коробке, что неудивительно, учитывая наличие комплектной СВО. Дизайн упаковки выполнен в уже знакомом фирменном стиле, а качественная полиграфия является весьма информативной.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

На обратной стороне упоминается техническая спецификация, некоторые преимущества GIGABYTE GV-R9FURYX-4GD-B и список системных требований. Исходя из рекомендаций, блок питания в системе должен обладать мощностью не менее 750 Вт и поддерживать два 8-контактных кабеля PCIe. А в корпусе ПК одно из посадочных мест под 120-мм системный вентилятор будет использовано для крепления радиатора СВО.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В комплекте с графическим адаптером мы обнаружили только стандартный набор аксессуаров в виде документации и диска с ПО. Какие-либо переходники в коробке отсутствуют, а значит, при необходимости поиском адаптеров для подключения питания придется озаботиться заблаговременно.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Для вывода изображения на тестируемой модели используется эталонный набор интерфейсов:

  • 1 х HDMI;
  • 3 х DisplayPort.

Вполне логичным шагом производителя выглядит отказ от аналогового видеовыхода в топовой видеокарте. А что касается DVI, то разместить его на плате было проблематично из-за используемой системы охлаждения, поэтому при необходимости можно приобрести соответствующий переходник.

Внешний вид и система охлаждения

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В список достоинств GIGABYTE Radeon R9 FURY X несомненно следует занести ее компактные габариты, благодаря которым не возникнет никаких проблем с установкой даже в относительно маленькие корпуса (при условии, что найдется посадочное место для радиатора СВО). Отдельно выделим вполне узнаваемый и стильный дизайн в темных тонах, который отлично дополняется логотипом красного цвета и софт-тач покрытием верхней крышки кулера.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Обратная сторона прикрыта опорной пластиной, на которой нанесены наклейки с необходимой сервисной информацией.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Отдельно отметим наличие на обратной стороне небольшого переключателя, который отвечает за активацию и управление диагностической подсветкой, реализованной при помощи 9 светодиодов рядом с разъемами питания.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

При помощи переключателя можно не только выключить работу подсветки, но и изменить цвет ее свечения с красного на синий.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Еще один тумблер отвечает за переключение между двумя прошивками BIOS (основной и запасной). Он расположен рядом со светящимся красным цветом логотипом «Radeon».

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В отличие от упомянутых выше светодиодов, данный логотип всегда светится только красным цветом, и управлять его работой нельзя.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Для питания тестируемого графического адаптера доступен слот PCI Express x16 и два 8-контактных разъема PCIe, расположенных на боковой стороне платы. Система охлаждения не закрывает доступ к ним, что сопутствует удобному подключению и отключению кабелей питания.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В основе тестируемой модели лежит GPU AMD Fiji XT, произведенный по 28-нм техпроцессу. Он включает в себя 4096 потоковых процессоров, 64 блока растеризации и 256 текстурных блоков. Частота графического процессора соответствует эталонным 1050 МГц.

Память, общим объемом 4 ГБ, набрана с помощью четырех HBM-чипов производства SK hynix, которые работают на эффективной частоте 1000 МГц. Обмен данными между графическим процессором и памятью осуществляется через 4096-битную шину, которая способна пропускать 512 ГБ/с.

Система охлаждения

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Система охлаждения модели GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) представляет собой замкнутый контур. Из корпуса видеокарты выходят два соединительных шланга для циркуляции жидкости и кабель питания. Внутри они подключены к совмещенному с помпой водоблоку, который установлен на алюминиевой пластине, накрывающей печатную плату.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Для охлаждения хладагента используется массивный радиатор с размерами 150 х 120 х 38 мм.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

Активным элементом этой части конструкции выступает осевой вентилятор типоразмера 120 мм с диаметром лопастей 111 мм. Ширина радиатора с установленной вертушкой составляет 64 мм.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В автоматическом режиме работы с максимальной нагрузкой графическое ядро нагрелось до 64°С, а кулер, судя по показаниям мониторинга, работал при этом на 19% от своей пиковой мощности. Уровень шума при этом был очень тихим и абсолютно комфортным. Для сравнения напомним, что достаточно габаритный кулер с тремя вентиляторами, установленный на GIGABYTE Radeon R9 FURY WINDFORCE 3X OC, смог охладить работающий на меньших частотах AMD Fiji PRO до 69°С.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 42°С. Издаваемый при этом шум немного превысил средний уровень и стал некомфортным для постоянного использования. В свою очередь температура GIGABYTE Radeon R9 FURY WINDFORCE 3X OC в аналогичном режиме составила 50°С.

GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)

При отсутствии нагрузки частоты графического ядра и памяти автоматически снижались, что приводило к меньшему их энергопотреблению и тепловыделению. К сожалению, СВО не переходит при этом в пассивный режим и продолжает работать. Температура графического ядра в таком режиме не превышала отметку в 25°С. Отдельно отметим, что периодически был различим высокочастотный шум дросселей, что не критично, но не очень приятно.

В итоге использование СВО на AMD Radeon R9 FURY X выглядит вполне оправданным шагом, так как она отлично справляется с охлаждением графического ядра и работает очень тихо при повседневном использовании. Также СВО должна позволить добиться хорошего разгонного потенциала, что мы обязательно проверим в соответствующем разделе. 

Читать обзор полностью >>>

NVIDIA GeForce GTX 1070 быстрее NVIDIA GeForce GTX TITAN X

NVIDIA демонстрирует другим IT-компаниям наглядный пример того, каким должно быть новое поколение продуктов, и на сколько должен отличаться уровень его производительности. В частности, специалистам одного авторитетного веб-сайта удалось заполучить в свое распоряжение видеокарту NVIDIA GeForce GTX 1070 Founders Edition, которую они протестировали в трех режимах бенчмарка 3DMark FireStrike («Performance 1080p», «Extreme 1440p» и «Ultra 2160p»), а затем сравнили полученные результаты с конкурентными аналогами. В результате NVIDIA GeForce GTX TITAN X ($999) отстала от NVIDIA GeForce GTX 1070 ($449) в среднем на 3%, а NVIDIA GeForce GTX 980 Ti ($649) и AMD Radeon R9 Fury X ($649) – на 5%. Интересно то, что чем выше разрешение экрана, тем увереннее себя чувствует NVIDIA GeForce GTX 1070. Например, отрыв от NVIDIA GeForce GTX 970 ($329) в режиме «Performance 1080p» составил 36%, а в «Ultra 2160p» − уже 50%.

NVIDIA GeForce GTX 1070 Founders Edition

А вот оверклокинг видеоускорителя NVIDIA GeForce GTX 1070 Founders Edition вызвал двойственные чувства. С одной стороны, технические показатели удалось существенно ускорить: частота GPU в среднем достигла 2060 МГц, а эффективная скорость видеопамяти взяла планку в 9 ГГц. С другой – даже эти значения не позволили превзойти результат NVIDIA GeForce GTX 1080 Founders Edition. К тому же предусмотренное количество фаз питания версии NVIDIA GeForce GTX 1070 Founders Edition не позволило раскрыть весь доступный потенциал. Поэтому любителям максимального разгона все же рекомендуется смотреть в сторону моделей с усиленной подсистемой питания.

NVIDIA GeForce GTX 1070 Founders Edition

Сравнительная таблица технической спецификации видеокарт NVIDIA GeForce GTX 1070 и NVIDIA GeForce GTX 1080:

Читать новость полностью >>>

Финальная спецификация и слайды с презентации NVIDIA GeForce GTX 1080

Хотя официальная презентация видеокарты NVIDIA GeForce GTX 1080 состоялась в начале мая, лишь сейчас появились все подробности технической спецификации графического процессора NVIDIA GP104-400. Очень интересно сравнить полученные данные с уже существующими на рынке адаптерами, что позволяет полнее оценить проделанную компанией NVIDIA работу и преимущества от перехода на более тонкий техпроцесс.

Например, общая площадь кристалла NVIDIA GP104-400 составляет 314 мм2, а общее количество транзисторов – 7,2 млрд. Для сравнения, аналогичные показатели у NVIDIA GM200-310 (NVIDIA GeForce GTX 980 Ti) достигают 601 мм2 и 8,0 млрд., а у NVIDIA GM204-400 (NVIDIA GeForce GTX 980) – 398 мм2 и 5,2 млрд.

NVIDIA GeForce GTX 1080

Блок-схема NVIDIA GP104-400

NVIDIA GeForce GTX 1080

Блок-схема NVIDIA GP100

Любопытно, что блок-схема NVIDIA GP104-400 существенно отличается от таковой у NVIDIA GP100, который используется в профессиональной видеокарте NVIDIA Tesla P100. В частности, графический процессор NVIDIA GP104-400 разделен на 4 блока (Graphics Processing Clusters), каждый из которых имеет в своем составе 5 SM-модулей. В свою очередь каждый SM включает в себя два блока по 64 CUDA-ядер в каждом. А вот у NVIDIA GP100 мы видели лишь 64 обычных CUDA-ядер в одном SM-модуле и еще 32 дополнительных CUDA-ядер для вычислений двойной точности. То есть уже на уровне графического процессора идет разделение на пользовательские модели и профессиональную графику.

Вместе с подробностями NVIDIA GeForce GTX 1080 в интернет просочилась презентация данной модели, в которой более подробно акцентируется внимание на ее преимуществах. Например, упоминается поддержка распиаренной технологии Async Compute. Сравнительная таблица технической спецификации видеокарты NVIDIA GeForce GTX 1080 с внутренними конкурентами выглядит следующим образом:

Читать новость полностью >>>

Обзор и тестирование видеокарты ASUS ROG Matrix Platinum GTX 980 Ti

При выборе топовой видеокарты для высокоуровневой игровой системы либо оверклокерских экспериментов вопрос цены зачастую отходит на второй план, поскольку пользователи готовы ради отличной производительности потратить существенную для большинства сумму денег и не хотят идти на какие-либо компромиссы.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Видеокарта ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING) является именно таким решением, которое соединило в себе практически все наработки компании ASUS в производстве видеокарт для получения максимального эффекта. На момент подготовки обзора данная модель является одной из самых дорогих в линейке компании, за исключением модификаций NVIDIA GeForce GTX TITAN X и еще двух версий NVIDIA GeForce GTX 980 Ti, которые мы упомянем немного позже в качестве альтернативы. Чем же обусловлена такая стоимость, и оправдывает ли ее конечный продукт. Давайте разбираться.

Спецификация видеокарты ASUS MATRIX-GTX980TI-P-6GD5-GAMING: 

Модель

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Графическое ядро

NVIDIA GM200-310 (Maxwell)

Количество CUDA-ядер

2816

Номинальная / динамическая частота графического ядра, МГц

«Gaming»

1190 / 1291

«OC»

1216 / 1317

Частота памяти (эффективная), МГц

1800 (7200)

Объем памяти, ГБ

6

Тип памяти

GDDR5

Ширина шины памяти, бит

384

Пропускная способность памяти, ГБ/с

345,6

Тип шины

PCI Express 3.0 x16

Интерфейсы вывода изображения

1 x DVI-I

1 x HDMI 2.0

3 x DisplayPort

Минимальная мощность блока питания, Вт

600

Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм

295,2 x 138,2 x 50,9 (308 х 150)

Драйверы

Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU

Сайт производителя

ASUS

Упаковка и комплектация

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Видеокарта поставляется в соответствующей своему флагманскому статусу крупной коробке, выполненной из плотного картона и украшенной лаконичной и стильной полиграфией с логотипом линейки ASUS ROG. В ее конструкции используется откидывающаяся крышка и ручка для более удобной переноски.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

На обратной стороне откидывающейся крышки, под которой находится небольшое смотровое окно, расположено описание основных достоинств ASUS ROG Matrix Platinum GTX 980 Ti:

  • ASUS AUTO-EXTREME c Super Alloy Power II – данная модель создана на полностью автоматизированной линии, что гарантирует стабильно высокое качество и обеспечивает отказ от агрессивных химических веществ в процессе производства. К тому же в ее основе используется качественная элементная база (Super Alloy Power II), позволяющая еще больше повысить надежность работы новинки.

Пример работы LED-подсветки на видеокарте ASUS ROG Matrix Platinum GTX 980 Ti

  • ROG Color Indicator – любители моддинга должны по достоинству оценить логотип серии ASUS ROG на боковой стороне видеокарты, который оснащен LED-подсветкой, изменяющей свой цвет в зависимости от нагрузки.
  • Memory Defroster – позволяет прогреть микросхемы видеопамяти для повышения стабильности работы в условиях очень низких температур, возникающих при использовании систем на базе жидкого азота.
  • Safe Mode – позволяет исправить последствия неудачного разгона путем возврата к изначальным настройкам BIOS видеокарты.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

На обратной стороне упоминается техническая спецификация, некоторые преимущества ASUS MATRIX-GTX980TI-P-6GD5-GAMING и список системных требований. Исходя из рекомендаций, блок питания в системе должен обладать мощностью не менее 600 Вт и выдавать минимум 42 А по линии +12В. Также тестируемая модель требует подключения двух 8-контактных кабелей PCIe.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

В комплекте с графическим адаптером мы обнаружили стандартную документацию, инвайт-код для получения подарков в игре World of Warships (крейсер «Диана» и 15 дней премиум-доступа), диск с ПО и пару переходников для питания.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для вывода изображения на тестируемой модели используется эталонный набор интерфейсов:

  • 1 х DVI-I;
  • 1 х HDMI 2.0;
  • 3 х DisplayPort.

Поддерживаются следующие разрешения:

  • цифровое − до 5120 x 3200;
  • аналоговое − до 2048 x 1536.

Внешний вид и элементная база

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Модель ASUS ROG Matrix Platinum GTX 980 Ti выполнена на оригинальной печатной плате черного цвета с эталонным принципом компоновки. Внешне плата очень похожа на используемую в ASUS STRIX-GTX980TI-DC3OC-6GD5-GAMING. Другая фирменная модификация NVIDIA GeForce GTX 980 Ti, ASUS POSEIDON-GTX980TI-P-6GD5, характеризуется заметно более компактными размерами.

Используемая элементная база соответствует фирменной концепции Super Alloy Power II и включает в себя исключительно высококачественные компоненты: твердотельные и тантал-полимерные конденсаторы, микросхемы IOR 3555M и дроссели с ферритовым сердечником. Это повышает стабильность и надежность работы графического адаптера в целом, а также продлевает срок его службы.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Столь крупные габариты печатной платы легко объясняются усиленной 12+2-фазной схемой, где 12 фаз отвечают за питание графического ядра, а 2 предназначены для подсистемы видеопамяти. Напомним, что питание эталонной NVIDIA GeForce GTX 980 Ti выполнено по 6+2-фазной схеме.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Подсистема питания ядра реализована на цифровом ШИМ-контроллере DIGI+ VRM ASP1212 производства компании International Rectifier, который обладает рядом защитных технологий: OVP (от перегрузки по напряжению), UVP (от пониженного напряжения), OCP (от перегрузки по току) и OTP (от повышенной температуры). Поскольку он обеспечивает поддержку максимум восьми фаз, то в данном случае используется принцип удвоения.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для питания тестируемого графического адаптера доступен слот PCI Express x16 и два 8-контактных разъема PCIe, расположенных на боковой стороне платы. В свою очередь эталонная версия обходится только одним усиленным 8-контактным и одним 6-контактным разъемом.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Отдельно отметим 4-контактный разъем дополнительного питания, который необходим для корректной работы упомянутой технологии Memory Defroster, а также кнопку активации режима «Safe Mode».

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

На верхней стороне печатной платы находится переключатель режима «LN2», который предусмотрен для экстремального разгона. Он снимает все ограничения на повышение параметров видеоадаптера, что позволяет на свой страх и риск достигать более высоких результатов.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для обеспечения работы технологии NVIDIA SLI используются два коннектора для подключения соответствующих мостиков, которые позволяют объединять до трех видеоускорителей для совместного расчета графических эффектов.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Обратная сторона ASUS MATRIX-GTX980TI-P-6GD5-GAMING, изначально прикрытая опорной пластиной, примечательна рядом электрических компонентов, включая упомянутые выше тантал-полимерные конденсаторы.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

В основе тестируемой модели лежит GPU NVIDIA GM200-310 (Maxwell), произведенный по 28-нм техпроцессу. Он включает в себя 2816 ядер CUDA, 96 блоков растеризации и 176 текстурных блоков. По умолчанию в ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING) активен режим «OC», в котором базовая частота графического процессора увеличена с номинальных 1000 до 1216 МГц, а динамическая – с 1076 до 1317 МГц. В утилите ASUS GPU Tweak II with XSplit Gamecaster также можно включить профиль «Gaming» со скоростями 1190 и 1291 МГц соответственно.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Память, общим объемом 6 ГБ, набрана с помощью 12 чипов SK hynix H5GQ4H24MFR-R2C емкостью 4 Гбит каждый. Согласно документации, их эффективная частота равна 7000 МГц, но в данном случае она была повышена до 7200 МГц. Обмен данными между графическим процессором и памятью осуществляется через 384-битную шину, которая способна пропускать 345,6 ГБ/с (эталонный показатель составляет 336,6 ГБ/с).

Система охлаждения

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Видеоускоритель с установленной фирменной системой охлаждения DirectCU II занимает два слота расширения и имеет общую длину 308 мм (согласно измерениям в нашей тестовой лаборатории).

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Охладитель состоит из достаточно крупного радиатора, в конструкции которого применяются 53 продольно расположенные алюминиевые пластины, двух вентиляторов с диаметром крыльчатки 94 мм и пластикового кожуха, который накрывает всю конструкцию сверху.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Непосредственно сами вертушки произведены компанией FirstDo и имеют маркировку «FD10015H12S». Судя по букве «S» в названии, они построены на подшипниках скольжения (Sleeve bearing). Номинальное напряжение их работы составляет 12 В, а сила тока – 0,55 А, что дает в итоге мощность в 6,6 Вт.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для равномерного распределения тепла по всей площади радиатора применяются пять медных тепловых трубок диаметром 6-8-8-10-6 мм. Стандартно для кулеров DirectCU II используется схема их непосредственного контакта с поверхностью графического процессора через небольшой слой термопасты.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для повышения эффективности теплообмена тепловые трубки надежно припаяны к ребрам алюминиевого радиатора и медному основанию. К тому же они не только покрыты слоем никеля для предотвращения окислительных процессов, но и окрашены в черный цвет для более эффектного внешнего вида.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

Для дополнительного охлаждения элементов подсистемы питания используется отдельный низкопрофильный радиатор с термоинтерфейсом на обратной стороне, а вот чипы памяти, к сожалению, лишены какого-либо дополнительного охлаждения.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

При автоматическом регулировании скорости вращения вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 65°С, а кулер, судя по показаниям мониторинга, работал на 49% от своей максимальной мощности. Издаваемый шум находился ниже среднего уровня, и он был едва различим на фоне других комплектующих системы.

Полученный результат является очень хорошим для моделей серии NVIDIA GeForce GTX 980 Ti. К примеру, гибридный кулер ASUS POSEIDON-GTX980TI-P-6GD5 в аналогичном режиме обеспечивает работу разогнанного до 1114 МГц графического процессора при температуре 80°С, а система охлаждения видеокарты ASUS STRIX-GTX980TI-DC3OC-6GD5-GAMING с тремя 88-мм вентиляторами удержала температуру разогнанного до 1216 МГц графического ядра на отметке 79°С.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

После принудительного увеличения скорости вращения вентиляторов до максимального уровня, температура GPU опустилась до 53°С. При этом заметно возрос и уровень шума, который превысил средний показатель и стал не очень комфортным для продолжительного использования.

Обозначенные выше внутренние конкуренты в аналогичном режиме смогли достичь лишь отметки 71°С. Напомним, что критическим для GPU NVIDIA GM200-310 считается показатель 92°С.

ASUS ROG Matrix Platinum GTX 980 Ti (MATRIX-GTX980TI-P-6GD5-GAMING)

При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, позволяя снизить их энергопотребление и тепловыделение. В таком режиме температура GPU не превышала 29°С, а видеокарта работала абсолютно бесшумно.

В итоге фирменная система охлаждения DirectCU II проявила себя с наилучшей стороны, обеспечив не только очень комфортные температурные показатели, но и продемонстрировав низкий уровень шума при повседневном использовании. 

Читать обзор полностью >>>

Печатная плата NVIDIA GeForce GTX 1080 Founders Edition использует 6-фазный VRM

В интернет просочились первые фото печатной платы видеокарты NVIDIA GeForce GTX 1080 Founders Edition. Напомним, что «Founders Edition» − это новое обозначение референсного дизайна, поэтому так будут выглядеть все аналогичные видеокарты от партнеров NVIDIA.

NVIDIA GeForce GTX 1080 Founders Edition NVIDIA GeForce GTX 1080 Founders Edition

Печатная плата (NVIDIA PG413) использует уже знакомую компоновку, центральным элементом которой выступает графический процессор. Только если в моделях NVIDIA GeForce GTX 980 и NVIDIA GeForce GTX 980 Ti GPU оснащается металлической рамкой, чтобы обезопасить кристалл от повреждения при демонтаже или установке системы охлаждения, то тут она отсутствует. Восемь GDDR5X-микросхем расположены вокруг графического процессора, а правее приютилась подсистема питания.

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA GeForce GTX 1080 Founders Edition

У NVIDIA GeForce GTX 1080 Founders Edition используется 5+1-фазный блок VRM: пять фаз для GPU и одна для памяти. Напомним, что NVIDIA GeForce GTX 980 использует 4+1-фазную подсистему питания, а NVIDIA GeForce GTX 980 Ti – 6+2-фазную. Для подключения дополнительного питания эталонному дизайну достаточно одного 8-контактного разъема, но рядом есть место для еще одного, в случае, если партнерам он понадобится.

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA GeForce GTX 980 

NVIDIA GeForce GTX 1080 Founders Edition

NVIDIA GeForce GTX 980 Ti

http://videocardz.com
Сергей Будиловский

Читать новость полностью >>>

NVIDIA GeForce GTX 1080 прошла испытания в 3DMark

В ближайшее время должно состояться важное мероприятие компании NVIDIA, на котором могут быть представлены первые 16-нм графические процессоры с микроархитектурой NVIDIA Pascal. А пока в интернет просочились тесты видеокарты NVIDIA GeForce GTX 1080 в бенчмарке 3DMark.

NVIDIA GeForce GTX 1080

Испытания проводились на двух разных системах. В первом случае связка NVIDIA GeForce GTX 1080 и Intel Core i7-5820K смогла набрать 19 005 баллов в бенчмарке 3DMark 11 Performance. Во втором случае система из NVIDIA GeForce GTX 1080 и Intel Core i7-3770K показала 8959 баллов в тесте 3DMark FireStrike Extreme. Оба результата превышают показатели NVIDIA GeForce GTX 980 Ti, что дает уверенность в хорошем приросте производительности новинки для своей ценовой категории.

NVIDIA GeForce GTX 1080

http://www.techpowerup.com
Сергей Будиловский

Читать новость полностью >>>

Первые тестовые результаты видеокарты AMD Radeon Pro Duo

В преддверии полноценного релиза видеокарты AMD Radeon Pro Duo, бумажный анонс которой состоялся в середине марта, веб-сайт Expreview одним из первых поделился результатами тестирования данной новинки. Напомним, что в ее основе находится пара графических процессоров AMD Fiji XT, каждый из которых оснащен собственными 4 ГБ HBM-памяти.

AMD Radeon Pro Duo AMD Radeon Pro Duo

В сравнении с AMD Radeon R9 Fury X двухчиповый флагман в среднем демонстрирует на 60,7% более высокий уровень производительности в разрешении 4K Ultra HD и на 50,4% превосходит в Full HD-разрешении. Если же сравнивать с NVIDIA GeForce GTX 980 Ti, то преимущество AMD Radeon Pro Duo сокращается до 59,4% и 32,45% соответственно.

AMD Radeon Pro Duo AMD Radeon Pro Duo

Сами по себе цифры весьма хороши. Еще лучше выглядят температурные показатели продуктов компании AMD, ведь они используют систему жидкостного охлаждения. Однако заявленная стоимость AMD Radeon R9 Fury X и NVIDIA GeForce GTX 980 Ti на момент анонса составляла $649, а вот AMD Radeon Pro Duo будет предлагаться по цене $1499. Интересно, много ли желающих будет приобрести эту новинку?

AMD Radeon Pro Duo AMD Radeon Pro Duo

http://www.techpowerup.com
http://videocardz.com
Сергей Будиловский

Читать новость полностью >>>

geforce gtx 980 ti

Выбрать из: Обзоров Новостей
Только в разделе
Искать в найденом тег:
Поиск по сайту
Почтовая рассылка
top10

vote

Голосование



Seagate-BarraCuda-Pro.gif