Геймплейное тестирование видеокарты GeForce GTX 980 и сравнение с GTX 1660: и кто тут «пенсионер»?!
Производители стараются каждый год радовать нас новыми видеокартами и по возможности отправляют на пенсию предыдущие. Сравнительно молодых и годных «пенсионеров» на барахолках – вагон и маленькая тележка. Запросто можно найти топовые или предтоповые карты прошлых поколений по интересным ценам. Но возникает вопрос: «На что они способны в современных реалиях?» Вот мы и решили пройтись по хитовым видеокартам прошлого в мини-цикле геймплейных тестов. Первая на очереди – GeForce GTX 980!
Она появилась в 2014 году. В основе находится 28-нм GPU GM204-400 второго поколения линейки NVIDIA Maxwell. Он состоит из 2048 CUDA-ядер, 128 текстурных и 64 растровых блоков. Эталонная базовая частота составляет 1127 МГц, а динамическая – 1216. В паре с ним работают 4 ГБ GDDR5-памяти с эффективной скоростью 7 ГГц и 256-битной шиной. Видеокарта позиционировалась в качестве замены для владельцев GTX 680, а ее рекомендованный ценник составлял $549.
Проверять возможности GTX 980 в современных реалиях будем на примере модели серии ASUS ROG Matrix Platinum. Она может похвастать 10%-ым разгоном GPU, усиленной 14-фазной подсистемой питания и стильным кулером DirectCU II с пятью медными тепловыми трубками, алюминиевым радиатором и двумя вентиляторами.
Переходим к тестовому стенду. Согласитесь, что для карт такого уровня не обязателен самый новый и топовый процессор, а 8-поточного Core i7-7740X с номинальными частотами волне достаточно.
За его охлаждение отвечает кулер be quiet! DARK ROCK PRO 4. Он имеет в своем составе двухсекционный радиатор, семь тепловых трубок и два вентилятора.
Материнская плата будет «простенькой» – ASUS TUF X299 MARK 1 формата ATX.
Подсистема оперативной памяти представлена четырьмя обычными планками DDR4-2400 от Apacer.
Большинство игр и операционная система установлены на пару SSD от Apacer. Для остального есть жесткий диск от Seagate.
За стабильное питание системы отвечал «золотой» блок Super Flower Leadex III Gold 650W. Он использует современную схемотехнику с DC-DC-преобразователями, японские конденсаторы и полностью модульную систему кабелей.
Надежным пристанищем для компонентов стал Middle Tower корпус be quiet! Silent Base 801. Он с легкостью поддерживает E-ATX-платы, громадные видеокарты длиной до 430 мм и процессорные кулеры высотой до 191 мм.
Кроме того, мы решили на практике познакомиться с периферией бренда Redragon. На полноценный обзор времени не хватает, а вот поделиться живыми впечатлениями – это запросто.
В процессе тестов нам помогла механическая клавиатура Redragon Indrah с удобной подставкой для запястий рук. Она распознает одновременное нажатие 104-х кнопок. Зачем? Не помешает!
Мышка Redragon Cobra понравилась почти симметричным дизайном и точным позиционированием курсора. Максимальное разрешение оптического сенсора достигает 10 000 DPI.
Для быстрого перемещения мышки использовался коврик Redragon Archelon. Его влагоотталкивающее покрытие устойчиво к загрязнениям и легко очищается.
Чтобы не мешать коллегам, и они тоже не сильно отвлекали, использовали проводную гарнитуру Redragon Lagopasmutus закрытого типа с хорошей звукоизоляцей.
Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K.
С вводной частью закончили – переходим к тестам. В этот раз начнем с Assassin’s Creed Odyssey, как образцово показательной игры для GTX 980. При высоком пресете она бегается полностью комфортно, без фризов и лагов, хотя средняя скорость и недотягивает до желаемых 60 кадров/с.
В порыве энтузиазма мы решили подняться до очень высоких настроек, но игра решила наказать за проявленную инициативу. Статистика просела максимум на 34%, видеоряд утратил былую плавность и иногда проскакивали фризы. Причина кроется в 4-гигабайтном буфере, которого многим играм уже не хватает на очень высоких пресетах.
А вот World of Tanks даже на ультрах не требует более 3 ГБ видеопамяти. Поэтому GTX 980 справляется с ней на отлично. Играть было очень комфортно, вне зависимости от выбранного класса техники. Средняя скорость поднялась выше 120 кадров/с.
ARK Survival Evolved впервые за все время тестов не вызвала желания побыстрее ее закрыть и перейти к другим играм. При высоком пресете вообще без фризов и статоров не обошлось, но отторжения они не вызывали. Все было более-менее играбельно со средней скоростью под 60 FPS.
RUST – одна из самых прожорливых игр в плане потребления памяти. Долго играться с настройками не стали – просто выкрутили все на максимум и побежали. Фризы были, но они носили случайный, а не постоянный характер. Оперативной памяти потребовалось около 14 ГБ.
Для Ring of Elysium мы выбрали экспериментальный режим DirectX 12, и он нам очень понравился. При высоком качестве графики все было красиво, плавно и приятно, независимо от того, бегали ли мы по крышам, ездили по травке или перестреливались с противниками.
В Quake Champions выбрали ультра пресет, а затем снизили качество освещения и текстур, чтобы уменьшить нагрузку на видеобуфер, убрать микрофризы и Input lag. Играть в таком режиме – одно удовольствие: даже очень редкие события вплотную приблизились к уровню 60 кадров/с.
В PUBG при народном миксе ультра и низких настроек очень редкие события просаживаются до 35 кадров/с, но на удобство геймплея это не влияет. Ездить, бегать и стрелять можно с одинаковым комфортом. Средняя скорость и вовсе поднимается до 130 кадров/с.
В Fortnite можно смело ставить эпические настройки графики. Видеопамяти нужно менее 3 ГБ. Очень редкие события не опускаются ниже 50 кадров/с. То есть о каких-либо фризах или подлагиваниях речь вообще не идет. Огорчить могут лишь противники.
В меню Rainbow Six Siege пугает нас размером требуемого видеобуфера для ультра настроек – более 6 ГБ у GTX 980 точно нет. Но в геймплее это не вызвало никаких проблем. Оперативной памяти нужно всего 5 ГБ, и все скоростные показатели находятся выше 100 кадров/с. Поэтому можно смело выходить в онлайн.
A Plague Tale Innocence даже на ультрах требует чуть более 2 ГБ видеопамяти, поэтому никаких проблем для видеокарты она не создает. Фреймрейт находится в комфортной зоне, к управлению вообще не придраться.
Для начала в Resident Evil 2 выбрали рекомендованный пресет графики, а затем некоторые параметры подняли до высокого уровня, чтобы слегка улучшить картинку. В таком режиме можно не опасаться появления фризов в просторных локациях или в случае подгрузки каких-либо объектов. Средний фреймрейт поднимается выше 90 кадров/с.
Anthem на ультрах неиграбельна из-за постоянных подергиваний и фризов. Пришлось опуститься к высокому профилю. Видеопамяти занято 3 ГБ, но игре этого явно мало, и она еще 10 ГБ взяла из ОЗУ. На комфортность геймплея это не влияет, несмотря на то что очень редкие события падают ниже 30 кадров/с.
Выбор игрового компьютера. Зима 2016. Часть 3. Высокий и топовый уровень
В предыдущих двух частях мы рассмотрели начальные, базовые и среднеценовые системы для запуска современных игр на разных настройках графики в разрешениях вплоть до Quad HD. В заключительной части поговорим о конфигурациях для заядлых геймеров, которые хотят получить максимум производительности в сверхвысоких разрешениях. Итак, приступим.
Игровая система высокого уровня
Данная сборка нацелена в первую очередь на разрешение 2560 х 1440 (Quad HD), где можно будет поиграть в большинство актуальных игр на максимальных настройках графики. Для этого понадобится более мощная связка процессор + видеокарта. Перейдем сразу к рассмотрению систем.
|
Socket LGA1150 |
Socket LGA1151 |
Socket AM3+ |
|
Материнская плата |
На основе Intel B85 / H87 / H97 / Z97 ($82-110) |
На основе Intel B150 / H170 / Z170 ($87-136) |
На основе AMD 970 / 990FX + SB950 ($79-126) |
|
Процессор |
Intel Core i5-4690 ($243) |
Intel Core i5-6400 в разгоне / Core i5-6600 в номинале ($205-250) |
AMD FX-8300 / 8320E в сильном разгоне ($127) |
|
Графическая подсистема |
Дискретная видеокарта NVIDIA GeForce GTX 1070 c 8 ГБ GDDR5 ($500) |
|||
Оперативная память |
2 x 8 ГБ DDR3 с частотой 1866 МГц ($94-98) |
2 x 8 ГБ DDR4 с частотой 2133 МГц ($94-98) |
2 x 8 ГБ DDR3 с частотой 1866 МГц ($94-98) |
|
Накопитель |
SSD объемом 240 / 256 ГБ ($60 − 78) HDD объемом 2 ТБ ($70-80) |
|||
Система охлаждения |
Кулер башенного типа средней производительности ($21 − 30) |
Кулер башенного типа высокой производительности ($30 − 49) |
||
Блок питания |
Качественная модель мощностью 500 − 650 Вт с модульной системой кабелей ($63 − 110) |
|||
Корпус |
Модель формата Middle Tower ($50− 90) |
|||
Общая стоимость |
$ 1183 − 1339 |
$1150 − 1372 |
$1073 − 1258 |
|
Средняя стоимость |
$1261 |
$1261 |
$1166 |
Время платформ Socket AM3+ и Socket LGA1150 подходит к концу, поэтому лучше собирать новый высокопроизводительный компьютер именно на Socket LGA1151. При этом мы получим не только задел на будущее, но и более высокий FPS в играх. Если планируются разгонные эксперименты, то берем Intel Core i5-6400 и материнскую плату на основе чипсета Intel Z170 или модель серии ASRock Hyper-OC. В противном случае можно обойтись Intel Core i5-6600 и платой попроще, но с качественной аудиподсистемой, продвинутым сетевым контроллером и обилием современных портов ввода-вывода.
Предвидя вопросы по «китайскому» Intel Core i7-6400T, который с недавних пор появился на зарубежных интернет-площадках и активно обсуждается онлайн-сообществом, отвечаем: это инженерные образцы первых Intel Core i7 на микроархитектуре Intel Skylake. На выходе мы получаем 4 ядра и 8 потоков, но с низкой базовой частотой 2200 МГц. Если вам попадется удачный экземпляр, то вполне можно будет получить в разгоне чип уровня Intel Core i7-6700 за каких-то $150 или даже ниже (в номинале он не интересен). Но никто вам этого не гарантирует, равно как и долгой и стабильной работы. Так что все на ваш страх и риск. Если вы все же отважились на его покупку, то рекомендуем брать «камни» с маркировкой по типу QHQJ L501, которые выпущены на первой неделе 2015 года, то есть самые новые. Это дает куда большую уверенность в их стабильности и хорошем разгонном потенциале.
Выбор видеокарты сводится к покупке одной из множества модификаций NVIDIA GeForce GTX 1070, которая демонстрирует необходимую скорость для вывода QHD-картинки в современных требовательных играх при максимальных или близким к ним настройках графики. Во многих актуальных проектах ее хватит и для комфортного 4K-гейминга, но в будущем уровень качества картинки возрастет и придется уже понижать настройки графики для получения приемлемой скорости. Примером уже сейчас может служить новенький Watch Dogs 2, который ставит на колени в 4K даже топовую NVIDIA GeForce GTX 1080. Если говорить про предшественников, то новинка опережает NVIDIA GeForce GTX 980 более чем на 20% и демонстрирует очень близкую производительность с NVIDIA GeForce GTX 980 Ti при более низкой цене. Фактически конкурентов со стороны AMD у NVIDIA GeForce GTX 1070 нет, ведь на текущий момент самой новой видеокартой на рынке из «красного» лагеря является AMD Radeon RX 480, а она выступает в более доступном ценовом сегменте и предсказуемо уступает ей в среднем на 35%. И даже куда более дорогой прошлогодний флагман AMD Radeon R9 FURY X отстает от творения NVIDIA в среднем на 20%. Так что выбор очевиден.
Теперь попробуем получить похожую производительность, но с б/у комплектующими. Давайте посмотрим, что может предложить нам вторичный рынок.
|
Socket AM3+ |
Socket LGA1366 |
Socket LGA1156 |
Socket LGA1155 |
|||
Материнская плата |
На основе AMD 7xx /8xxE / 9xx / G / FX / GX + SB7xxx / 8xx / 9xx ($27-96) |
На основе Intel X58 + ICH10 ($153-222) |
На основе Intel H55 / H57 / Q57 / P55 ($32-117) |
На основе Intel P67 / Z68 / Z75 / Z77 ($38-114) |
|||
Процессор |
AMD FX-8100 / 8120 / 8150 ($70-100) |
Intel Core i7-9xx / Intel Xeon E / L / W / X / 3xxx / 5xxx ($9-100) |
Intel Core i7-860 / 870 / 875K / Intel Xeon X34xx ($41-74) |
Intel Core i5-2500K / 2550K / 3570K ($99-153) |
|||
(в сильном разгоне) |
|||||||
Графическая подсистема |
Дискретная видеокарта NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5 ($420) |
||||||
Оперативная память |
2 x 8 ГБ DDR3 с частотой 1600 МГц ($47-58) |
3 x 4 ГБ DDR3 с частотой 1333 МГц ($40-48) |
4 x 4 ГБ DDR3 с частотой 1333 МГц ($53-64) |
2 x 8 ГБ DDR3 с частотой 1600 МГц ($47-58) |
|||
Накопитель |
SSD объемом 240 / 256 ГБ (новый) ($60 − 78) HDD объемом 2 ТБ ($39-63) |
||||||
Система охлаждения |
Кулер башенного типа высокой производительности ($20 − 40) |
||||||
Блок питания |
Качественная модель мощностью 550 − 650 Вт ($23 − 51) |
||||||
Корпус |
Модель формата Middle Tower ($20 − 58) |
||||||
Общая стоимость |
$726 − 964 |
$784 − 1080 |
$708 − 965 |
$766 − 1035 |
|||
Средняя стоимость |
$845 |
$932 |
$837 |
$900 |
Для начала поговорим о платформе Socket LGA1366. В отличие от прошлой категории, уже не обойтись недорогой китайской материнской платой и номинально работающим 6-ядерным Intel Xeon X5660. Понадобится дорогая брендовая модель, способная к разгону, посему и выходит самая дорогая сборка. Но в результате мы получим 6 ядер / 12 потоков, которые хорошо себя проявляют не только в играх, но и при выполнении ресурсоемких задачах (работа с 3D-пакетами или кодирование видео). А это может быть очень даже весомым преимуществом.
Пожалуй, самые слабые сборки для игр будут на Socket AM3+ и Socket LGA1156, поэтому лучше их избегать. В таком случае вполне оправдана доплата за систему на Socket LGA1155 – высокая производительность на ядро, умеренное тепловыделение и отменный разгонный потенциал.
Переходим к видеоподсистеме. Видеоускорители, сопоставимые с NVIDIA GeForce GTX 1070, представлены на вторичном рынке только NVIDIA GeForce GTX 980 Ti c 6 ГБ GDDR5. Но просят за нее ненамного дешевле новой GTX 1070, поэтому такая покупка выглядит довольно сомнительной. Двухчиповые модели и титаны стоят еще дороже. Конечно, можно соорудить связку NVIDIA SLI или AMD CrossFireX из нескольких видеокарт, но как показывает практика, далеко не все современные игры реагируют позитивным образом на такой тандем. В любом случае всегда есть варианты и решать только вам.
Игровой десктоп ASUS ROG GT51CA теперь с видеокартами серии NVIDIA GeForce GTX 10
В апреле текущего года был представлен стильный и мощный игровой десктопный компьютер ASUS ROG GT51CA. Теперь конфигурация этой модели может включать в себя высокопроизводительные видеокарты NVIDIA GeForce GTX 1070 и NVIDIA GeForce GTX 1080, а также связки двух подобных адаптеров в режиме NVIDIA SLI. В паре с процессором Intel Core i7-6700K они смогут эффективно воспроизводить виртуальный мир любого игрового проекта. Более того, одним нажатием на специальную кнопку частота процессора увеличивается до 4,6 ГГц, без необходимости в перезагрузке.
Остальная конфигурация ASUS ROG GT51CA не претерпела особых изменений. На выбор предлагается от 16 до 64 ГБ оперативной памяти, широкое разнообразие дисковой подсистемы (включая два M.2 PCIe-накопителя в режиме RAID 0), 7.1-канальная аудиоподсистема, а также набор необходимых сетевых модулей и внешних интерфейсов.
Сводная таблица технической спецификации десктопного компьютера ASUS ROG GT51CA:
Модель |
ASUS ROG GT51CA |
ОС |
Windows 10 Home |
Процессор |
Intel Core i7-6700K (4 х 4,0 – 4,2 ГГц; OC – 4,6 ГГц) |
Чипсет |
Intel Z170 |
Оперативная память |
16 – 64 ГБ DDR4-2133 МГц (разгон до 2400 / 2800 МГц) |
Дисковая подсистема |
До 3 ТБ HDD (7200 об/мин) |
Слоты расширения |
3 x PCI Express x16 |
Видеокарта |
NVIDIA GeForce GTX 1080 (8 ГБ DDR5X) (SLI) |
Оптический привод |
DVD Super Multi / Blu-ray Combo |
Аудиоподсистема |
7.1-канальная с поддержкой компонентов ESS Hi-Fi |
Сетевые модели |
Gigabit Ethernet, 802.11ac Wi-Fi, Bluetooth 4.1 |
Внешние интерфейсы передней панели |
1 x USB 3.1 Type-A |
Внешние интерфейсы задней панели |
6 x USB 3.0 |
Размеры |
70 х 68 х 38 см |
Масса |
23 кг |
http://rog.asus.com
Сергей Будиловский
Обзор и тестирование видеокарты ASUS ROG STRIX GeForce GTX 1060 OC на GeForce GTX 1060
В начале мая текущего года, перед официальным анонсом микроархитектуры NVIDIA Pascal, стало известно о подготовке компанией NVIDIA первых трех видеокарт. Две из них, NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, ожидались в конце мая или в начале июня, а вот третья модель еще некоторое время оставалась загадкой. Появились даже неофициальные теории, что это будет NVIDIA GeForce GTX 1060 Ti, а дебют ее намечен на август.
Однако успешный релиз 14-нм микроархитектуры AMD Polaris в виде графического адаптера AMD Radeon RX 480 стал катализатором развития дальнейших событий. Уже 7-ого июля состоялся бумажный релиз NVIDIA GeForce GTX 1060, а с 19-ого июля новинка поступила в продажу. Таким образом, именно противостояние AMD Radeon RX 480 и NVIDIA GeForce GTX 1060 позволяет сравнить возможности новых наработок компаний AMD и NVIDIA в рамках одного ценового диапазона.
Небольшой теоретический экскурс
Мы уже успели познакомиться с двумя вариантами графического процессора NVIDIA GP104, которые находятся в основе NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, а также с ключевыми особенностями самой микроархитектуры NVIDIA Pascal. Теперь же пришел черед взглянуть на чип NVIDIA GP106. Именно на его базе построена NVIDIA GeForce GTX 1060, а в будущем он наверняка появится и в других среднеценовых моделях (например, NVIDIA GeForce GTX 1050).
Структурная схема графического процессора NVIDIA GP104
Структурная схема графического процессора NVIDIA GP106
Указанные блок-схемы наглядно иллюстрируют то факт, что NVIDIA GP106 имеет в своем распоряжении лишь два вычислительных кластера (GPC), тогда как в состав NVIDIA GP104 входит четыре. Соответственно, уменьшилось количество CUDA-ядер и текстурных блоков. Также с восьми до шести сократилось количество 32-битных контроллеров видеопамяти, что повлекло за собой снижение разрядности шины с 256 до 192 бит, а также уменьшение количества растровых блоков.
Структурная схема графического процессора NVIDIA GM206
Если же смотреть с позиции преемственности, то NVIDIA GP106 выступает наследником NVIDIA GM206, на котором, в частности, построена NVIDIA GeForce GTX 960. Переход с 28-нм технологии на 16-нм позволил увеличить количество структурных блоков. Например, в GPC используется не четыре, а пять SM-модулей. Учитывая, что каждый из них имеет в своем расположении 128 CUDA-ядер, то общее их количество возросло с 1024 до 1280. Также в NVIDIA GM206 использовалось лишь два 64-битных контроллера памяти, позволяющих реализовать 128-битную шину с пропускной способностью 112 ГБ/с. В свою очередь 192-битный интерфейс NVIDIA GP106 повысил этот показатель до 192 ГБ/с. Для наглядности сведем всю информацию в общую таблицу:
Модель |
NVIDIA GeForce GTX 960 |
NVIDIA GeForce GTX 1060 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 1080 |
Графический процессор |
NVIDIA GM206-300 |
NVIDIA GP106-400 |
NVIDIA GP104-200 |
NVIDIA GP104-400 |
Техпроцесс, нм |
28 |
16 |
16 |
16 |
Площадь кристалла, мм2 |
227 |
220 |
314 |
314 |
Количество транзисторов, млрд. |
2,94 |
4,4 |
7,2 |
7,2 |
Количество SM-блоков |
8 |
10 |
15 |
20 |
Количество CUDA-ядер |
1024 |
1280 |
1920 |
2560 |
Количество текстурных блоков |
64 |
80 |
120 |
160 |
Количество растровых блоков |
32 |
48 |
64 |
64 |
Объем кэш-памяти L2, КБ |
1024 |
1536 |
2048 |
2048 |
Базовая / динамическая тактовая частота, МГц |
1126 / 1178 |
1506 / 1708 |
1506 / 1683 |
1607 / 1733 |
Скорость выборки текстур, гигатекселей/с |
72 |
120,5 |
180,7 |
257,1 |
Тип видеопамяти |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
Эффективная частота памяти, МГц |
7000 |
8000 |
8000 |
10000 |
Разрядность шины, бит |
128 |
192 |
256 |
256 |
Пропускная способность памяти, ГБ/с |
112 |
192 |
256 |
320 |
Вычислительная мощность, TFLOPS |
2,308 |
3,855 |
5,783 |
8,228 |
TDP, Вт |
120 |
120 |
150 |
180 |
Как видим, NVIDIA GP106 практически по каждому пункту оказался лучше своего предшественника. Особенно радует возросший уровень производительности на фоне одинакового показателя TDP.
Проверить, так ли хороша NVIDIA GeForce GTX 1060 на самом деле нам поможет видеокарта ASUS ROG STRIX GeForce GTX 1060 OC (ROG STRIX-GTX1060-O6G-GAMING). Она является наиболее функциональным представителем этой серии в модельном ряде компании ASUS, которая заботливо оснастила ее кулером DirectCU III, системой подсветки AURA RGB Lighting и рядом других полезных улучшений. Но для начала традиционная таблица технических характеристик.
Спецификация
Модель |
ASUS ROG STRIX GeForce GTX 1060 OC (ROG STRIX-GTX1060-O6G-GAMING) |
GPU |
NVIDIA GP106-400 |
Микроархитектура |
NVIDIA Pascal |
Техпроцесс, нм |
16 (FinFET) |
Количество CUDA-ядер |
1280 |
Тактовая частота GPU, МГц |
1620 / 1847 («Gaming») |
Тип видеопамяти |
GDDR5 |
Объем, ГБ |
6 |
Номинальная / эффективная частота памяти, МГц |
2052 / 8208 |
Ширина шины памяти, бит |
192 |
Пропускная способность памяти, ГБ/с |
197 |
Внешние интерфейсы |
1 x DVI-D |
Дополнительный разъем питания PCIe |
1 x 8-контактный |
Минимальная рекомендованная мощность блока питания, Вт |
500 |
Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм |
298 х 134 х 40 (312 х 131) |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплект поставки
В руки счастливого обладателя ASUS ROG STRIX-GTX1060-O6G-GAMING попадет в красочной картонной упаковке, которая надежно защищает графический адаптер при транспортировке. Потенциального же покупателя она познакомит с ключевыми преимуществами новинки.
На одной из боковых сторон указаны рекомендованные системные требования. Минимальная мощность блока питания должна составлять 500 Вт, а нагрузочная способность линии +12В – 42 А. Сразу же уточним, что производители традиционно обозначают эти параметры с запасом, поскольку они не знают конкретную конфигурацию компьютера каждого покупателя.
Комплект поставки ASUS ROG STRIX GeForce GTX 1060 включает в себя бумажную документацию, диск с драйверами и утилитами и несколько стяжек для кабелей. Отдельно выделим купон, который проясняет алгоритм действий для получения подарков в игре World of Warships: инвайт-кода на крейсер «Диана» и 15 дней премиумного доступа.
Внешний вид
Видеоускоритель ASUS ROG STRIX GeForce GTX 1060 (ROG STRIX-GTX1060-O6G-GAMING) создан на основе модифицированной печатной платы. Его подсистема питания использует усиленный 6+1-фазный дизайн вместо эталонного 3+1-фазного, а элементная база соответствует фирменной концепции Super Alloy Power II.
Сама же видеокарта создана на уникальной, полностью автоматической линии ASUS AUTO-Extreme Technology. Все это гарантирует надежность и стабильность ее функционирования даже в условиях повышенных нагрузок.
Также этому сопутствует наличие одного 8-контактного разъема PCIe вместо 6-контактного, предусмотренного эталонным вариантом. Такая замена гарантирует, что графический процессор и остальные компоненты будут получать необходимое питания даже при работе на высоких частотах. Подключению и отключению дополнительного кабеля питания ничто не препятствует.
На тыльной боковой стороне приютились два 4-контактных разъема для подключения корпусных вентиляторов. Эта особенность дизайна получила название «ASUS FanConnect». Вся ее инновационная суть заключается в том, что режимом работы подключенных вентиляторов управляет графический процессор посредством двух контроллеров Nuvoton 3949S. Таким образом, скорость их вращения зависит исключительно от температуры GPU, а не CPU, как это часто бывает при традиционном подключении к материнской плате.
С противоположной боковой стороны расположился набор видеоинтерфейсов. В его состав вошли:
- 1 x DVI-D;
- 2 x HDMI 2.0;
- 2 x DisplayPort.
Напомним, что эталонный дизайн предполагает наличие лишь одного порта HDMI, но сразу трех DisplayPort. Замена же призвана облегчить подключение VR-устройств, которые как раз требуют два порта HDMI для корректной работы. Таким образом не придется покупать дополнительный переходник.
Из привычных компонентов на печатной плате отсутствует лишь разъем для подключения мостика NVIDIA SLI, потому что данная технология официально не поддерживается. Возможно, NVIDIA не хотела создавать таким образом конкуренцию для своих более дорогих видеокарт, ведь две NVIDIA GeForce GTX 1060 наверняка смотрелись бы в оптимизированных проектах лучше, чем одна NVIDIA GeForce GTX 1080.
Утилита GPU-Z подтверждает все знакомые нам показатели работы ASUS ROG STRIX-GTX1060-O6G-GAMING. Графический процессор NVIDIA GP106-400 функционирует по умолчанию в профиле «Gaming», для которого базовая частота составляет 1620 МГц, а динамическая может достигать 1848 МГц. С помощью фирменной утилиты GPU Tweak II можно активировать предустановленный режим «OC» с частотами 1645 и 1873 МГц соответственно.
В свою очередь видеопамять набрана с помощью GDDR5-микросхем компании Samsung. Поскольку эффективная частота их работы слегка превышает эталонный показатель (8208 против 8000 МГц), то и пропускная способность оказалась выше (197 против 192 ГБ/с).
Для всех желающих персонализировать внешний вид графического адаптера ASUS ROG STRIX GeForce GTX 1060 предусмотрена система иллюминации ASUS AURA. Она позволяет выбрать один из миллионов доступных цветов и один из шести режимов работы. Причем подсветка может выполнять роль визуального мониторинга температуры GPU в режиме реального времени.
Система охлаждения
Заботу за надежное охлаждение внутренних компонентов взял на себя кулер DirectCU III. В его конструкции используются пять никелированных медных тепловых трубок (четыре диаметром 8 мм и одна 6-мм), которые напрямую контактируют с поверхностью графического процессора, массивный двухсекционный алюминиевый радиатор, дополнительный низкопрофильный радиатор для охлаждения микросхем памяти, алюминиевая пластина жесткости на обороте и три 88-мм осевых вентилятора с дизайном крыльчатки Wing-Blade. Посредством термоинтерфейса основной радиатор отводит тепло и от элементов подсистемы питания. Таким образом реализована максимально комфортная работа всех узлов.
Расплатой за это являются увеличенные общие габариты видеокарты: если для эталонной версии они составляют 250 х 111 мм, то у ASUS ROG STRIX GeForce GTX 1060 достигают 312 х 131 мм (согласно нашим измерениям). Поэтому перед покупкой обязательно убедитесь, что она поместится в ваш корпус.
А теперь давайте оценим эффективность работы системы охлаждения DirectCU III. При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 71°С, а сами пропеллеры, судя по показаниям мониторинга, работали на 57% от своей максимальной мощности. В таком режиме создаваемый шум находился ниже среднего уровня, оставаясь очень комфортным для длительной работы возле ПК.
Принудительная установка скорости вращения лопастей на максимум позволила снизить температуру GPU до 65°С, что гарантирует отличный запас для разгонных экспериментов, ведь критическая температура для NVIDIA GP106 составляет 94°С. Обратной стороной медали является некомфортный шум, который превышает средний уровень.
При отсутствии нагрузки частоты графического ядра и памяти автоматически снижаются, позволяя уменьшить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU не превышает 44°С, поскольку вентиляторы вообще перестают вращаться, а кулер переходит в пассивный режим. Как только температура GPU повышается до 55-57°С, опять начинают работать пропеллеры.
Выбор видеокарты. Лето 2016
Уже не за горами так называемый сезон «Back-to-School» – конец лета и начало осени, когда многие пользователи задумываются о приобретении новых компьютеров или апгрейде старых, чтобы быть во всеоружии перед выходом очередных игровых блокбастеров. Хотя официальная версия для родителей (под которую и выделяется финансирование из семейного бюджета) – подготовка детей к новому учебному году. В связи с этим мы решили вернуться к теме выбора видеокарты – одного из важнейших компонентов современной игровой системы. К тому же с момента выпуска статьи «Выбор видеокарты. Зима 2016» прошло больше чем полгода. За этот период AMD и NVIDIA успели представить новые графические процессоры и видеокарты на их основе, что в свою очередь повлияло не только на расстановку сил, но и вызвало волну снижения цен на старые модели, а некоторые и вовсе почти полностью исчезли из розницы. Для всех тех, у кого нет времени или желания перечитывать «тонны» обзоров и проводить сравнения, мы постарались отобрать самые интересные видеокарты с позиции цена / производительность.
Как и раньше, при выборе оптимальной видеокарты мы не заостряли внимание на брендах, а ориентировались на минимальную стоимость адаптеров, которые можно найти в крупных отечественных интернет-магазинах на момент написания материала. Для сравнения производительности использовали собственную обширную базу.
Отдельно стоит отметить, что видеокарты уровня AMD Radeon R5 230 / NVIDIA GeForce GT 720 и менее производительные мы не включали в этот обзор. В основном они используются для поддержания интерфейса ОС и выполнения повседневных задач в случае отсутствия интегрированного видео, поэтому решающим фактором при их выборе является лишь цена на момент покупки.
Выбор видеокарты ценой до $80
В ультрабюджетном сегменты продолжают доминировать старые модели: AMD Radeon R7 240 (GDDR3), AMD Radeon R7 240 (GDDR5), NVIDIA GeForce GT 730 (GDDR3) и NVIDIA GeForce GT 730 (GDDR5). Они позволяют запускать нетребовательные игры на низких и средних настройках графики при разрешении 1366 х 768. Конечно, отдельные проекты можно будет запустить и при разрешении 1920 х 1080, но во многих актуальных ААА-играх вряд ли получится добиться приемлемого уровня FPS даже при разрешении 720р или ниже.
Модель |
Цена на момент анонса, $ |
Минимальная фактическая стоимость NVIDIA, $ |
Минимальная фактическая стоимость AMD, $ |
Цена на момент анонса, $ |
Модель |
NVIDIA GeForce GT 730 (GDDR3) |
- |
51 |
56 |
69 |
AMD Radeon R7 240 (GDDR3) |
NVIDIA GeForce GT 730 (GDDR5) |
57 |
68 |
AMD Radeon R7 240 (GDDR5) |
При выборе мы рекомендуем ориентироваться именно на версии с GDDR5-памятью, пускай и меньшего объема. В таком случае бонус в производительности в некоторых играх и бенчмарках достигает 50%. Оптимальной же покупкой, на наш взгляд, является версия NVIDIA GeForce GT 730 (GDDR5).
Выбор видеокарты ценой до $100
Данный ценовой диапазон представляют ускорители AMD Radeon R7 250 (GDDR3), AMD Radeon R7 250 (GDDR5), NVIDIA GeForce GT 740 (GDDR3) и NVIDIA GeForce GT 740 (GDDR5). Их уровень производительности позволяет поиграть в большинство современных игр на средне-низких настройках графики в Full HD-разрешении, но в особо требовательных проектах придется опустить разрешение до 1680 x 1050 или даже ниже для получения более плавной картинки.
Модель |
Цена на момент анонса, $ |
Минимальная фактическая стоимость NVIDIA, $ |
Минимальная фактическая стоимость AMD, $ |
Цена на момент анонса, $ |
Модель |
NVIDIA GeForce GT 740 (GDDR3) |
89 |
91 |
88 |
89 |
AMD Radeon R7 250 (GDDR3) |
NVIDIA GeForce GT 740 (GDDR5) |
95 |
92 |
AMD Radeon R7 250 (GDDR5) |
По нашему мнению, самым сбалансированным приобретением можно считать AMD Radeon R7 250 (GDDR5). Причем рекомендуем искать версию с 2 ГБ GDDR5-видеопамяти и графическим процессором AMD Cape Verde Pro, которая по производительности смотрится немного лучше, чем NVIDIA GeForce GT 740 (GDDR5). Отдельно стоит отметить, что добавив буквально пару долларов, можно взять более производительную видеокарту NVIDIA GeForce GTX 750, пускай и с 1 ГБ видеопамяти. Но это позволит более уверенно себя чувствовать в разрешении 1920 х 1080.
Выбор видеокарты ценой до $150
Уже в первой половине августа на прилавках появятся бюджетные видеокарты серии AMD Radeon RX 460. В качестве ее конкурента должна выступить серия NVIDIA GeForce GTX 1050, которая пока еще официально не представлена. Они придут на смену AMD Radeon R7 360, NVIDIA GeForce GTX 750 и NVIDIA GeForce GTX 750 Ti.
Модель |
Цена на момент анонса, $ |
Минимальная фактическая стоимость NVIDIA, $ |
Минимальная фактическая стоимость AMD, $ |
Цена на момент анонса, $ |
Модель |
104 |
99 |
AMD Radeon R7 250X |
|||
|
|
|
112 |
109 |
AMD Radeon R7 360 |
|
|
|
- |
99 / 119 |
AMD Radeon RX 460 |
NVIDIA GeForce GTX 750 |
119 |
101 |
|||
NVIDIA GeForce GTX 750 Ti |
125 |
123 |
Мы настоятельно рекомендуем подождать выхода новинок, но пока рынок наполнится предложениями, а цены нормализуются после стартового ажиотажа, пройдет несколько месяцев. Если покупать нужно уже сегодня, то лучше смотреть в сторону NVIDIA GeForce GTX 750 Ti, которая вполне справляется с современными играми в Full HD на средне-высоких настройках графики, что наглядно демонстрируют ролики на нашем видеоканале в разделе «Геймплей игр».
Выбор видеокарты ценой до $200
Аналогичная ситуация сложилась и в данной категории. Противостояние тут ведут AMD Radeon R7 370 и NVIDIA GeForce GTX 950. На смену первой уже спешит AMD Radeon RX 470. Преемницей второй может стать NVIDIA GeForce GTX 1050 Ti, но пока о ней официально ничего не известно.
Модель |
Цена на момент анонса, $ |
Минимальная фактическая стоимость NVIDIA, $ |
Минимальная фактическая стоимость AMD, $ |
Цена на момент анонса, $ |
Модель |
|
|
|
171 |
149 |
AMD Radeon R7 370 |
|
|
|
- |
149 |
AMD Radeon RX 470 (2 ГБ) |
NVIDIA GeForce GTX 950 |
162 |
172 |
- |
179 |
AMD Radeon RX 470 (4 ГБ) |
Если с приобретением видеокарты можно подождать, то так и рекомендуем сделать. Новинки обещают быть производительней на порядок. В противном случае следует смотреть в сторону NVIDIA GeForce GTX 950, которая потребляет меньше электроэнергии и немного быстрее AMD Radeon R7 370. Также стоит отметь хороший разгонный потенциал NVIDIA GeForce GTX 950, который позволяет ей почти полностью нивелировать отставание от эталонного варианта NVIDIA GeForce GTX 960. Карта вполне справляется с популярными современными играми в разрешении 1920 х 1080 на максимальных настройках графики. И лишь в особо требовательных или плохо оптимизированных проектах придется отключить некоторые эффекты для получения комфортного уровня FPS.
Обзор и тестирование видеокарты ASUS GeForce GTX 1080 TURBO
С момента анонса видеокарт на базе микроархитектуры NVIDIA Pascal прошло уже достаточно времени, чтобы партнеры порадовали пользователей разнообразием самых различных модификаций. Не стала исключением и компания ASUS, которая вместе с флагманской версией NVIDIA GeForce GTX 1080 (ASUS ROG STRIX GeForce GTX 1080), обладающей фирменной системой охлаждения, заводским разгоном и рядом других особенностей, включила в свой модельный ряд более доступный вариант.
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) позиционируется как самая доступная модификация NVIDIA GeForce GTX 1080 в фирменной линейке, которая получила похожую с версией Founders Edition систему охлаждения турбинного типа. При этом она лишилась опорной пластины, а сам кожух был заменен на более простой, выполненный из черного пластика. Давайте же взглянем, какие преимущества вы получите от покупки данной модели.
Спецификация
Модель |
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) |
Графическое ядро |
NVIDIA GP104-400-A1 |
Количество CUDA-ядер |
2560 |
Номинальная / динамическая частота графического ядра, МГц |
1607 / 1733 |
Эффективная частота памяти, МГц |
10010 |
Объем памяти, ГБ |
8 |
Тип памяти |
GDDR5X |
Ширина шины памяти, бит |
256 |
Пропускная способность памяти, ГБ/с |
320,3 |
Тип шины |
PCI Express 3.0 x16 |
Интерфейсы вывода изображения |
1 x DVI-D |
Минимальная мощность блока питания, Вт |
500 |
Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм |
266,7 x 111,2 x 38,1 (280 х 112) |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в достаточно крупной коробке, выполненной из плотного картона с качественной полиграфией. На лицевой стороне выделено наличие подарка для любителей игры World of Warships, который включает в себя инвайт-код (только для новых игроков) для активации бронепалубного крейсера «Диана» и 15 дней премиумного доступа.
В свою очередь обратная сторона сообщает нам о наличии подсвечивающегося логотипа компании на боковой стороне видеокарты, что будет приятным бонусом для обладателей корпусов с прозрачной боковой панелью.
Список системных требований к компьютеру, в который планируется установка видеоускорителя, расположен на одной из боковых сторон коробки. Исходя из рекомендаций, блок питания в такой системе должен обладать мощностью не менее 500 Вт, выдавать минимум 42 А по линии +12В и поддерживать один 8-контактный кабель питания PCIe.
В комплекте с ASUS TURBO-GTX1080-8G поставляется только краткое руководство пользователя и диск с драйверами и утилитами.
Для вывода изображения на тестируемом адаптере используется модифицированный набор интерфейсов:
- 1 х DVI-D;
- 2 х HDMI;
- 2 х DisplayPort.
Напомним, что эталонная версия использует лишь один порт HDMI, но три DisplayPort. В данном же случае компания ASUS решила пойти на встречу обладателям VR-устройств, предоставив им два порта HDMI.
Внешний вид
Как мы уже упоминали, одним из немногих отличий ASUS TURBO-GTX1080-8G от эталонной NVIDIA GeForce GTX 1080 Founders Edition является кожух системы охлаждения, выполненный из черного пластика. Немного освежают дизайн видеокарты серебристые вставки в виде тонких полос.
К неоспоримым достоинствам данной модели можно отнести высокое качество исполнения благодаря автоматическому процессу производства ASUS AUTO-EXTREME Technology и надежной элементной базы Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником. В результате производитель отмечает снижение рабочих температур, повышение энергоэффективности и увеличение срока службы.
Для питания тестируемого графического адаптера используется слот PCI Express 3.0 х16 и один 8-контактный разъем PCIe. Благодаря его удачному расположению кулер нисколько не затрудняет отключение кабеля PCIe.
Для обеспечения работы технологии NVIDIA SLI используются соответствующие коннекторы для подключения мостиков.
Вторым визуальным отличием ASUS TURBO-GTX1080-8G от NVIDIA GeForce GTX 1080 Founders Edition является отсутствие опорной пластины на обратной стороне печатной платы, которая примечательна некоторыми электрическими компонентами, включая упомянутые выше тантал-полимерные конденсаторы, и крепежными винтами системы охлаждения. Один из них прикрыт гарантийной наклейкой, поэтому снять радиатор без потери гарантии у вас не получится.
В основе новинки лежит графический чип NVIDIA GP104-400-A1, который произведен по 16-нм техпроцессу. Он состоит из 2560 ядер CUDA, 160 текстурных блоков и 64 блоков растеризации. Видеокарта работает на рекомендованных компанией NVIDIA частотах: номинальная − 1607 МГц и динамическая − 1734 МГц.
Память ASUS GeForce GTX 1080 TURBO, общим объемом 8 ГБ, набрана с помощью восьми GDDR5X-чипов компании Micron, которые работают на рекомендованной эффективной частоте 10010 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 320,3 ГБ информации за секунду.
Интересно, что компания ASUS не заявляет на официальном сайте о наличии других режимов работы ASUS GeForce GTX 1080 TURBO, однако в ПО ASUS GPU Tweak II есть возможность активировать профиль «OC», в котором номинальная частота работы графического ядра повышается до 1645 МГц, а динамическая − до 1772 МГц. Отметим, что тестирование проводилось в номинальном режиме с рекомендованными частотами.
Система охлаждения
Мы не разбирали видеокарту, дабы не нарушать гарантию, но вполне вероятно, что конструкция системы охлаждения очень похожа на дизайн эталонной модификации. В качестве преимущества компания ASUS указывает на использование долговечного двойного шарикоподшипника в основе вентилятора.
При автоматическом регулировании скорости вращения лопастей вентилятора, в режиме максимальной нагрузки, графическое ядро нагрелось до 82°С, а кулер, судя по показаниям мониторинга, работал на 66% от своей максимальной мощности. Уровень шума при этом был ниже среднего и абсолютно комфортным. Напомним, что кулер NVIDIA GeForce GTX 1080 Founders Edition в аналогичном режиме также удерживал температуру GPU на 82°С, но работал при более низкой скорости (2266 против 2788 об/мин).
В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 75°С. Издаваемый при этом шум слегка превысил средний уровень и вышел за комфортные рамки. В свою очередь кулер NVIDIA GeForce GTX 1080 Founders Edition смог охладить графическое ядро в аналогичном режиме до 69°С. Возможно, у ASUS TURBO-GTX1080-8G также отсутствует испарительная камера, уменьшены размеры радиатора либо разницу в показателях обеспечивает отсутствующая пластина жесткости.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижаются, что приводит к уменьшению их энергопотребления и тепловыделения. В таком режиме температура GPU не превышает 43°С.
Обновленный игровой ПК ASUS ROG G20CB с видеокартами серии NVIDIA GeForce GTX 10
Если вы подыскиваете себе стильный и компактный игровой компьютер, тогда обратите внимание на обновленную версию ASUS ROG G20CB. Теперь он предлагается с видеокартами NVIDIA GeForce GTX 1070 и NVIDIA GeForce GTX 1080, которые позволят существенно нарастить вычислительную мощность графической подсистемы для воспроизведения игр в 4K-разрешении или для погружения в VR-проекты.
В остальном же конфигурация модели ASUS ROG G20CB не претерпела существенных изменений, поэтому лишь коротко напомним основные позиции. В качестве процессора у пользователей есть выбор между Intel Core i5-6400 и Intel Core i7-6700. Подсистема оперативной памяти состоит из двух слотов SO-DIMM. Номинальный объем предустановленной памяти составляет 4 ГБ, но его можно расширить до 32 ГБ. Дисковая же подсистема состоит из одного 2,5-дюймового и / или одного 3,5-дюймового накопителя.
Сетевые возможности в ASUS ROG G20CB реализованы с помощью LAN-контроллера и модуля 802.11ac Wi-Fi + Bluetooth 4.0, а в наборе внешних интерфейсов присутствует множество портов USB. Более подробная таблица технической спецификации игрового ПК ASUS ROG G20CB:
Модель |
ASUS ROG G20CB |
|
ОС |
Windows 10 |
|
Чипсет |
Intel H170 |
|
Процессор |
Intel Core i5-6400 (4 x 2,7 – 3,3 ГГц) / Intel Core i7-6700 (4 х 3,4 – 4 ГГц) |
|
Оперативная память |
4 ГБ (максимум 32 ГБ DDR4-2133 МГц) |
|
Дисковая подсистема |
до 512 ГБ SATA SSD |
|
Видеокарта |
NVIDIA GeForce GTX 1080 8 ГБ |
|
Аудиоподсистема |
7.1-канальаная с поддержкой ASUS SonicMaster и ROG AudioWizard |
|
Оптический привод |
DVD Super Multi / Blu-ray Combo / BD Writer |
|
Сетевые модули |
802.11ac Wi-Fi, Bluetooth 4.0, Gigabit Ethernet |
|
Внешние интерфейсы |
На фронтальной панели |
2 x USB 3.0 |
На задней панели |
1 x RJ45 |
|
Источники питания |
230 Вт + 180 Вт |
|
Клавиатура |
Беспроводная, с подсветкой и мультимедийными кнопками |
|
Объем |
9,5 л |
|
Размеры |
358 х 340 х 104 мм |
|
Масса |
6,38 кг |
http://rog.asus.com
Сергей Будиловский
Раскрыты некоторые подробности видеокарт серии ZOTAC GeForce GTX 1060
Компания ZOTAC готовится представить как минимум два дизайна видеокарт серии ZOTAC GeForce GTX 1060. Речь идет о ZOTAC GeForce GTX 1060 AMP! и ZOTAC GeForce GTX 1060 Mini. Первая новинка может похвастать небольшим заводским разгоном графического процессора, частоты которого достигают 1557 и 1771 МГц. А вот 6 ГБ GDDR5-памяти функционируют на стандартной эффективной частоте 8 ГГц.
Система охлаждения ZOTAC GeForce GTX 1060 AMP! выделяется модифицированным дизайном. В ее конструкции можно заметить две медные тепловые трубки, алюминиевый радиатор и два 90-мм осевых вентилятора с дизайном крыльчатки IceStorm. При низких нагрузках кулер может переходить в пассивный режим работы.
В свою очередь ZOTAC GeForce GTX 1060 Mini нацелена на Mini-ITX-системы, поскольку ее длина должна составлять 170 мм. Она представлена в двух вариантах: с 3 и 6 ГБ GDDR5-памяти. В обоих случаях частотная формула соответствует эталонной, ведь для охлаждения используется компактный кулер с небольшим алюминиевым радиатором и одним осевым вентилятором. Если уровень производительности NVIDIA GeForce GTX 1060 действительно соответствует NVIDIA GeForce GTX 980 (как обещает NVIDIA), то даже этой компактной модели хватит для создания очень мощной игровой системы.
Сводная таблица технической спецификации видеокарт ZOTAC GeForce GTX 1060 AMP! и ZOTAC GeForce GTX 1060 Mini:
Модель |
ZOTAC GeForce GTX 1060 AMP! |
ZOTAC GeForce GTX 1060 Mini |
GPU |
NVIDIA GP106 |
|
Микроархитектура |
NVIDIA Pascal |
|
Техпроцесс, нм |
16 (FinFET) |
|
Количество CUDA-ядер |
1280 |
|
Количество текстурных блоков |
80 |
|
Количество растровых блоков |
48 |
|
Тактовая частота GPU, МГц |
1557 / 1771 |
1506 / 1708 |
Тип видеопамяти |
GDDR5 |
|
Объем, ГБ |
6 |
3 / 6 |
Номинальная / эффективная частота памяти, МГц |
2002 / 8008 |
|
Ширина шины памяти, бит |
192 |
|
Пропускная способность памяти, ГБ/с |
192 |
|
Внешние интерфейсы |
3 x DisplayPort 1.4 |
|
Внутренний интерфейс |
PCI Express 3.0 x16 |
|
Дополнительные разъемы питания PCIe |
1 x 6-контактный |
|
Показатель TDP, Вт |
120 |
http://videocardz.com
Сергей Будиловский
Видеокарта NVIDIA GeForce GTX 1060 принялась покорять сегмент $249 − 299
Предварительная информация оказалась достоверной, и компания NVIDIA действительно сегодня представила свою третью видеокарту на основе 16-нм микроархитектуры NVIDIA Pascal. Речь идет о модели NVIDIA GeForce GTX 1060, построенной на основе графического процессора NVIDIA GP106. В его структуре присутствуют 10 SM-блоков, которые предоставляют в распоряжение пользователя 1280 CUDA-ядер и 80 текстурных блоков. Базовая частота GPU составляет 1506 МГц, а динамическая может повышаться до 1708 МГц. Подсистема видеопамяти NVIDIA GeForce GTX 1060 состоит из 6 ГБ GDDR5 с эффективной частотой 8008 МГц, 192-битной шиной и пропускной способностью 192 ГБ/с.
Компания NVIDIA позиционирует новинку в качестве замены для NVIDIA GeForce GTX 980. Предоставленные официальные бенчмарки подтверждают высокую вычислительную мощь новинки, ведь преимущество в некоторых играх NVIDIA GeForce GTX 1060 над NVIDIA GeForce GTX 960 достигает 100%, что ставит ее как раз на ступеньку к NVIDIA GeForce GTX 980 по уровню производительности.
В первую очередь на рынке появятся версии NVIDIA GeForce GTX 1060 Founders Edition с рекомендованным для США ценником $299. Партнерские версии поступят в продажу по цене от $249. Любопытно, что новинка лишена поддержки технологии NVIDIA SLI. Возможно, NVIDIA решила не соблазнять покупателей возможностью замены одной топовой видеокарты двумя среднепроизводительными.
Сводная таблица технической спецификации видеокарты NVIDIA GeForce GTX 1060:
Обзор и тестирование видеокарты NVIDIA GeForce GTX 1080 Founders Edition на базе NVIDIA Pascal
Первое поколение 28-нм микроархитектуры NVIDIA Maxwell было представлено 18 февраля 2014 года в моделях NVIDIA GeForce GTX 750 и NVIDIA GeForce GTX 750 Ti. Ожидалось, что через полгода выйдет второе ее поколение, но уже на основе 20-нм техпроцесса. И действительно, 18 сентября 2014 года дебютировало второе поколение NVIDIA Maxwell в высокопроизводительных моделях NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980. Вот только использовали они все то же 28-нм техпроцесс. То ли NVIDIA изначально не планировала переходить на 20 нм, то ли у TSMC возникли сложности с освоением новой технологии, то ли AMD не удивила уровнем производительности конкурентных аналогов. Одним словом, в течение двух лет на рынке доминировала 28-нм микроархитектура NVIDIA Maxwell.
Согласно исследованиям аналитической компании Jon Peddie Research, именно в 2014 году позиции AMD на рынке десктопной графики (включая интегрированную графику в APU) опустились ниже 20%. А вот кривая NVIDIA показала восходящую тенденцию. То есть ставка на снижение энергопотребления с одновременным повышением быстродействия полностью себя оправдала. Особенно в мобильных системах, где NVIDIA полностью переиграла AMD по количеству успешных дизайнов.
Но индустрия спешит вперед, и компания TSMC уже успешно освоила 16-нм технологию FinFET. Intel и Samsung разобрались с 14-нм FinFET для производства сложных чипов, таких как центральные или графические процессоры. Одним словом, 2016 год – время очередного столкновения в некоторых сегментах. В данном случае – на рынке видеокарт. Позиции NVIDIA будет отстаивать микроархитектура NVIDIA Pascal. Конкуренцию ей составят 14-нм AMD Vega в сегменте Hi-End, а также AMD Polaris в категориях Middle-End и Performance. То есть лето и осень обещают быть жаркими и напряженными. Знакомство с NVIDIA Pascal мы начнем с топового на данный момент представителя – NVIDIA GeForce GTX 1080. Для начала давайте сравним между собой текущее и новое поколение графических адаптеров компании NVIDIA:
Модель |
NVIDIA GeForce GTX 970 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 980 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 Ti |
Техпроцесс, нм |
28 |
16 FinFET |
28 |
16 FinFET |
28 |
GPU |
NVIDIA GM204-200-A1 |
NVIDIA GP104-200-A1 |
NVIDIA GM204-400-A1 |
NVIDIA GP104-400-A1 |
NVIDIA GM200-310-A1 |
Микроархитектура |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
Площадь кристалла, мм2 |
398 |
314 |
398 |
314 |
601 |
Количество транзисторов, млрд. |
5,2 |
7,2 |
5,2 |
7,2 |
8,0 |
Количество CUDA-ядер |
1664 |
1920 |
2048 |
2560 |
2816 |
Количество текстурных блоков |
104 |
120 |
128 |
160 |
176 |
Количество растровых блоков |
56 |
64 |
64 |
64 |
96 |
Базовая / динамическая частота GPU, МГц |
1050 / 1178 |
1506 / 1683 |
1127 / 1216 |
1607 / 1733 |
1000 / 1076 |
Тип видеопамяти |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
GDDR5 |
Объем, ГБ |
4 |
8 |
4 |
8 |
6 |
Эффективная частота памяти, МГц |
7 012 |
8 008 |
7 012 |
10 008 |
7 012 |
Разрядность шины, бит |
256 |
256 |
256 |
256 |
384 |
Пропускная способность, ГБ/с |
224,4 |
256,3 |
224,4 |
320 |
337 |
Вычислительная мощность, TFLOPS |
3,494 |
5,783 |
4,616 |
8,228 |
5,632 |
TDP, Вт |
148 |
150 |
165 |
180 |
250 |
Рекомендованная стоимость на старте продаж, $ |
329 |
379 / 449 |
549 |
599 / 699 |
649 |
Как видим, общая тенденция к увеличению производительности и уменьшению энергопотребления сохранилась. Например, NVIDIA GeForce GTX 1070 по вычислительной мощности номинально превосходит NVIDIA GeForce GTX 980 Ti, а уровень ее TDP на 100 Вт ниже. В свою очередь NVIDIA GeForce GTX 1080 на 78% улучшила показатель уровня производительности по сравнению со своим предшественником. А ее тепловой пакет при этом возрос лишь на 9%. Достижению этого сопутствовали как улучшения в микроархитектуре, так и ряд технологий. Более того, NVIDIA добавила и некоторые интересные функции (например, HDR или Ansel), которые напрямую не влияют на скорость вычислений, но делают погружение в виртуальный мир компьютерной графики еще ярче и приятнее. О них мы и поговорим далее.
Микроархитектура и новые технологии
Поскольку NVIDIA Pascal совершил огромный прыжок с 28-нм технологии на 16-нм FinFET, то вносить кардинальные изменения в его структуру компания NVIDIA не стала. К тому же NVIDIA Maxwell отлично себя показала как в плане производительности и балансировки нагрузок, так и в вопросе энергоэффективности, поэтому решение лишь немного доработать этот дизайн вполне логичное.
Структурная схема графического процессора NVIDIA GP100
На данный момент графический процессор NVIDIA GP104, который и лежит в основе NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 1070, является вторым по старшинству после NVIDIA GP100. Похожую ситуацию мы наблюдали и в семействе NVIDIA Maxwell: NVIDIA GM204 использовался для видеокарт NVIDIA GeForce GTX 970 и NVIDIA GeForce GTX 980, а NVIDIA GM200 – для NVIDIA GeForce GTX 980 Ti и NVIDIA GeForce GTX TITAN X. Однако есть и одна важная разница: NVIDIA GP100 установлен в профессиональном ускорителе NVIDIA Tesla P100 для дата-центров, и в своей структуре он использует специальные CUDA-ядра для вычислений двойной точности (FP64) наряду с обычными. В играх и большинстве повседневных программах они не задействованы, поэтому особой пользы от них нет. Существует пока неофициальная версия о наличии GPU NVIDIA GP102. Предположительно именно он ляжет в основу видеокарты NVIDIA GeForce GTX 1080 Ti и новой модели серии NVIDIA GeForce GTX TITAN.
Структурная схема графического процессора NVIDIA GP104
Структурная схема графического процессора NVIDIA GM204
Структурная схема кластера TPC в NVIDIA GP104 (слева) и NVIDIA GM204 (справа)
Структурно графический процессор NVIDIA GP104 разбит на четыре вычислительных кластера (Graphics Processing Cluster (GPC)), как и NVIDIA GM204. Однако переход на более тонкий техпроцесс позволил увеличить количество потоковых мультипроцессоров (Streaming Multiprocessor (SM)), поэтому у новинки в каждом GPC используется по пять SM-блоков вместо четырех у NVIDIA GM204.
Уже традиционно SM-блок вместе с движком PolyMorph Engine объединены в Texture Processor Cluster (TPC). Структура TPC у NVIDIA GP104 практически не изменилась по сравнению NVIDIA GM204. Ключевое различие заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection, которого не было раньше.
Если мы нырнем еще глубже в микроархитектуру и заглянем в SM-блок, то увидим, что он включает в себя 4 планировщика (Warp Scheduler), 128 CUDA-ядер, регистровый файл общим объемом 256 КБ, кэш-память L1 объемом 48 КБ и 8 текстурных блоков – тут все без изменений.
Общая структура контроллера памяти немного изменилась - вместо четырех 64-битных используются восемь 32-битных, но в общем счете получаем ту же 256-битную шину, что и у NVIDIA GM204. Для более наглядного восприятия давайте сведем всю обозначенную информацию в одну таблицу:
Видеокарта |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 |
Графический процессор |
NVIDIA GP104-400 |
NVIDIA GM204-400 |
Техпроцесс, нм |
16 FinFET |
28 |
Площадь кристалла, мм2 |
314 |
398 |
Общее количество транзисторов, млрд. |
7,2 |
5,2 |
Количество кластеров GPC |
4 |
4 |
Количество кластеров TPC |
20 |
16 |
Количество SM-блоков |
20 |
16 |
Количество CUDA-ядер |
2560 |
2048 |
Количество текстурных блоков |
160 |
128 |
Количество растровых блоков |
64 |
64 |
Объем кэш-памяти L2, КБ |
2048 |
2048 |
Скорость выборки текстур, гигатекселей/с |
257,1 |
144,3 |
Скорость закраски, гигапикселей/с |
102,8 |
72,1 |
NVIDIA GPU Boost 3.0
После короткого погружения в микроархитектуру, давайте рассмотрим наиболее интересные технологии, дебютирующие в NVIDIA Pascal. Первая на очереди – технология динамического разгона NVIDIA GPU Boost 3.0. Она позволяет в индивидуальном порядке получить более высокие показатели тактовых частот. Принципиальное отличие от GPU Boost 2.0 заключается в большем контроле со стороны пользователя. Раньше смещение динамической частоты относительно номинальной скорости GPU было строго фиксированным. Но ведь возможности каждого графического процессора, то есть максимальные частотные кривые в рамках заданных температурных рамок, разные. Например, одни могут повышать скорость от 1733 до 2000 МГц, а другие – от 1733 до 1800 МГц. Поэтому GPU Boost 3.0 позволяет задать смещение частоты в турборежиме для каждого отдельно взятого графического процессора и на всем промежутке возможных напряжений.
Для этого в утилитах для оверклокинга добавлена соответствующая функция. На первом этапе работы она протестирует установленную в системе видеокарту и составит для нее индивидуальную кривую максимально возможных динамических частот для каждого заданного напряжения. На втором этапе пользователь в автоматическом или в ручном режиме указывает оптимальные показатели динамических частот, чтобы они использовали возможности текущего GPU по максимуму, но не превышали безопасных температурных рамок.
GDDR5X
Использование HBM в моделях линейки AMD Radeon R9 FURY позволяет существенно улучшить производительность подсистемы видеопамяти. Но вместе с тем это повышает сложность изготовления графического процессора и его конечную стоимость. Поэтому NVIDIA приберегла стандарт HBM2 для GPU NVIDIA GP100 (и, возможно, NVIDIA GP102), а вот в NVIDIA GP104 интегрирован контроллер с поддержкой стандартов GDDR5X и GDDR5. Первый тип памяти предназначен для NVIDIA GeForce GTX 1080, второй – для NVIDIA GeForce GTX 1070.
Вкратце напомним, что стандарт GDDR5X позволяет передавать четыре бита данных за такт (Quad Data Rate) вместо двух (Double Data Rate) у GDDR5. Также с 8n до 16n увеличилась предварительная выборка данных (prefetch). В результате пропускная способность интерфейса на контакт увеличилась с 7-8 до 10-12 Гбит/с. Для используемой памяти GDDR5X в модели NVIDIA GeForce GTX 1080 этот показатель как раз и составляет минимальные 10 Гбит/с. В последующих поколениях микросхем планируется довести его до 16 Гбит/с. Но даже показатель в 10 Гбит/с на контакт позволил увеличить пропускную способность памяти новой видеокарты до 320 ГБ/с при 256-битной шине, что потребовало изменений в дизайне контроллера памяти и печатной платы. Напомним, что у NVIDIA GeForce GTX 980 этот параметр составляет 224,4 ГБ/с при аналогичной разрядности шины. А у NVIDIA GeForce GTX 980 Ti – 336 ГБ/с при 384-битной шине.
К другим ключевым преимуществам GDDR5X относится увеличенный максимальный объем одной микросхемы (с 8 до 16 Гбит), что позволяет реализовать большую общую емкость подсистемы видеопамяти при одинаковом количестве чипов, и уменьшенное напряжение питания (с 1,5 до 1,35 В), что ведет к повышенной энергоэффективности. К тому же в стандарте прописана необходимость управления скоростью микросхем памяти от уровня их температуры. Теоретически, это должно повысить внимание разработчиков к эффективности охлаждения чипов памяти.
Memory Comptression
Увеличенная пропускная способность памяти – это большое преимущество, но дополнительный бонус к скорости работы подсистемы видеопамяти и видеокарты в целом обеспечивает четвертое поколение метода компрессии на основе разницы цвета (Delta Color Compression). Суть его работы заключается в обнаружении групп пикселов с минимальным различием в цвете. А затем они кодируются с помощью двух показателей: базового цвета и разницы (дельты) между базовым и реальным цветом.
Третье поколение этой технологии использовалось в NVIDIA Maxwell. По сравнению с ним NVIDIA Pascal улучшил алгоритм сжатия 2:1, а также добавил режимы 4:1 и 8:1. Если же в изображении используется очень много различных оттенков, то сжатие может и не осуществляться.
Оригинальное изображение (слева), сжатие в NVIDIA Maxwell (по центру), сжатие в NVIDIA Pascal (справа)
Для наглядной демонстрации преимуществ работы движка Pascal Memory Compression Engine над Maxwell Memory Compression Engine компания NVIDIA использовала кадр из игры Project CARS. Пурпурным цветом закрашены области изображения, которые удалось сжать. В результате этой процедуры уменьшается объем данных, циркулирующих между памятью, кэшем L2, текстурными блоками, буфером кадра и другими блоками графического процессора. В цифровом эквиваленте движок Pascal Memory Compression Engine добавляет 20% к показателю пропускной способности, теоретически увеличивая его до 384 ГБ/с.
В общей сложности сочетание более высокой пропускной способности GDDR5X-памяти и улучшенных алгоритмов сжатия информации обеспечивают прирост производительности подсистемы видеопамяти NVIDIA GeForce GTX 1080 относительно NVIDIA GeForce GTX 980 на уровне 70%.
Async Compute: Dynamic Load Balancing и Pixel Level Preemption
До сентября 2015 года многие даже и не подозревали о технологии асинхронных вычислений (Async Compute) и ее влиянии на итоговую производительность компьютера, поскольку API DirectX 11 ее попросту не использует. А вот в DirectX 12 разработчики могут применять ее для оптимизации задействованных ресурсов. Дело в том, что при рендеринге игровой сцены компьютер просчитывает множество сложных эффектов (тени, свет, физику поведение объектов, алгоритм работы AI и другие). В DirectX 11 он это делает в последовательном режиме, шаг за шагом, поэтому задержка на одном этапе тормозит весь процесс. А в DirectX 12 появилась возможность параллельного вычисления. Например, одна часть системы занимается сложным расчетом эффектов света, а другая тем временем обрабатывает поведение AI или занимается другими стадиями подготовки изображения. Такой сценарий отлично иллюстрирует работу одной из составных частей Async Compute – технологии динамической балансировки нагрузок (Dynamic Load Balancing).
В NVIDIA Maxwell используется статическая балансировка, при которой одна часть ресурсов выделяется на графические задачи, другая – на вычислительные. Если, например, первая справилась со своей работой быстрее, то она некоторое время простаивает без нагрузки. Динамическая балансировка в NVIDIA Pascal использует всеми любимый принцип: кто справился быстрее, тот помогает отстающему. В результате многие задачи решаются более оперативно.
Второй вариант использования асинхронных вычислений – технология Pixel Level Preemption – отлично подойдет для тех задач, которые следует делать либо вовремя, либо не делать вообще. Например, она помогает реализовать алгоритм Asynchronous TimeWarp (ATW) в VR-шлемах. Системы виртуальной реальности сами по себе требуют много вычислительных ресурсов, а пользователь своими резкими вращениями головой добавляет нагрузку на графический процессор, ведь изменение ее положения в пространстве требует обработки уже другого кадра. Поэтому если система не успела вовремя закончить просчет кадра до его вывода на экран, то он теряет свою актуальность и вычислительные ресурсы необходимо направить на другие задачи. В такой ситуации технология Pixel Level Preemption прервет его рендеринг, при необходимости выгрузит результат в память и займется другой задачей.
Simultaneous Multi-Projection
При взгляде на микроархитектуру мы упоминали, что ключевое различие в схеме кластера TPC между NVIDIA Pascal и NVIDIA Maxwell заключается в интеграции четвертого поколения PolyMorph Engine с блоком Simultaneous Multi-Projection. Он отвечает за реализацию одноименной технологии, суть работы которой сводится к достоверному проецированию геометрических 3D-объектов на плоских экранах в зависимости от угла просмотра.
Проекция в одной плоскости (слева), некорректная проекция в нескольких плоскостях (по центру), корректная проекция благодаря Simultaneous Multi-Projection
Монитор – это наше окно в мир 3D-графики. На одном экране мы можем наблюдать очень качественную 3D-картинку. Но если установить, например, три экрана со смещением друг к другу, то картинка будет и дальше обрабатываться лишь в одной проекции, а смотреть на нее мы уже будем под тремя разными углами. В таком случае создается впечатление, что достоверная геометрия реализована лишь на центральном экране, расположенном перпендикулярно взгляду пользователя. А вот боковые дисплеи будут искажать картинку. Именно в этом случае Simultaneous Multi-Projection обеспечит корректность восприятия.
Другой пример использования этой технологии – VR. Она отрисовывает геометрию для правого и левого глаз одновременно за один проход, что обеспечивает повышенный уровень производительности для шлемов виртуальной реальности. Дополнительно она позволяет оперировать меньшим объемом данных, снижая необходимое для комфортного восприятия разрешение изображения в Oculus Rift с 4,2 до 2,8 Мп. Это трансформируется в экономию вычислительных ресурсов и времени на их обработку. В результате NVIDIA Pascal демонстрирует отличную производительность в VR-бенчмарках.
Аппаратное декодирование видео и HDR
Микроархитектура NVIDIA Pascal принесла с собой улучшения в блоке вывода изображения на экран. Например, появилась возможность аппаратного кодирования и декодирования видеопотока в HEVC с глубиной цвета 10 или 12 бит на канал, улучшено декодирование H.264 и некоторых других стандартов.
Однако настоящим прорывом обещает стать High Dynamic Range (HDR). Мониторы с ее поддержкой могут воспроизводить 75% видимого цветового спектра, что в два раза больше, чем у современных экранов. Максимальная яркость у них увеличится до 1000 кд/м2 (сейчас – 250 – 350 кд/м2), а статическая контрастность – до 10 000:1 (сейчас 1 000:1 для TN и IPS, 3 000:1 для VA).
Видео и игры для HDR обещают буйство красок и настоящее пиршество для глаз. Поэтому если вы в ближайшей перспективе планировали покупать новый монитор, то рекомендуем подождать выхода HDR-совместимых моделей, которые должны дебютировать до конца года.
Fast Sync
Показатели в игре Counter-Strike: Global Offensive
В посвященном технологии NVIDIA G-SYNC материале мы подробно разобрались в недостатках работы технологии вертикальной синхронизации (V-SYNC On). Наибольшие проблемы она создает любителям динамичных игр и онлайн-проектов, где высокая частота кадров сопутствует низким задержкам в смене игровой обстановки. Поэтому многие пользователи попросту выключают ее и не обращают внимание на возможные разрывы кадров. В качестве альтернативы NVIDIA Pascal предлагает технологию Fast Sync, которая позволяет устранить артефакты изображения и сохранить сравнительно низкие задержки вывода кадров на экран.
В чем же заключается ее суть? Во-первых, вся цепочка подготовки кадра условно делится на две независимые части. В первую входит игровой движок, драйвер и графический процессор. Их задача – обеспечивать максимально быстрый рендеринг каждой сцены, независимо от частоты обновления экрана. То есть наследуется принцип работы с выключенной вертикальной синхронизацией (V-SYNC Off). За условной пунктирной чертой на рисунке находится вторая часть – первичный буфер (Front Buffer), вторичный буфер (Back Buffer), буфер LRB (Last Rendered Buffer) и сам экран. Эта часть уже ориентируется на частоту обновления экрана, чтобы кадр выводился целиком, без каких-либо разрывов. То есть наследуется принцип работы V-SYNC On.
Вся система взаимодействует следующим образом: после рендеринга готовый кадр попадает в Back Buffer, который сразу же после этого меняется именами с Last Rendered Buffer, чтобы графический процессор имел место для хранения нового кадра (смена именами заменяет процесс копирования). То есть Back Buffer получает готовый кадр для вывода на экран и становится Last Rendered Buffer, а Last Rendered Buffer становится Back Buffer и готов к приему нового кадра от графического процессора. Как только монитор запрашивает новый кадр, сразу же Last Rendered Buffer с готовым изображением меняется именами с Front Buffer, поскольку именно из него информация подается на экран. Таким образом, GPU может обрабатывать кадры с максимально возможной скоростью, а карусель между тремя буферами гарантирует, что они не пропадут бесследно и на экран будет выводится нужный кадр без больших задержек и разрывов. Вот только Fast Sync эффективно работает для тех игр, в которых скорость воспроизведения выше частоты обновления экрана. Для обычных мониторов она составляет 60 Гц. Если уровень FPS выше 60, тогда есть смысл использовать Fast Sync. Если ниже, тогда плавность картинки обеспечит NVIDIA G-SYNC.
Multi-GPU
Если вы планируете использовать несколько графических адаптеров NVIDIA Pascal в режиме NVIDIA SLI, особенно для поддержки экранов с высокими разрешениями, тогда вам просто необходим новый мостик High Bandwidth SLI Bridge (SLI HB Bridge).
В отличие от стандартного, он использует оба SLI-коннектора на печатной плате видеокарты. Также с 400 до 650 МГц повысилась частота работы комбинированного SLI-интерфейса. В результате существенно возрастает его пропускная способность, что и позволяет реализовать комфортную поддержку 4K- и 5K-экранов.
И еще один важный момент: теперь компания NVIDIA не рекомендует использовать 3 или 4 видеокарты в режиме NVIDIA SLI. Дело в том, что масштабирование производительности для режима NVIDIA SLI в играх и программах − достаточно сложный и трудоемкий процесс, поэтому NVIDIA решила ограничиться оптимизацией под 2 видеокарты. Чтобы разблокировать режим 3-Way или 4-Way NVIDIA SLI, пользователям необходимо будет загрузить бесплатную утилиту Enthusiast Key из официального сайта NVIDIA, которая поможет активировать необходимые настройки. В качестве альтернативы NVIDIA предлагает использовать режимы «Multi Display Adapter (MDA)» или «Linked Display Adapter (LDA)» в совместимых DirectX 12 играх, которые могут реализовать поддержку 4 видеокарт.
NVIDIA Ansel
С каждым годом компьютерная графика в играх становится все более красочнее и реалистичнее. Среди многих людей бытует мнение, что компьютерные игры – это новый вид искусства, поэтому некоторые художники и фотографы всячески популяризируют процесс захвата наиболее удачных игровых кадров. Вот только разработчики обычно не уделяют этому много внимания, поэтому выбрать нужный ракурс достаточно сложно, особенно в динамичном игровом процессе.
Но теперь есть технология NVIDIA Ansel, обещающая настоящий прорыв в этом вопросе. Для ее реализации в программный код игры необходимо будет добавить определенные фрагменты: для The Witness – это около 40 строк кода, а для The Witcher 3: Wild Hunt – около 150, то есть сущие пустяки по сравнению с общим объемом.
Взамен она предоставляет уникальные возможности:
- свободную камеру, позволяющую выбрать нужный ракурс для создания максимально эффектного скриншота;
- фильтры постобработки, которые позволяют поиграться с различными цветовыми эффектами;
- возможность захвата снимков с разрешением, которое в 32 раза превышает максимальное разрешение экрана;
- поддержку высокого цветового спектра для последующего экспорта снимка в Adobe Photoshop;
- съемку 360-градусных фото для дальнейшего просмотра с помощью VR-устройств.
Поддержка технологии Ansel уже заявлена для Tom Clansy’s The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky и Unreal Tournament. Со временем наверняка и другие проекты присоединятся к этому списку.
NVIDIA VRWorks
VR – это один из новых мощных драйверов для рынка компьютерных технологий в целом и игр в частности. Пока это достаточно дорогое удовольствие с ограниченным количеством контента, но перспективы у него очень большие. Прекрасно это понимая, NVIDIA оперативно выпустила обновленный пакет инструментов NVIDIA VRWorks. Он включает в себя различные технологии, инструменты и библиотеки полезных функций, которые существенно упрощают разработчикам процесс создания программ и игр под VR. В результате программисты экономят время и ресурсы, используя готовые и протестированные инструменты, а пользователи получают более реалистичный контент. Конечно, при условии, что используют совместимую видеокарту компании NVIDIA.
Для лучшего понимания возможностей NVIDIA VRWorks предлагаем посмотреть демонстрационный ролик, отображающий и объясняющий преимущества использования одной из ее технологии − VRWorks Audio.
Видеокарты NVIDIA GeForce GTX 970, GTX 980 и GTX 980 Ti становятся дешевле
Вполне логичный и ожидаемый ход сделала компания NVIDIA: с целью побыстрее распродать остатки видеокарт предыдущего поколения были снижены цены на высокопроизводительные модели линейки NVIDIA Maxwell. В частности, стоимость NVIDIA GeForce GTX 970 упала на $25, желающим купить NVIDIA GeForce GTX 980 придется заплатить на $75 меньше, а новые обладатели NVIDIA GeForce GTX 980 Ti могут сэкономить $125.
В первую очередь снижение цен зафиксировано на западных онлайн-площадках, хотя источник сообщает, что это глобальный шаг, поэтому в ближайшие несколько дней стоимость указанных видеоускорителей должна упасть и для других рынков. Таким образом, конкуренция усиливается не только для внутреннего модельного ряда компании NVIDIA, но и для новых видеокарт серии AMD Polaris, которые придут на рынок в конце июня. А это значит, что у пользователей есть шанс приобрести добротную модель по более доступной стоимости.
http://videocardz.com
Сергей Будиловский
3DMark 11 Performance: как изменялась производительность AMD Radeon RX 480 и чего ждать от режима AMD CrossFireX
На днях в базе данных бенчмарка 3DMark 11 Performance были обнаружены обнадеживающие результаты тестирования видеокарты AMD Radeon RX 480. Достигнутый показатель в 14 461 балл ставит ее между NVIDIA GeForce GTX 980 (14 014) и AMD Radeon R9 FURY (14 801), что очень даже хорошо для видеокарты, рекомендованная стоимость которой в два раза ниже.
Оказывается, это далеко не единственный результат AMD Radeon RX 480 в базе данных бенчмарка 3DMark 11 Performance. Первые показатели ее производительности были добавлены 12 апреля. Тогда конфигурация с Intel Core i7-4770 показала 11 821 балл, а с Intel Core i7-3960X Extreme Edition – 12 691 балл. Правда, скорость видеопамяти в тех версиях составляла 1 925 МГц вместо 2 000 МГц.
Немного доработав новинку, компания AMD опять протестировала ее 18 мая с процессором Intel Core i7-4770, достигнув результата в 13 141 балл с версией драйвера 16.200.1014.0. А уже 20 мая в базе данных появились еще два показателя с этим же процессором, но предыдущей версией драйвера (16.200.0.0): одна видеокарта смогла набрать 14 461 балл, а две – 17 244 балла. Сводная таблица технической спецификации видеокарты AMD Radeon RX 480:
Модель |
AMD Radeon RX 480 |
GPU |
AMD Polaris 10 (Ellesmere) |
Микроархитектура |
AMD Polaris |
Техпроцесс, нм |
14 |
Количество потоковых процессоров |
2304 |
Тактовая частота GPU, МГц |
1267 |
Тип видеопамяти |
GDDR5 |
Объем, ГБ |
4 / 8 |
Номинальная / эффективная частота памяти, МГц |
2 000 / 8 000 |
Ширина шины памяти, бит |
256 |
Пропускная способность, ГБ/с |
256 |
Показатель TDP, Вт |
150 |
Ориентировочная стоимость, $ |
199 / ? |
Дата релиза |
29 июня 2016 |
http://www.3dmark.com
Сергей Будиловский
Производительность видеокарты AMD Radeon RX 480 в бенчмарке 3DMark 11 Performance
В базе данных бенчмарка 3DMark 11 Performance появился весьма интересный результат для видеокарты с подписью «67DF:C7», что относится к AMD Radeon RX 480. Поскольку все указанные параметры для этой «таинственной» видеокарты полностью соответствуют показателям AMD Radeon RX 480 с официальной презентации, то особых сомнений в их подлинности нет.
Сам же результат тестирования весьма примечателен – 14 461 балл. Он находится как раз между показателями видеокарт NVIDIA GeForce GTX 980 (14 014 баллов) и AMD Radeon R9 FURY (14 801 балл). А ведь речь идет о сравнении видеокарт из разных ценовых сегментов. Стоимость 4-гигабайтной версии AMD Radeon RX 480 стартует с отметки $199. 8-гигабайтный вариант (результаты которого и записаны в базу данных 3DMark 11 Performance) будет чуть дороже, но вряд ли перешагнет отметку $250. В свою очередь цена NVIDIA GeForce GTX 980 и AMD Radeon R9 FURY на старте была $549. Примечательным является и сравнение показателей TDP. Для AMD Radeon RX 480 он заявлен на уровне 150 Вт, тогда как у NVIDIA GeForce GTX 980 и AMD Radeon R9 FURY он составляет 165 и 275 Вт соответственно.
Таким образом, AMD Radeon RX 480 действительно заслуживает особого внимания. Поэтому если вы подыскиваете себе новую игровую видеокарту, но пока не обладаете бюджетом для NVIDIA Pascal, то стоит подождать до 29 июня и посмотреть на возможности AMD Polaris при комплексном тестировании. Сводная таблица технической спецификации видеокарты AMD Radeon RX 480:
Модель |
AMD Radeon RX 480 |
GPU |
AMD Polaris 10 (Ellesmere) |
Микроархитектура |
AMD Polaris |
Техпроцесс, нм |
14 |
Количество потоковых процессоров |
2304 |
Тактовая частота GPU, МГц |
1267 |
Тип видеопамяти |
GDDR5 |
Объем, ГБ |
4 / 8 |
Номинальная / эффективная частота памяти, МГц |
2 000 / 8 000 |
Ширина шины памяти, бит |
256 |
Пропускная способность, ГБ/с |
256 |
Показатель TDP, Вт |
150 |
Ориентировочная стоимость, $ |
199 |
Дата релиза |
29 июня 2016 |
http://www.guru3d.com
Сергей Будиловский
Обзор и тестирование видеокарты GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)
Продолжая разговор о текущих флагманских видеокартах AMD, выполненных на основе графического ядра AMD Fiji, мы рассмотрим топовый графический ускоритель AMD Radeon R9 FURY X.
В отличие от рассмотренной ранее AMD Radeon R9 FURY, тестируемая модель, как и AMD Radeon R9 Nano, получила максимальную версию графического ядра AMD Fiji, включающую в себя 4096 потоковых процессоров, 256 текстурных блоков и 64 модуля растровых операций. Если же сопоставить AMD Radeon R9 FURY X с AMD Radeon R9 Nano, то мы увидим более высокую частоту графического процессора (1050 против 1000 МГц) и увеличенный показатель теплового пакета (275 против 175 Вт). Итоговая сравнительная таблица характеристик всех трех видеокарт выглядит следующим образом:
Модель |
AMD R9 Fury X |
AMD R9 Fury |
AMD R9 Nano |
Графическое ядро |
AMD Fiji XT |
AMD Fiji PRO |
AMD Fiji XT |
Микроархитектура |
AMD GCN 1.2 |
||
Количество потоковых процессоров |
4096 |
3584 |
4096 |
Количество текстурных блоков (TMU) |
256 |
224 |
256 |
Количество модулей растровых операций (ROP) |
64 |
64 |
64 |
Частота графического ядра, МГц |
1050 |
1000 |
1000 |
Тип памяти |
HBM |
||
Объем видеопамяти, ГБ |
4 |
||
Эффективная частота видеопамяти, МГц |
1000 |
||
Ширина шины видеопамяти, бит |
4096 |
||
Пропускная способность видеопамяти, ГБ/с |
512 |
||
Показатель TDP, Вт |
275 |
275 |
175 |
Отдельно напомним, что с подробным описанием всех характеристик и возможностей AMD Fiji вы можете ознакомиться в обзоре AMD Radeon R9 Nano, ну а мы тем временем перейдем непосредственно к обзору AMD Radeon R9 FURY X.
И сделать это нам поможет модификация GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B). Данный видеоускоритель любезно предоставлен смарт-маркетом электроники VSESVIT.BIZ, где его же можно и купить ориентировочно за $785.
Спецификация:
Модель |
GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) |
Графическое ядро |
AMD Fiji XT |
Количество потоковых процессоров |
4096 |
Частота графического ядра, МГц |
1050 |
Частота памяти (эффективная), МГц |
500 (1000) |
Объем памяти, ГБ |
4 |
Тип памяти |
HBM |
Ширина шины памяти, бит |
4096 |
Пропускная способность памяти, ГБ/с |
512 |
Тип шины |
PCI Express 3.0 x16 |
Интерфейсы вывода изображения |
1 x HDMI 3 x DisplayPort |
Рекомендованная мощность блока питания, Вт |
750 |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
210 х 130 х 40 (208 x 116) |
Драйверы |
Свежие драйверы можно скачать с сайта компании GIGABYTE или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в достаточно крупной и объемной коробке, что неудивительно, учитывая наличие комплектной СВО. Дизайн упаковки выполнен в уже знакомом фирменном стиле, а качественная полиграфия является весьма информативной.
На обратной стороне упоминается техническая спецификация, некоторые преимущества GIGABYTE GV-R9FURYX-4GD-B и список системных требований. Исходя из рекомендаций, блок питания в системе должен обладать мощностью не менее 750 Вт и поддерживать два 8-контактных кабеля PCIe. А в корпусе ПК одно из посадочных мест под 120-мм системный вентилятор будет использовано для крепления радиатора СВО.
В комплекте с графическим адаптером мы обнаружили только стандартный набор аксессуаров в виде документации и диска с ПО. Какие-либо переходники в коробке отсутствуют, а значит, при необходимости поиском адаптеров для подключения питания придется озаботиться заблаговременно.
Для вывода изображения на тестируемой модели используется эталонный набор интерфейсов:
- 1 х HDMI;
- 3 х DisplayPort.
Вполне логичным шагом производителя выглядит отказ от аналогового видеовыхода в топовой видеокарте. А что касается DVI, то разместить его на плате было проблематично из-за используемой системы охлаждения, поэтому при необходимости можно приобрести соответствующий переходник.
Внешний вид и система охлаждения
В список достоинств GIGABYTE Radeon R9 FURY X несомненно следует занести ее компактные габариты, благодаря которым не возникнет никаких проблем с установкой даже в относительно маленькие корпуса (при условии, что найдется посадочное место для радиатора СВО). Отдельно выделим вполне узнаваемый и стильный дизайн в темных тонах, который отлично дополняется логотипом красного цвета и софт-тач покрытием верхней крышки кулера.
Обратная сторона прикрыта опорной пластиной, на которой нанесены наклейки с необходимой сервисной информацией.
Отдельно отметим наличие на обратной стороне небольшого переключателя, который отвечает за активацию и управление диагностической подсветкой, реализованной при помощи 9 светодиодов рядом с разъемами питания.
При помощи переключателя можно не только выключить работу подсветки, но и изменить цвет ее свечения с красного на синий.
Еще один тумблер отвечает за переключение между двумя прошивками BIOS (основной и запасной). Он расположен рядом со светящимся красным цветом логотипом «Radeon».
В отличие от упомянутых выше светодиодов, данный логотип всегда светится только красным цветом, и управлять его работой нельзя.
Для питания тестируемого графического адаптера доступен слот PCI Express x16 и два 8-контактных разъема PCIe, расположенных на боковой стороне платы. Система охлаждения не закрывает доступ к ним, что сопутствует удобному подключению и отключению кабелей питания.
В основе тестируемой модели лежит GPU AMD Fiji XT, произведенный по 28-нм техпроцессу. Он включает в себя 4096 потоковых процессоров, 64 блока растеризации и 256 текстурных блоков. Частота графического процессора соответствует эталонным 1050 МГц.
Память, общим объемом 4 ГБ, набрана с помощью четырех HBM-чипов производства SK hynix, которые работают на эффективной частоте 1000 МГц. Обмен данными между графическим процессором и памятью осуществляется через 4096-битную шину, которая способна пропускать 512 ГБ/с.
Система охлаждения
Система охлаждения модели GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) представляет собой замкнутый контур. Из корпуса видеокарты выходят два соединительных шланга для циркуляции жидкости и кабель питания. Внутри они подключены к совмещенному с помпой водоблоку, который установлен на алюминиевой пластине, накрывающей печатную плату.
Для охлаждения хладагента используется массивный радиатор с размерами 150 х 120 х 38 мм.
Активным элементом этой части конструкции выступает осевой вентилятор типоразмера 120 мм с диаметром лопастей 111 мм. Ширина радиатора с установленной вертушкой составляет 64 мм.
В автоматическом режиме работы с максимальной нагрузкой графическое ядро нагрелось до 64°С, а кулер, судя по показаниям мониторинга, работал при этом на 19% от своей пиковой мощности. Уровень шума при этом был очень тихим и абсолютно комфортным. Для сравнения напомним, что достаточно габаритный кулер с тремя вентиляторами, установленный на GIGABYTE Radeon R9 FURY WINDFORCE 3X OC, смог охладить работающий на меньших частотах AMD Fiji PRO до 69°С.
В режиме максимальной скорости вращения вентилятора температура GPU снизилась до 42°С. Издаваемый при этом шум немного превысил средний уровень и стал некомфортным для постоянного использования. В свою очередь температура GIGABYTE Radeon R9 FURY WINDFORCE 3X OC в аналогичном режиме составила 50°С.
При отсутствии нагрузки частоты графического ядра и памяти автоматически снижались, что приводило к меньшему их энергопотреблению и тепловыделению. К сожалению, СВО не переходит при этом в пассивный режим и продолжает работать. Температура графического ядра в таком режиме не превышала отметку в 25°С. Отдельно отметим, что периодически был различим высокочастотный шум дросселей, что не критично, но не очень приятно.
Официальный дебют видеокарты AMD Radeon RX 480: AMD Polaris покоряет сегмент $199
Главным событием этого дня в IT-индустрии можно по праву считать официальный дебют первой видеокарты на основе долгожданной 14-нм микроархитектуры AMD Polaris. Речь идет о модели AMD Radeon RX 480. Она создана для обеспечения премиального VR-опыта в ценовом диапазоне $199. То есть эта новинка напрямую не конкурирует с представленными ранее моделями NVIDIA GeForce GTX 1070 и NVIDIA GeForce GTX 1080, минимальные стоимости которых составляют $379 и $599 соответственно.
В рамках презентации были раскрыты далеко не все технические подробности видеокарты AMD Radeon RX 480. Точно известно, что используемый графический процессор AMD Polaris 10 (Ellesmere) работает на частоте 1267 МГц и обладает поддержкой 36 вычислительных блоков (CU), то есть 2304 потоковых процессоров. В паре с ним работает 4 или 8 ГБ GDDR5-памяти с 256-битной шиной и пропускной способностью 256 ГБ/с. Из этого можно сделать вывод, что номинальная частота видеопамяти составляет 2000 МГц, а эффективная – 8 000 МГц. Показатель TDP новинки заявлен на уровне 150 Вт, а для дополнительного питания используется один 6-контактный разъем PCIe.
Вычислительная мощность AMD Radeon RX 480 превышает 5 TFLOPS. Для сравнения, аналогичный показатель NVIDIA GeForce GTX 1070 достигает 6,5 TFLOPS, NVIDIA GeForce GTX 980 – 4,6 TFLOPS, AMD Radeon R9 390 – 5,1 TFLOPS, а AMD Radeon R9 390X – 5,9 TFLOPS. Также новинка обеспечивает поддержку HDR-мониторов посредством интерфейса DisplayPort 1.3. В продаже версия с 4 ГБ памяти будет доступна от $199, а с 8 ГБ – чуть дороже (ориентировочно $230+).
Хотя AMD Radeon RX 480 напрямую не может конкурировать с NVIDIA GeForce GTX 1080, но в своей презентации компании AMD отметила, что связка из двух подобных адаптеров может эффективно заменить одну топовую видеокарту. При этом она обойдется дешевле (<$500 против $700) и сможет обеспечить более высокую производительность в оптимизированных проектах (например, Ashes of the Singularity). Более того, процент использования GPU в такой системе гораздо ниже, а это как минимум означает меньшую нагрузку на систему охлаждения для более комфортной работы.
http://videocardz.com
Сергей Будиловский
MSI разрабатывает портативный ПК для VR
Компания MSI готовит весьма любопытный персональный компьютер для VR-развлечений. В основе его концепции лежит идея создания портативной системы, которую можно расположить на спине в виде рюкзака, предварительно подключив VR-шлем. Такой подход обеспечит высокую мобильность самого пользователя для перемещения в виртуальном мире.
Сам же ПК построен на основе десктопного процессора серии Intel Core i7 и видеокарты уровня NVIDIA GeForce GTX 980 (возможно, NVIDIA GeForce GTX 1080M). Такая связка вполне сможет обеспечить воспроизведение VR-игр с высоким уровнем качества и необходимой скоростью для комфортного погружения. Важным элементом всей конструкции выступит емкая встроенная батарея, которая обеспечит автономность работы. Ожидается, что прототип или уже готовый образец компания MSI покажет в рамках выставки Computex 2016.
http://www.techpowerup.com
Сергей Будиловский