Игровой тест NVIDIA GeForce GTX 1080 в 2020-м: когда года не беда!
В основе NVIDIA GeForce GTX 1080 лежит видеоядро GP104 в своей максимальной конфигурации. На выходе получаем 2560 ядер CUDA, 160 текстурных и 64 растровых блока. В паре с ним работает 8 ГБ GDDR5X-памяти на эффективной частоте 10 ГГц, что вместе с 256-битной шиной дает пропускную способность в 320 ГБ/с. Позже появились версии GeForce GTX 1080 с ускоренной до 11 ГГц видеопамятью в качестве ответа на адаптеры серии AMD Radeon RX Vega.
Для практических тестов мы вооружились видеокартой INNO3D iChill GeForce GTX 1080 X3. К списку ее ключевых преимуществ стоит отнести 8-фазную подсистему питания, огромную и эффективную 3-вентиляторную систему охлаждения с LED-подсветкой, а также небольшой заводской разгон графического процессора и видеопамяти. В играх частота GPU держалась в районе 2 ГГц, а температура не превышала 78°С.
Теперь напомним о конфигурации стенда. За основу взяли 16-поточный Ryzen 7 3700X, который работал в номинале, то есть с динамическим разгоном до 4,4 ГГц.
Для его охлаждения использовали классический башенный кулер Vinga CL3007R. Он совместим практически со всеми актуальными платформами и рядом устаревших.
Материнка BIOSTAR X470GTQ RACING имеет 7.1-канальный HD-кодек Realtek ALC887 в комплекте с конденсаторами, усилителем, отдельными слоями для левого и правого канала, а также изоляцией аудиозоны.
Оперативка набрана скоростным 16-гигабайтным комплектом DDR4-3733 Patriot Viper Steel. Он работал на паспортной частоте с таймингами 18-21-21-41.
Дисковая подсистема представлена парой твердотельников от ADATA. ОС и весь необходимый софт закинули на шустрый NVMe-накопитель XPG SX8200 PRO объемом 512 ГБ. Под игры использовали 2,5-дюймовый SU800 на 2 ТБ. В его основе лежат микросхемы 3D NAND TLC и котроллер SMI.
Стабильное и качественное питание для всех компонентов обеспечил полностью модульный Seasonic PRIME TX-750. Для процессора предусмотрено два 8-контактных коннектора. А для питания графической подсистемы есть четыре отдельных 6+2-контактных PCIe. При подключении периферии также не должно возникнуть никаких проблем – одних только разъемов SATA здесь 10 штук.
Систему собрали в Middle Tower-корпусе Vinga Tank. Он может принять на борт до шести вертушек. Но в комплекте они не поставляются, поэтому мы добавили парочку 120-мм вентиляторов Vinga RGB FAN-06 с LED-подсветкой и FDB-подшипниками.
В качестве монитора использовали AOC U2790PQU. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
С чистой совестью переходим к играм. Как и в прошлые разы, для разогрева посмотрим на несколько популярных онлайн-проектов. World of Tanks на ультрах сулит нам максимально плавный и приятный геймплей: средняя скорость достигает 190 FPS, а просадки не опускаются ниже сотни кадров/с. Даже «киберкотлетам» этого за глаза.
То же самое касается War Thunder с пресетом Кино. В среднем получаем под 200 FPS, без малейших намеков на подфризы или любые другие лаги. Обладатели мониторов с повышенной частотой развертки будут довольны.
В ARK Survival Evolved выкрутили все на максимум и подняли масштаб рендера до 100%. В таком режиме картинка сочная и достаточно плавная. Очень редкие события не опускаются ниже 45 FPS. К управлению нет никаких вопросов.
В RUST тоже не пожалели, что выбрали максимальные настройки графики. Взамен получили 92 FPS в среднем и очень добротную остальную статистику. Бегается более чем комфортно.
Rainbow Six Siege на ультрах со 100% масштабом рендера выдает в среднем около 160 FPS. И даже просадки не опускаются ниже сотни кадров/с. Все это обеспечивает очень плавный и отзывчивый геймплей.
Читать обзор полностью >>>Игровой тест NVIDIA GeForce GTX 1070 Ti в 2020-м: больше CUDA – больше фана!
Как GeForce GTX 1080 и GTX 1070, «Ти-айка» построена на базе 16-нм графического процессора GP104 поколения Pascal. Речь идет о модификации GP104-300 с 19 активными потоковыми мультипроцессорами из 20 возможных. Проще говоря, GTX 1070 Ti имеет минимальный разрыв по количеству вычислительных блоков с GTX 1080. Да и базовая частота и TDP заявлены на одном уровне. Правда, GTX 1070 Ti использует более медленную видеопамять стандарта GDDR5 вместо GDDR5X у старших карт.
На вторичном рынке GTX 1070 Ti можно купить дешевле, чем 6-гигабайтную GTX 1660 или RX 5500 XT на 8 гигабайт, которые заведомо слабее.
Центральным объектом этого материала является видеокарта MSI GeForce GTX 1070 Ti GAMING 8G. Она получила оригинальную печатную плату с усиленной подсистемой питания и эталонную частотную формулу. Для охлаждения используется фирменный двухслотовый кулер Twin Frozr VI с парой 100-мм вентиляторов. В его конструкции применяется алюминиевый радиатор на пяти тепловых трубках, одна из которых диаметром 10 мм. VRM и чипы памяти имеют собственный радиатор. В играх температура GPU достигала 74°С при критическом показателе в 94°С. В таком случае частота графического процессора поднималась в район 1800 МГц.
Переходим к стенду. В этой серии тестов мы используем 8-ядерный 16-поточный процессор Ryzen 7 3700X, который работал в номинале, т.е. с динамическим разгоном до 4,4 ГГц.
Материнская плата у нас BIOSTAR X470GTQ RACING формата microATX. К ее достоинствам отнесем наличие слота M.2 и сразу шести портов SATA 6 Гбит/с для организации дисковой подсистемы.
Охлаждение процессора доверили башенному кулеру Vinga CL3007R. По заявлению производителя, он способен рассеять до 160 Вт тепла. То есть ему под силу остудить пыл любого из представителей семейств AMD Ryzen или Intel Core для массовых платформ.
Оперативку взяли непростую: скоростной 16-гигабайтный комплект DDR4-3733 PATRIOT Viper Steel. Общая высота модулей составляет 44,4 мм, что делает их совместимыми с большинством габаритных процессорных кулеров.
В качестве накопителей взяли пару твердотельников от ADATA. Под ОС и весь сопутствующий софт использовали быстрейший NVMe-накопитель XPG SX8200 PRO объемом 512 ГБ. Игры разместились на 2,5-дюймовом SU800 на 2 ТБ. Для него в CrystalDiskMark скорость чтения и записи несжимаемых данных достигала 566 и 527 МБ/с.
Чтобы не волноваться за надежное питания всех узлов, взяли «титановый» Seasonic PRIME TX-750. Он использует полностью модульную систему кабелей с удобными в укладке шлейфами и радует полным списком защит.
Все это добро собрали в Middle Tower-корпусе Vinga Tank. Согласно нашим замерам, он способен принять на борт видеокарты длиной 370 мм, кулеры высотой 164 мм и источники питания вплоть до 210 мм.
Поскольку шасси поставляется без вертушек, а комплектующие у нас не самые холодные, то добавили в систему пару 120-мм вертушек Vinga RGB FAN-06 с LED-подсветкой и долговечными FDB-подшипниками.
В качестве монитора использовали AOC U2790PQU. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Переходим к тестам. Мы будем Капитаном Очевидность, если скажем, что GTX 1070 Ti играючи справится с простыми онлайн-проектами вроде Dota 2 и CS: GO. Поэтому их количество в тесте сведено до минимума. С них и начнем.
World of Tanks легко и непринужденно катается на ультрах. Средняя скорость превышает 170 FPS и даже просадки не опускаются ниже 97 кадров/с. Самый раз, чтобы ощутить все прелести быстрых и юрких ЛТ.
В ARK Survival Evolved выставили высокий пресет графики и подняли масштаб рендера до 100%. В таком режиме получаем порядка 60 FPS в среднем. За тестовую сессию было несколько дропов ниже 30 кадров/с, но назвать их критичными нельзя. Геймплей вполне приятный.
В RUST выбрали практически максимальные настройки графики и погнали бегать по болоту, где обычно встречаются большие просадки. Но даже в таком случае получили среднюю скорость в районе 80 FPS. Показатели 1 и 0,1% Low находились в пределах 37-53 кадров/с.
В Rainbow Six Siege выставили ультра настройки и подняли масштаб рендера до 100%. Взамен получили почти 140 FPS в среднем и остальную статистику не ниже 90 кадров/с. Другими словами, ничего не мешает вести прицельный огонь на поражение.
Escape from Tarkov вполне играбельна на ультрах. В среднем получаем в районе 80 FPS. В местах появления ботов встречаются просадки чуть ниже 30 кадров/с, но дискомфорта это не вызывает. Геймплей остается играбельным.
PUBG при народном миксе ультра и низких настроек выдает в среднем за сотню FPS. И даже на Ясной поляне с большим скоплением игроков статистика не опускалась ниже 40 кадров/с. Есть все необходимое, чтобы насладиться игровым процессом.
В Fortnite обычно бегают на средних настройках, но с GTX 1070 Ti грех не попробовать эпический пресет графики. На выходе получаем геймплей со средней скоростью за сотню FPS. Мониторинг рапортует, что где-то были просадки ниже 30 кадров/с. Но у нас записана самый первый бой, да и по ощущениям нет никаких проблем.
С Apex Legends их также не возникло. 8-гигабайтный видеобуфер позволяет выкрутить все на максимум. В итоге имеем 120 FPS в среднем, и даже очень редкие события опускаются лишь чуть ниже 80 кадров/с.
Читать обзор полностью >>>Игровой тест NVIDIA GeForce GTX 1070 в актуальных играх 2020-го: мощный GPU и 8 ГБ счастья!
Четыре года назад, в мае 2016-го, NVIDIA представила две высокопроизводительные видеокарты 16-нм семейства Pascal – GeForce GTX 1080 и GTX 1070. Обе используют вариации чипа GP104 – у первой количество структурных блоков больше и частоты выше. К тому же GTX 1080 получила новую на то время память GDDR5X, а GTX 1070 досталась привычная GDDR5. NVIDIA компенсировала это снижением ценника на 35%. Радует, что в обоих случаях речь идет о 8 ГБ – они будут весьма кстати в некоторых современных проектах типа Apex Legends и DOOM Eternal.
Возобновлять знакомство с этой видеокартой будем на примере ASUS GeForce GTX 1070 Founders Edition. Для тестов нам ее предоставил магазин CompX.
Сама видеокарта интересна полностью эталонным дизайном, включая референсные частоты и систему охлаждения с единственным вентилятором радиального типа. В играх температура GPU достигала 83°C при критическом показателе в 94°C. В таком случае частота графического процессора поднималась в район 1700 МГц. Если нагрузка на видеокарту была ниже, и температура GPU опускалась в район 78°C, то частота поднималась выше 1800 МГц. Одним словом: хотите быстрее – берите с эффективным кулером и заводским разгоном, а эта видеокарта показывает базовый уровень возможностей GTX 1070.
Теперь познакомимся с тестовым стендом. Компоненты подбирались таким образом, чтобы с одной стороны они были достаточно мощными и не ограничивали потенциал видеокарты, а с другой – были ближе к народу.
На роль процессора пригласили 8-ядерный 16-поточный Ryzen 7 3700X. Базовая его частота составляет 3,6 ГГц, а динамическая может подниматься до 4,4 ГГц. Тепловой пакет заявлен на уровне 65 Вт.
Процессор установлен на microATX-плату BIOSTAR X470GTQ RACING с некогда топовым чипсетом X470. Ее можно купить почти за $100. Она поддерживает все три поколения Ryzen, включая серию 3000XT. Если BIOSTAR добавит поддержку чипов на Zen 3 – будет вообще бомба для желающих сэкономить.
Кулер тоже взяли без наворотов – Vinga CL3007R. Производитель просит $26 за башенную модель с пятью медными тепловыми трубками и 120-мм вентилятором на FDB-подшипнике.
Оперативная память представлена уже не самыми простыми модулями, зато без LED-подсветки. Взяли 16-гиговый комплект DDR4-3733 Patriot Viper Steel, чтобы не испытывать счастье в разгоне.
Дисковая подсистема представлена двумя твердотельниками от ADATA. Для системы и необходимых программ взяли быстрый M.2 XPG SX8200 PRO объемом 512 ГБ.
Все игры поместились на 2,5-дюймовый SU800 емкостью 2 ТБ. Да, он медленнее M.2 PCIe, зато с ним удобнее работать из-за большого количества самих игр. Приличные для SATA SSD скорости в районе 500 МБ/с гарантируют быструю загрузку уровней и подгрузку необходимых данных.
Временным приютом для всех компонентов стал Middle Tower корпус Vinga Tank со стеклянной боковой панелью. Он поддерживает установку плат формата EATX, видеокарт длиной до 380 мм, процессорных кулеров высотой до 165 мм и 240-мм СЖО. Сделан добротно и выглядит красиво.
Но в комплекте нет корпусных вентиляторов. Система у нас мощная – пришлось добавить два 120-мм Vinga RGB FAN-06 с красочной LED-подсветкой и долговечными FDB-подшипниками. На скорости 1100 об/мин мы их даже не услышали на фоне других компонентов.
На блоке питания лучше не экономить, особенно если железки нужно возвращать. Вот и взяли Seasonic PRIME TX-750 с сертификатом 80PLUS Titanium и солидным запасом по мощности. Его эффективность достигает 96% в пике. Добавьте к этому полностью модульную систему кабелей и 12 лет гарантии.
С выводом изображения помог монитор AOC U2790PQU. А с записью геймплеев без потери производительности справилась внешняя система с AVerMedia Live Gamer 4K.
Все, переходим к тесту. Большинство простых онлайн-проектов типа Dota 2, Warframe и Crossout точно без проблем пойдут на GTX 1070. Для наглядности оставили лишь парочку подобных игр. С них и начнем.
War Thunder на максималках выдает более 180 кадров/с в среднем. Сами понимаете, что ни о каких фризах и подлагиваниях речи быть не может. Иными словами, свалить на систему вину за проигрыш не получится – придется по старинке искать криворуких напарников. Если же таковых нет, а команда все равно проиграла, то у нас для вас плохие новости.
В World of Tanks выбрали ультра пресет и быструю ЛТ-ешку, чтобы геймплей получился более динамичным. Средняя скорость достигла 135 кадров/с, а показатель очень редких событий опустился до 86. Input lag в управлении? Статоры в видеоряде? Нет, не видели!
С ARK Survival Evolved не стали заморачиваться – выбрали просто высокий пресет и побежали изучать повадки динозавров на средней скорости за 60 FPS. На графике Frame Time есть неприятные пики, но в игре они не ощущались. Хотя может нам просто повезло в этой тестовой пробежке.
RUST порадовала еще больше. При почти максимальных настройках графики текущий фреймрейт постоянно находился выше 60 кадров/с. Даже прогулка на лошадке не вызвала никаких притормозок. Да и оперативки, как для RUST, потребовалось не много – менее 11 ГБ.
Неувядающая Rainbow Six Siege на ультрах в среднем выдает более 170 кадров/с, а статистика 0,1% Low опускается в район 120 кадров/с. PUBG и остальным шутерам такое даже и не снилось. Претензии могут возникнуть лишь к собственной реакции и умелым действиям противников.
Полет на ультрах в Escape from Tarkov прошел нормально. Под конец тестовой пробежки показатель очень редких событий просел ниже 30 FPS. В этом частично виноваты боты. В целом проблем с отзывчивостью управления или плавностью видеоряда не было.
PUBG при народном миксе ультра и низких настроек выдает в среднем более 120 FPS, без фризов и тормозов. Видеокарта позволяет поднять все настройки на ультра, но при игре на результат это будет больше мешать и отвлекать. А атмосферу праздника лучше создать более высоким местом в общем зачете.
Читать обзор полностью >>>Анонс видеокарты GIGABYTE GeForce GTX 1060 WINDFORCE 2X OC D5X 6G
Компания GIGABYTE проявляет наибольшую активность в сегменте видеокарт GeForce GTX 1060 c GDDR5X-памятью. На днях на ее официальном сайте замечено уже третью подобную новинку – GIGABYTE GeForce GTX 1060 WINDFORCE 2X OC D5X 6G (GV-N1060WF2OC-6GD 2.0).
Она создана на основе связки графического процессора NVIDIA GP104 (1280 CUDA-ядер) и 6 ГБ GDDR5X-памяти со 192-битной шиной. GPU может похвастать небольшим разгоном: в профиле «Gaming» его частотная формула составляет 1556 / 1771 МГц, а в «OC» – 1582 / 1797 МГц, вместо эталонных 1506 / 1708 МГц. А вот видеопамять работает на скромной эффективной частоте 8008 МГц.
Подсистема питания видеокарты GIGABYTE GeForce GTX 1060 WINDFORCE 2X OC D5X 6G использует 3+2-фазный дизайн (у эталонной версии – 3+1-фазный) и элементную базу Ultra Durable VGA. А для охлаждения внутренних компонентов применяется сравнительно небольшой кулер с одной композитной медной тепловой трубкой, алюминиевым радиатором и двумя 90-мм вентиляторами. Поддерживается переход в бесшумный пассивный режим работы при низкой нагрузке.
Набор внешних интерфейсов новинки включает в себя один DVI-D, один HDMI 2.0b и три DisplayPort 1.4. Для корректной работы требуется подключение одного 8-контактного коннектора PCIe. Размеры GIGABYTE GeForce GTX 1060 WINDFORCE 2X OC D5X 6G составляют 224 х 131 х 36 мм, а рекомендованный ценник достигает $249,99.
https://www.techpowerup.com
https://www.gigabyte.com
Сергей Будиловский
Видеокарта GIGABYTE GeForce GTX 1060 WINDFORCE OC D5X 6G с GDDR5X-памятью и заводским разгоном
В арсенале компании GIGABYTE появилась вторая модель серии GeForce GTX 1060 с GDDR5X-памятью – GIGABYTE GeForce GTX 1060 WINDFORCE OC D5X 6G (GV-N1060WF3OC-6GD). Она может похвастать заводским разгоном своего графического процессора NVIDIA GP104 (1280 CUDA-ядер): в профиле «Gaming» его частоты составляют 1556 / 1771 МГц, а в «OC» – 1582 / 1797 МГц. Эталонными считаются показатели 1506 / 1708 МГц. В свою очередь 6 ГБ GDDR5X-памяти работает на эффективной скорости 8008 МГц. При 192-битной шине пропускная способность достигает 192 ГБ/с.
Охлаждение внутренних компонентов возложено на фирменный кулер WINDFORCE 3X. Его конструкция включает в себя три медные композитные тепловые трубки, двухсекционный алюминиевый радиатор и три осевых вентилятора с поддержкой технологии 3D Active Fan (приостанавливает вертушки при низкой нагрузке). На обороте есть опорная пластина жесткости.
Среди других преимуществ и особенностей GIGABYTE GeForce GTX 1060 WINDFORCE OC D5X 6G следует выделить:
- усиленную 6+1-фазную подсистему питания (референсный дизайн – 3+1 фаза) с элементной базой Ultra Durable VGA;
- индикатор, сигнализирующий о проблемах с питанием;
- пять видеоинтерфейсов: три DisplayPort, HDMI 2.0b и DVI-D;
- 8-контактный коннектор PCIe для дополнительного питания;
- удобное и функциональное ПО AORUS Engine для мониторинга и настройки параметров.
Размеры новинки составляют 280 х 114 х 41 мм. Ценник пока не сообщается.
https://www.gigabyte.com
Сергей Будиловский
Анонс двух компактных видеокарт серии ZOTAC GeForce GTX 1060 с 6 ГБ GDDR5X-памяти
Компания ZOTAC подготовила сразу две новинки – ZOTAC GeForce GTX 1060 6GB GDDR5X (ZT-P10620A-10M) и ZOTAC GeForce GTX 1060 AMP Edition 6GB GDDR5X (ZT-P10620C-10M). Обе характеризуются компактными размерами (211 х 125 х 41 мм) и аналогичным дизайном кулер с несколькими медными тепловыми трубками, алюминиевым радиатором и парой 90-мм вентиляторов.
В основе новинок находится графический процессор NVIDIA GP104 с поддержкой 1280 CUDA-ядер, 80 текстурных и 48 растровых блоков, а также 6 ГБ GDDR5X-памяти со 192-битной шиной. Модель ZOTAC GeForce GTX 1060 6GB GDDR5X придерживается эталонных показателей (1506 / 1708 МГц для GPU и 8 ГГц для памяти), а ZOTAC GeForce GTX 1060 AMP Edition 6GB GDDR5X радует заводским разгоном (1607 / 1835 МГц для GPU и 10 ГГц для памяти).
Набор внешних интерфейсов обоих представителей серии ZOTAC GeForce GTX 1060 включает в себя три DisplaPort 1.4, один HDMI 2.0b и один DL-DVI. Для питания производитель рекомендует блок мощностью от 500 Вт с одним 8-контактным коннектором. И еще важный момент: поддержка технологии NVIDIA SLI отсутствует, несмотря на наличие соответствующих разъемов.
Стоимость новинок и дата их появления в продаже пока не сообщается.
https://www.zotac.com
Сергей Будиловский
Видеокарта GALAX GeForce GTX 1060 OC 6GB с GDDR5X-памятью
В арсенале GALAX появилась новая видеокарта – GALAX GeForce GTX 1060 OC 6GB (60NRJ7DSV8OC). От обычных 6-гигабайтных версий она отличается двумя элементами. Во-первых, в роли графического процессора используется чип NVIDIA GP104 вместо GP106, хотя конфигурация не изменилась: 1280 CUDA-ядер, 80 текстурных и 48 растровых блоков. Правда, тактовые частоты чуть выше эталонных: 1518 / 1733 вместо 1506 / 1708 МГц.
Во-вторых, вместо микросхем GDDR5 используются GDDR5X. При этом объем (6 ГБ), эффективная частота (8000 МГц), разрядность шины (192 бит) и пропускная способность (192 ГБ/с) не изменились. Для охлаждения памяти и других компонентов используется двухслотовый кулер с минимум двумя медными тепловыми трубками, алюминиевым радиатором и двумя осевыми вентиляторами.
В наборе внешних интерфейсов GALAX GeForce GTX 1060 OC 6GB есть три порта: DVI, HDMI и DisplayPort. Питание к внутренним узлам подводится с помощью разъема PCI Express 3.0 x16 и дополнительного 6-контактного PCIe. Размеры новинки составляют 228 х 131,5 х 41,5 мм, а ценник не сообщается.
http://www.galax.com
Сергей Будиловский
Анонс видеокарты MSI GeForce GTX 1060 Armor 6GD5X OC с заводским разгоном
Компания MSI анонсировала собственную версию видеокарты GeForce GTX 1060 с 6 ГБ GDDR5X-памяти. Модель MSI GeForce GTX 1060 Armor 6GD5X OC построена на базе графического процессора NVIDIA GP104 с поддержкой 1280 CUDA-ядер, 80 текстурных и 48 растровых блоков. Базовая его частота составляет 1544 МГц, а динамическая – 1759 МГц, что слегка выше эталонных 1506 / 1708 МГц. А эффективная скорость видеопамяти заявлена на уровне 8008 МГц, что соответствует показателю обычных GeForce GTX 1060 с 6 ГБ GDDR5.
Охлаждение внутренних компонентов возложено на фирменный кулер Armor 2X. Его конструкция включает в себя три никелированные медные тепловые трубки, алюминиевый радиатор и два осевых вентилятора с дизайном MSI Torx. При низких нагрузках на GPU кулер переходит в пассивный режим благодаря технологии MSI ZeroFrozr.
В наборе внешних интерфейсов MSI GeForce GTX 1060 Armor 6GD5X OC есть три DisplayPort, один HDMI и один DVI-D. А для корректной работы необходимо подключение одного 6-контактного и одного 8-контактного коннектора PCIe. Габариты новинки составляют 276 х 140 х 41 мм, а масса – 846 г. Стоимость пока не сообщается.
https://www.msi.com
https://www.techpowerup.com
Сергей Будиловский
Видеокарты серии NVIDIA GeForce GTX 1060 с GDDR5X-памятью используют чип GP104
Графический процессор NVIDIA GP106-400, на котором базируются 6-гигабайтные версии видеокарты NVIDIA GeForce GTX 1060, не рассчитан на поддержку GDDR5X-памяти. Поэтому во время анонса GTX 1060 с GDDR5X возникли подозрения, что в основе находится не GP106, а GP104.
Первыми подтверждение этой догадки обнаружили китайские энтузиасты, разобравшие видеокарту iGame GTX 1060 U-TOP V2. Внутри нее находится версия GPU NVIDIA GP104 с поддержкой 1280 CUDA-ядер, хотя полноценный вариант NVIDIA GP104-400 (GTX 1080) использует 2560 CUDA-ядер. Остальные преднамеренно заблокированы, повреждены в процессе производства или сочетают обе эти причины.
Также эта видеокарта получила шесть чипов GDDR5X-памяти, 8+2-фазный дизайн подсистемы питания и 3-вентиляторный кулер. В верхней части сохранились даже коннекторы для реализации технологии NVIDIA SLI. Правда, не факт, что они работают, ведь остальные версии GTX 1060 полностью лишены ее поддержки.
Первые видеокарты серии NVIDIA GeForce GTX 1060 с GDDR5X-памятью уже засветились на сайтах GIGABYTE и Palit. Большее их количество появится в ближайшее время, ведь они задумывались в качестве ответа на AMD Radeon RX 590, релиз которой ожидается сегодня.
https://www.techpowerup.com
https://videocardz.com
Сергей Будиловский
Видеокарта GIGABYTE GeForce GTX 1060 G1 Gaming D5X 6G с поддержкой GDDR5X-памяти
Компания GIGABYTE одной из первых анонсировала видеокарту серии NVIDIA GeForce GTX 1060 с GDDR5X-памятью вместо GDDR5. Речь идет о модели GIGABYTE GeForce GTX 1060 G1 Gaming D5X 6G GV-N1060G1 GAMING-6GD 3.0). Название ее графического процессора не сообщается, как и его частоты, но он по-прежнему использует 1280 CUDA-ядер, 80 текстурных блоков и 48 растровых. То есть изменений по сравнению с обычной 6-гигабайтной версией GeForce GTX 1060 нет, хотя некоторые аналитики предполагают, что это не привычный чип NVIDIA GP106-400, а урезанная версия NVIDIA GP104.
О видеопамяти новинки известно не много. 6 ГБ GDDR5X со 192 битной шиной. Пропускная способность в спецификации указана на уровне 192 ГБ/с, то есть частота составляет стандартные 8 ГГц. Но это может быть ошибкой при заполнении страницы, ведь какой тогда смысл ставить новую память с той же тактовой частотой, что и у существующих аналогов с GDDR5?
За охлаждение внутренних компонентов видеокарты GIGABYTE GeForce GTX 1060 G1 Gaming D5X 6G отвечает фирменный кулер WINDFORCE 3X. Он использует в своей структуре 2-секционный алюминиевый радиатор, три композитные медные тепловые трубки с прямым контактом к поверхности GPU и три вентилятора. При низких нагрузках система охлаждения переходит в пассивный режим работы.
Среди других преимуществ и особенностей новинки можно выделить:
- усиленную 6+1-фазную подсистему питания с элементной базой Ultra Durable VGA;
- использование сортировочного процесса GPU Gauntlet для выбора самых качественных графических процессоров;
- поддержку LED-подсветки RGB Fusion;
- заводской разгон;
- эталонный набор внешних интерфейсов (3 х DisplayPort 1.4, 1 x HDMI 2.0b, 1 x DVI-D).
Для корректной работы новинка требует подключения одного 8-контактного коннектора PCIe. Ее размеры составляют 280 х 114 х 41 мм. Стоимость и дата начала продаж видеокарты GIGABYTE GeForce GTX 1060 G1 Gaming D5X 6G пока не сообщаются.
https://www.gigabyte.com
Сергей Будиловский
Готовится к выходу 6-гигабайтная видеокарта NVIDIA GeForce GTX 1060 с GDDR5X-памятью
Компания AMD и ее партнеры в ближайшее время представят среднеценовые видеокарты серии Radeon RX 590 на 12-нм GPU AMD Polaris 30. Новинка обещает небольшой бонус производительности за счет повышения тактовых частот.
В противовес NVIDIA решила усилить 6-гигабайтную видеокарту GeForce GTX 1060, оснастив ее микросхемами GDDR5X-памяти. Эта версия уже упоминается на официальном сайте, правда, частота памяти там еще значится старая (8 ГГц).
Наиболее вероятным является использование GDDR5X-микросхем с эффективной скоростью 10 ГГц. При 192-битной шине они обеспечивают пропускную способность в 240 ГБ/с (192 ГБ/с у текущей модели). Микросхемы с тактовой частотой 11 ГГц (пропускная способность – 264 ГБ/с) мы вряд ли увидим, поскольку они довольно дорогие.
Также возможны изменения в структуре GPU: место NVIDIA GP106 может занять урезанный вариант NVIDIA GP104 с большим количеством CUDA-ядер и текстурных блоков. Но пока финальные характеристики не сообщаются. Дебют 6-гигабайтной версии NVIDIA GeForce GTX 1060 с GDDR5X-памятью должен состоятся в ближайшем будущем. О замене памяти в 3-гигабайтной GTX 1060 пока не сообщается.
https://www.techpowerup.com
https://www.nvidia.com
Сергей Будиловский
Готовится к выходу видеокарта NVIDIA GeForce RTX 2070 Ti
В прошлом поколении видеокарт модели NVIDIA GeForce GTX 1080 и GTX 1070 используют разные версии одного и того же графического процессора NVIDIA GP104. С приходом микроархитектуры Turing ситуация изменилась: NVIDIA GeForce RTX 2080 получила чип TU104, а в основе NVIDIA GeForce RTX 2070 уже находится модель TU106 в максимальной конфигурации.
Вскоре между ними появится связующее звено в виде видеокарты NVIDIA GeForce RTX 2070 Ti. Она закроет громадный ценовой диапазон между $499 (минимальная рекомендованная стоимость партнерских GeForce RTX 2070) и $699 (GeForce RTX 2080).
Логично предположить, что новинка построена на базе урезанной версии GPU NVIDIA TU104. Модель RTX 2080 имеет в своем составе 2944 CUDA-ядер, а RTX 2070 – 2304. Поэтому у RTX 2070 Ti может быть в районе 2560 CUDA-ядер. Подсистемы видеопамяти у представленных новинок одинаковые, следовательно, и RTX 2070 Ti должна получить 8 ГБ GDDR6-памяти с эффективной частотой 14 ГГц и 256-битной шиной.
Релиз NVIDIA GeForce RTX 2070 Ti должен состоятся до конца октября, поэтому скоро узнаем не только все ключевые параметры, но и рекомендованную стоимость.
https://www.techpowerup.com
Сергей Будиловский
Обзор и тестирование видеокарты ASUS Dual GeForce RTX 2080 OC edition: шаг в будущее
В конце лета NVIDIA сделала то, что от нее ожидали с начала весны – официально анонсировала новую линейку видеокарт. По мнению компании, она настолько инновационна, что даже заслуживает новой приставки «RTX» вместо привычной «GTX». Первые ее представители уже поступили в продажу, что позволило и нам получить модель для тестов. Но для начала немного теории.
Для более удобного восприятия информации приводим сводную таблицу видеокарт NVIDIA:
Модель |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce RTX 2070 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce RTX 2080 |
NVIDIA GeForce GTX 1080 Ti |
NVIDIA GeForce RTX 2080 Ti |
Техпроцесс, нм |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
GPU |
NVIDIA GP104-200 |
NVIDIA TU106 |
NVIDIA GP104-400 |
NVIDIA TU104-400A |
NVIDIA GP102-350 |
NVIDIA TU102-300A |
Микроархитектура |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
Площадь кристалла, мм2 |
314 |
445 |
314 |
545 |
471 |
754 |
Количество транзисторов, млрд. |
7,2 |
10,8 |
7,2 |
13,6 |
12 |
18,6 |
Количество SM-блоков |
15 |
36 |
20 |
46 |
28 |
68 |
Количество CUDA-ядер |
1920 |
2304 |
2560 |
2944 |
3584 |
4352 |
Количество CUDA-ядер в SM-блоке |
128 |
64 |
128 |
64 |
128 |
64 |
Количество текстурных блоков |
120 |
144 |
160 |
184 |
224 |
272 |
Количество растровых блоков |
64 |
64 |
64 |
64 |
88 |
88 |
Количество ядер Tensor |
- |
288 |
- |
368 |
- |
544 |
Количество ядер RT |
- |
36 |
- |
46 |
- |
68 |
Объем кэша L2, КБ |
2048 |
4096 |
2048 |
4096 |
3072 |
6144 |
Базовая / динамическая частота GPU, МГц |
1506 / 1683 |
1410 / 1620 |
1607 / 1733 |
1515 / 1710 |
1480 / 1582 |
1350 / 1545 |
Базовая / динамическая частота GPU Founders Edition, МГц |
1506 / 1683 |
1410 / 1710 |
1607 / 1733 |
1515 / 1800 |
1480 / 1582 |
1350 / 1635 |
Тип видеопамяти |
GDDR5 |
GDDR6 |
GDDR5X |
GDDR6 |
GDDR5X |
GDDR6 |
Объем, ГБ |
8 |
8 |
8 |
8 |
11 |
11 |
Эффективная частота памяти, МГц |
8 008 |
14 000 |
10 008 |
14 000 |
11 008 |
14 000 |
Разрядность шины, бит |
256 |
256 |
256 |
256 |
352 |
352 |
Пропускная способность, ГБ/с |
256,3 |
448 |
320 |
448 |
484 |
616 |
Вычислительная мощность FP32 (Founders Edition), TFLOPS |
6,5 |
7,5 (7,9) |
8,9 |
10 (10,6) |
11,3 |
13,4 (14,2) |
TDP (Founders Edition), Вт |
150 |
175 (185) |
180 |
215 (225) |
250 |
250 (260) |
Рекомендованная стоимость на старте продаж (партнерские / Founders Edition), $ |
379 / 449 |
499 / 599 |
599 / 699 |
699 / 799 |
699 |
999 / 1199 |
Мы понимаем, что выкладываем обзор по новинке с опозданием, поэтому нет особого смысла в глубоком погружении в микроархитектурные особенности: кому интересно – уже прочел все подробности на других ресурсах, а кому не интересно – все равно пропустит этот блок и сразу перейдет к знакомству с видеокартой. Поэтому лишь кратко остановимся на ключевых инновациях.
Техпроцесс
На бумаге видим переход от 16-нм технологии до 12-нм, но производитель самих чипов, компания TSMC, открыто заявляет, что ее техпроцесс 12-нм FFN является слегка улучшенной версией 16-нм FinFET+. Поэтому в реальности плотность размещения транзисторов возросла незначительно. Например, для NVIDIA TU104 она увеличилась на 9% по сравнению с NVIDIA GP104. Основной же рост числа транзисторов произошел благодаря увеличению общей площади кристаллов.
Микроархитектура
Блок-схема графического процессора NVIDIA TU104
Важные изменения коснулись распределения структурных блоков внутри графического процессора. По-прежнему в основе находятся вычислительные кластеры GPC (Graphics Processing Cluster), но по сравнению с NVIDIA Pascal имеем ряд нововведений:
- каждый SM-модуль внутри GPC получил по одному ядру RT;
- каждый SM-модуль внутри GPC получил по 8 тензорных ядер (Tensor);
- количество CUDA-ядер в каждом SM-модуле уменьшилась со 128 до 64;
- появилась возможность одновременного параллельного выполнения операций с целочисленными (INT32) и вещественными (FP32) данными, хотя раньше вычислительные блоки были универсальными, поэтому за такт обрабатывались либо первые, либо вторые данные;
- в 2 раза увеличился объем кэш-памяти L2;
- до 2,7 раз вырос объем кэш-памяти L1, в 2 раза увеличилась ее пропускная способность и существенно снизилась задержка доступа.
Тензорные ядра
Тензорные ядра (Tensor Core) в микроархитектуре Turing используются для перемножения двух матриц размером 4 х 4 и складывания полученного результата с третьей матрицей аналогичного размера. При этом сами матрицы могут включать в себя целые числа или числа с запятой. Эта простая с виду операция лежит в основе обучения нейронных сетей.
В играх на основе тензорных ядер будет реализована технология сглаживания Deep Learning Super Sampling (DLSS). По уровню качества финального изображения она превосходит 64-кратное MSAA, но при этом создает меньшую нагрузку на систему. Однако поддержку DLSS необходимо реализовать еще и на уровне игр. Если таковая имеется, то существенно повышается скорость видеоряда.
RT-ядра
Трассировка лучей в режиме реального времени – это не новинка. Она уже многие годы используется в архитектуре для создания фотореалистичных интерактивных проектов зданий либо интерьеров. Также ее активно применяют в киноиндустрии, но там рендеринг каждого кадра занимает уйму времени и требует большого объема вычислительных ресурсов. Игры же выделяются вариативным геймплеем и даже NVIDIA Turing не сможет в полной мере просчитать все лучи в реальном времени, но первый шаг в этом направлении сделан с помощью RT-ядер.
Они помогают системе определить, пересекает ли виртуальный луч света определенный пиксель изображения или нет. А после этого просчитывается, насколько меняется его освещенность и как это отображается на соседних пикселях.
Сложность этой задачи такова, что все вычислительные ресурсы видеокарты NVIDIA GeForce GTX 1080 Ti обеспечивают производительность в 1,1 гигалучей за секунду (Giga Rays/s). А всего 68 RT-ядер видеокарты NVIDIA GeForce RTX 2080 Ti выдают более 10 гигалучей в секунду. При этом остальные блоки освобождаются для выполнения других задач. Кстати, тензорные ядра также участвуют в технологии трассировки лучей: они используются для подавления сопутствующих шумов.
К сожалению, такой производительности недостаточно для полноценной трассировки лучей в режиме реального времени, поэтому в NVIDIA Turing появился гибридный метод рендеринга: в некоторых эффектах может использоваться растеризация, а в других – трассировка лучей. Но, опять же, ее поддержку должны предусмотреть сами разработчики игр.
Производительность и модели заливки
Улучшения в структуре SM-модулей и архитектуре памяти, а также увеличение регистрового файла привели к 50%-ому росту производительности шейдерных блоков.
Кроме того, NVIDIA предлагает использовать новые модели заливки (Shading Model):
- Mesh Shading – предлагает заменить тесселяцию, вершинные и геометрические шейдеры на более универсальные Task Shader и Mesh Shader, чтобы ускорить обработку сложных сцен с большим количеством объектов.
- Variable Rate Shading (VRS) – позволяет разбить экран на зоны размером 16 х 16 пикселей, и внутри каждой зоны гибко менять плотность выборки пикселей. Например, если конкретная зона не нуждается в точном определении цвета пикселей, то их можно объединить в разных вариациях (1 х 2, 2 х 1, 2 х 2, 4 х 2, 2 х 4, 4 х 4), чтобы снизить нагрузку на систему. Это целесообразно для закраски изображения на периферии. А для центральной части используется более точная модель 1 х 1.
- Texture-Space Sharing – сохраняет результат заливки в памяти для последующего использования, без необходимости повторного просчета.
- Multi-View Rendering (MVR) – является дальнейшим развитием технологии Simultaneous Multi-Projection (SMP). Если SMP за один проход может отрисовать проекцию полигонов на экран с двух точек обзора, то MVR выполняет то же самое для четырех точек. Эта технология будет востребована, например, в новых поколениях VR-шлемов.
GDDR6
NVIDIA Turing первой использует видеопамять стандарта GDDR6 с пропускной способностью 14 Гбит/с на контакт. Графические процессоры поддерживают по одному 8-гигабитному чипу на каждый 32-битный контроллер памяти. В составе NVIDIA TU104 и TU106 есть по 8 контроллеров, а NVIDIA TU102 получил 11. Соответственно, имеем либо 8, либо 11 ГБ памяти. Общая пропускная способность выросла до 616 ГБ/с. Для сравнения напомним, что у HBM2 в составе AMD Radeon RX Vega 64 этот показатель достигает 484 ГБ/с. Добавьте к этому улучшенные алгоритмы компрессии данных, и вы получите 50%-ый рост эффективной пропускной способности по сравнению с предшественниками.
NVLink
Один канал NVLink с 8 линиями имеет пиковую пропускную способность в 25 ГБ/с в одном направлении (50 ГБ/с в двух направлениях). Этого достаточно для передачи кадрового буфера с разрешением 8K. Для двух каналов пропускная способность повышается до 50 и 100 ГБ/с соответственно. Этого хватит для режима 8K Surround.
Таким образом NVIDIA обеспечила мощный толчок для дальнейшего развития технологии NVIDIA SLI, но реализовать ее можно будет только в видеокартах NVIDIA GeForce RTX 2080 и RTX 2080 Ti, и лишь в режиме 2-Way для двух адаптеров. Всем желающим придется дополнительно потратиться на новый мостик NVLink Bridge.
Интерфейсы вывода изображения
Позаботилась компания и о поддержке мониторов со сверхвысоким разрешением. Для этого в стандартном наборе есть порт HDMI 2.0b с максимальным разрешением 4K @ 60 Гц, три DisplayPort 1.4a (8K @ 60 Гц) и USB Type-C (VirtualLink) для шлемов виртуальной реальности нового поколения.
Стримерам также лучше смотреть в сторону видеокарт NVIDIA Turing благодаря улучшенной поддержке кодирования HEVC и H.264, а также декодирования VP9 и HEVC.
GPU Boost 4.0
И напоследок теоретического раздела вспомним о технологии GPU Boost 4.0. Новая версия динамического оверклокинга предлагает дополнительные параметры для тонкой настройки разгона. В спецификации по-прежнему указывается некое среднее значение скорости, а не максимальное. Если система охлаждения и питания позволяют, то реальная скорость динамического разгона буде выше той, которая обозначена в спецификации.
Также разработан инструмент NVIDIA Scanner, поддержка которого уже добавлена в утилиту EVGA Precision X1. Он позволяет просканировать вашу видеокарту в автоматическом режиме и определить максимальные значение тактовой частоты и необходимые для этого рабочие напряжения. Очень удобно, особенно для новичков-любителей.
ASUS Dual GeForce RTX 2080 OC edition
Теперь давайте перейдем от теории к практике на примере видеокарты ASUS Dual GeForce RTX 2080 OC edition (DUAL-RTX2080-O8G). В первую очередь она выделяется обновленным 2,7-слотовым кулером и заводским разгоном графического процессора. Об остальных ее возможностях расскажем далее.
Спецификация
Модель |
ASUS Dual GeForce RTX 2080 OC edition (DUAL-RTX2080-O8G) |
|
Техпроцесс, нм |
12 |
|
GPU |
NVIDIA TU104-400A |
|
Микроархитектура |
NVIDIA Turing |
|
Количество CUDA-ядер |
2944 |
|
Количество текстурных блоков |
184 |
|
Количество растровых блоков |
64 |
|
Базовая / динамическая частота GPU, МГц |
«Gaming» |
1515 / 1800 |
«OC» |
1515 / 1830 |
|
Тип видеопамяти |
GDDR6 |
|
Объем, ГБ |
8 |
|
Эффективная частота, МГц |
14 000 |
|
Разрядность шины, бит |
256 |
|
Пропускная способность, ГБ/с |
448 |
|
Внутренний интерфейс |
PCI Express 3.0 x16 |
|
Внешние интерфейсы |
1 x HDMI 2.0b |
|
Дополнительные коннекторы питания |
1 х 8-контактный |
|
Рекомендованная мощность блока питания, Вт |
650 |
|
Размеры, мм |
268 х 114 х 58 |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или с сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Новинка поставляется в красочной картонной упаковке с информативной полиграфией, которая отображает ключевые преимущества графического адаптера. На лицевой стороне упоминается о бесплатной 6-месячной премиум-подписке на сервис WTFast Gamers Private Network. Он автоматически оптимизирует путь прохождения игровых пакетов между компьютером пользователя и игровым сервером для минимизации их потери и уменьшения среднего времени отклика (ping).
На нижнюю сторону производитель поместил рекомендации к блоку питания: минимальная его мощность должна составлять 650 Вт, а в наборе коннекторов желательно иметь один 6-контактный и один 8-контактный PCIe. Эти рекомендации традиционно указаны с запасом, поскольку производитель не может предсказать финальную конфигурацию пользовательской системы. Реальное энергопотребление нашего тестового стенда с этой видеокартой указано на последнем графике блока тестирования.
В коробке мы обнаружили только руководство пользователя и диск с ПО.
Внешний вид
Для видеокарт серии ASUS Dual характерным является сочетание черно-белой цветовой схемы, но если раньше преобладал белый цвет, то теперь – черный. Адаптер выглядит стильно, немного агрессивно и не скучно благодаря множеству дизайнерских элементов на пластиковом кожухе.
На обратной стороне приютилась металлическая пластина жесткости. Она поддерживает массивную конструкцию системы охлаждения, предотвращая изгиб или повреждение печатной платы, а также участвует в пассивном отводе излишков тепла. Один из крепежных винтов прикрыт наклейкой, поэтому снять пластину жесткости без потери гарантии не получится.
Разобрать видеокарту ASUS Dual GeForce RTX 2080 OC edition нам не разрешили, поэтому заглянуть внутрь и показать вам подсистему питания с элементной базой мы не можем. Даже на официальном сайте отсутствует эта информация.
В наборе же внешних интерфейсов используется стандартный перечень портов:
- 1 x HDMI 2.0b
- 3 x DisplayPort 1.4a
- 1 x USB Type-C
Максимальное разрешение составляет 7680 х 4320.
В верхней части возле интерфейсной панели находится традиционный разъем для реализации технологии NVIDIA SLI. Правда, теперь для этого подходят только мостики NVLink Bridge. В младших моделях (NVIDIA GeForce RTX 2070 и других) поддержка этой технологии отсутствует.
Для корректной работы видеокарты ASUS DUAL-RTX2080-O8G необходимо подключить два дополнительных коннектора питания PCIe: один 6-контактный и один 8-контактный. Вместе со слотом PCIe 3.0 x16 они смогут подать до 300 Вт мощности. Этого хватит даже для оверклокерских экспериментов.
В основе ASUS DUAL-RTX2080-O8G находится графический процессор NVIDIA TU104-400A с поддержкой 2944 CUDA-ядер. Тестирование проводилось в режиме «Gaming», который используется по умолчанию. Он характеризуются разгоном динамической частоты GPU с эталонных 1710 до 1800 МГц. А вот базовая скорость осталась на референсном уровне.
Подсистема видеопамяти набрана с помощью GDDR6-микросхем компании Micron общим объемом 8 ГБ. Эффективная частота составляет 14 ГГц, что при 256-битной шине дает пропускную способность в 448 ГБ/с.
На официальной страничке указано о наличии профиля «OC» с разгоном динамической частоты GPU до 1830 МГц. Но там не упоминается режим «Silent», который также есть в фирменной утилите GPU Tweak II. Он снижает динамическую скорость до 1770 МГц. Эффективная частота видеопамяти во всех случаях остается неизменной.
Подсветка в конструкции видеокарты ASUS DUAL-RTX2080-O8G не предусмотрена.
Система охлаждения
Кулер – это одно из ключевых изменений в дизайне нового представителя серии ASUS Dual. Он занимает 2,7 слота расширения, а общие габариты графического адаптера составляют 268 х 114 х 58 мм. Поэтому перед покупкой обязательно убедитесь, что в корпусе достаточно места для новинки.
Конструкция системы охлаждения состоит из массивного алюминиевого радиатора без тепловых трубок, но с большим основанием. На обороте приютилась пластина жесткости, которая также принимает участие в отводе тепла. За активный обдув отвечает пара 88-мм осевых вентиляторов с дизайном Wing-blade и защитой от пыли (IP5X).
В автоматическом режиме работы системы охлаждения, при максимальной нагрузке температура графического процессора достигала 78°С. Вентиляторы вращались на 60% (1989 об/мин) от своей максимальной скорости, создавая очень тихий фоновый шум, который абсолютно не мешал работе. Напомним, что критической для GPU считается температура в 88°С.
После принудительной установки скорости вентиляторов на 100% (3259 – 3239 об/мин), температура GPU опустилась до более приятных 63°С. Шум превысил средний уровень и перестал быть комфортным для постоянного использования.
В режиме простоя вентиляторы прекратили свою работу благодаря технологии 0dB, а температура графического процессора уменьшилась до 48°С. В активный режим пропеллеры возвращались лишь тогда, когда температура GPU поднималась до 56°С.
Система охлаждения видеокарты ASUS Dual GeForce RTX 2080 OC edition даже в автоматическом режиме удержала температуру графического процессора в рабочих пределах, но до критической отметки осталось всего 10°С. При максимальной скорости вращения вентиляторов у нее есть хороший запас прочности, но тогда придется жертвовать акустическим комфортом. Никаких посторонних звуков в виде раздражающего писка дросселей в процессе тестирования замечено не было.
Видеокарты NVIDIA GeForce RTX 2070 будут доступны с 17 октября
С помощью Twitter-аккаунта компания NVIDIA сообщила дату начала продаж видеокарт линейки NVIDIA GeForce RTX 2070. Их можно будет приобрести с 17 октября. Ценники партнерских версий для рынка США стартуют с отметки $499, а за вариант NVIDIA GeForce RTX 2070 Founders Edition придется выложить $599. В свое время вилка цен для NVIDIA GeForce GTX 1070 составляла $379 / 449, то есть новинка на $120 / 150 дороже своего предшественника.
В первую очередь причина кроется в переходе на более производительную микроархитектуру NVIDIA Turing и интеграция тензорных и RT-ядер для поддержки технологий RTX и DLSS. Первая повышает реалистичность изображения, а вторая – уровень производительности. Хотя обе должны поддерживаться самой игрой. А вот поддержки технологии NVIDIA SLI новинка лишена.
Еще одно важное ее отличие – использование чипа NVIDIA TU106 в максимальной его конфигурации, в то время как NVIDIA GeForce RTX 2080 / 2080 Ti имеют в своем составе урезанные версии NVIDIA TU104 / TU102. Предшественник также использовал предтоповый чип NVIDIA GP104, а не GP106.
Сводная таблица технических характеристик видеокарт линейки NVIDIA GeForce RTX 20:
Преемники видеокарт NVIDIA GeForce GTX 1060 и GTX 1050 появятся лишь в 2019 году
Представитель компании ASUS в интервью PC Watch заявил, что NVIDIA может выпустить замену для NVIDIA GeForce GTX 1060 и GTX 1050 только в 2019 году. Такой ход продиктован комбинацией двух факторов: большими складскими запасами видеокарт текущего поколения и пока недостаточным объемом новых среднеценовых GPU.
В новой линейке NVIDIA отошла и от привычной схемы, когда две высокопроизводительные видеокарты используют один дизайн графического процессора. Например, NVIDIA GM204 лег в основу GTX 980 и GTX 970, а на базе NVIDIA GP104 построены GTX 1080 и GTX 1070. В новой линейке чип NVIDIA TU104 используется для RTX 2080, а NVIDIA TU106 – для RTX 2070. Таким образом, неидеальные варианты TU106, которые не вписываются под спецификацию RTX 2070, могут быть использованы для преемника GTX 1060.
Еще одна интересная деталь: изначально микроархитектура Turing создавалась с прицелом на 10-нм технологию производства Samsung, но потом руководство решило переработать ее под более обкатанный 12-нм техпроцесс для уменьшения процента брака на выходе. Поэтому в будущем может появиться новое поколение GPU на той же микроархитектуре Turing, но по нормам 8-нм технологии. Такой себе аналог концепции Intel Tick-Tock с заменой микроархитектуры в одном поколении и переходом на более тонкий техпроцесс в следующем.
https://www.techpowerup.com
https://pc.watch.impress.co.jp
Сергей Будиловский
Обзор и тестирование видеокарты ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition: производительность и надежность
До этого момента у нас на тестировании были исключительно младшие видеокарты линейки ASUS Cerberus, и вот настал момент взглянуть на высокопроизводительные решения, одним из которых является ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition (CERBERUS-GTX1070TI-A8G). Конечно же, модификации NVIDIA GeForce GTX 1070 Ti нельзя отнести к недорогим и доступным большинству видеокартам, однако рассматриваемая версия на данный момент является одним из самых доступных вариантов в этом сегменте от ASUS со средним ценником в $645 в отечественных онлайн-магазинах. Давайте же выясним, достойна ли она вашего внимания, либо лучше доплатить и приобрести более дорогую версию.
Спецификация
Модель |
ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition (CERBERUS-GTX1070TI-A8G) |
|
GPU |
NVIDIA GP104-300-A1 |
|
Микроархитектура |
NVIDIA Pascal |
|
Техпроцесс, нм |
16 |
|
Количество CUDA-ядер |
2432 |
|
Номинальная/динамическая частота графического ядра, МГц |
«Gaming» |
1607 / 1683 |
«OC» |
1670 / 1746 |
|
Частота памяти (эффективная), МГц |
2002 (8008) |
|
Объем памяти, ГБ |
8 |
|
Тип памяти |
GDDR5 |
|
Ширина шины памяти, бит |
256 |
|
Пропускная способность памяти, ГБ/с |
256,3 |
|
Тип шины |
PCI Express 3.0 x16 |
|
Интерфейсы вывода изображения |
1 x DVI-D 2 x HDMI 2.0b 2 x DisplayPort 1.4 |
|
Минимальная мощность блока питания, Вт |
500 |
|
Дополнительные разъемы питания PCIe |
1 x 8-контактный |
|
Размеры с официального сайта (измеренные в нашей тестовой лаборатории), мм |
270 х 120,8 x 51 (280 x 119) |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Видеокарта поставляется в коробке с приятной полиграфией в темных тонах. На обратной стороне традиционно присутствует описание ключевых достоинств продукта. Отдельно отмечено наличие в комплекте кода активации бесплатной 6-месячной премиум-подписки на сервис WTFast Gamers Private Network. Он автоматически оптимизирует путь прохождения игровых пакетов между компьютером пользователя и игровым сервером для минимизации их потери и уменьшения среднего времени отклика (ping).
Список системных требований к компьютеру, в который планируется установка видеоускорителя, расположен на одной из сторон упаковки. Исходя из рекомендаций, блок питания должен обладать мощностью не менее 500 Вт, выдавать минимум 42 А по линии +12В и поддерживать один 8-контактный кабель питания PCIe.
В комплекте с видеокартой поставляется только краткое руководство пользователя и диск с драйверами и утилитами.
Для вывода изображения на тестируемом адаптере используется модифицированный набор интерфейсов:
- 1 х DVI-D;
- 2 х HDMI 2.0b;
- 2 х DisplayPort 1.4.
Напомним, что эталонная версия использует лишь один порт HDMI, один DVI-D и три DisplayPort. В данном же случае компания ASUS решила пойти на встречу обладателям VR-устройств, предоставив им два порта HDMI.
Внешний вид
Дизайн видеокарты ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition выполнен с явным преобладанием черного цвета, который лишь немного разбавлен вкраплениями красных элементов. Благодаря такому сочетанию и оригинальной ассиметричной форме кожуха кулера она будет легко узнаваема на фоне конкурентов.
Что же касается ее интересных особенностей, то к таковым можно отнести использование полностью автоматического процесса производства ASUS AUTO-EXTREME Technology и надежную элементную базу Super Alloy Power II. В ее состав вошли твердотельные и тантал-полимерные конденсаторы, а также дроссели с ферритовым сердечником. В результате производитель отмечает снижение рабочих температур, повышение энергоэффективности и увеличение срока службы. В свою очередь подсистема питания видеокарты выполнена по усиленной семифазной схеме, где шесть фаз отвечают за питание графического ядра, а одна предназначена для видеопамяти.
Как и в эталонной версии, для питания тестируемого графического адаптера используется слот PCI Express 3.0 х16 и один 8-контактный разъем PCIe. Отметим удачное его расположение, благодаря чему кулер нисколько не затрудняет отключение кабеля PCIe.
Для обеспечения работы технологии NVIDIA SLI используются соответствующие MIO-коннекторы в передней части для подключения мостиков.
Обратная сторона печатной платы защищена опорной пластиной, которая повышает жесткость конструкции. В отличие от рассмотренных ранее более доступных видеокарт серии ASUS Cerberus, она выполнена из металла, а не пластика. Также отметим, что один из крепежных винтов системы охлаждения прикрыт гарантийной наклейкой, поэтому снять радиатор без потери гарантии у вас не получится.
В основе видеоускорителя ASUS CERBERUS-GTX1070TI-A8G лежит графический чип NVIDIA GP104-300-A1, который произведен по 16-нм техпроцессу. Он состоит из 2432 ядер CUDA, 152 текстурных блоков и 64 блоков растеризации. Тестирование проводилось в режиме «Gaming», в котором частота графического процессора соответствует рекомендованным 1607 МГц в номинальном режиме и 1683 МГц с учетом работы GPU Boost 3.0.
Память тестируемой видеокарты набрана из GDDR5-микросхем компании Micron общим объемом 8 ГБ, которые работают на рекомендованной эффективной частоте 8008 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 256,3 ГБ информации за секунду.
Также не лишним будет напомнить о возможности выбора двух других режимов работы в фирменной утилите GPU Tweak II − «OC» и «Silent». В первом частота графического процессора поднимется до 1721 МГц (на официальном сайте указано 1746 МГц), а во втором она не будет превышать 1645 МГц (официальный сайт об этом режиме умалчивает).
Система охлаждения
Видеокарта ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition (CERBERUS-GTX1070TI-A8G) с установленной системой охлаждения занимает два с половиной слота расширения и имеет общую длину 270 мм согласно официальному сайту (280 мм согласно измерениям в нашей тестовой лаборатории).
Кулер состоит из алюминиевого радиатора, четырех никелированных медных тепловых трубок диаметром 6 мм и двух осевых вентиляторов с диаметром лопастей 96 мм, закрепленных на пластиковом кожухе.
Для охлаждения элементов подсистемы питания используется отдельный низкопрофильный радиатор.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 71°С, а кулер работал на 54% (1331 об/мин) от своей максимальной мощности. По субъективным ощущениям шум был на низком уровне и абсолютно не мешал работе.
Для сравнения вспомним показатели видеокарты ROG-STRIX-GTX1070TI-A8G-GAMING, которая в аналогичном режиме удержала температуру GPU на уровне 64°С. При этом кулер работал всего на 39%, а частота ядра достигала 1785 МГц, что немного выше 1759 МГц у ASUS CERBERUS-GTX1070TI-A8G. Но и кулер у этой видеокарты использует более сложную конструкцию с шестью 6-мм тепловыми трубками и тремя 88-мм вертушками.
В режиме максимальной частоты вращения лопастей вентиляторов (2357 об/мин) температура GPU опустилась до 58°С. При этом заметно возрос и уровень шума, став некомфортным для постоянного использования видеокарты в таком режиме.
В свою очередь температура более дорогой модификации составила 46°С. Да и тактовые частоты GPU у них были разными: 1810 МГц у ROG-STRIX-GTX1070TI-A8G-GAMING и 1772 МГц у ASUS CERBERUS-GTX1070TI-A8G.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU не превышала 43°С, поскольку вентиляторы вообще перестали вращаться, и система охлаждения работала в полностью пассивном режиме. В активный режим кулер перешел после достижения температурой GPU отметки в 57°С.
В целом кулер видеокарты ASUS Cerberus GeForce GTX 1070 Ti Advanced Edition достойно справляется со своей задачей. В автоматическом режиме он удерживает температуру графического процессора вдали от критического показателя 94°С при комфортном шумовом фоне. А при максимальной скорости вентиляторов обеспечивает еще и хороший запас мощности для разгонных экспериментов. Никаких посторонних шумов в виде высокочастотного писка дросселей в процессе работы мы не заметили.
Кому нужна видеокарта NVIDIA GeForce GTX 1060 с чипом GP104-150?
Буквально на днях авторитетный китайский источник сообщил о возможной подготовке видеокарты NVIDIA GeForce GTX 1050 с 3 ГБ GDDR5-памяти. Теперь появилась информация о еще одной подобной новинке – NVIDIA GeForce GTX 1060 на основе чипа NVIDIA GP104-150.
Напомним, что вначале были представлены версии NVIDIA GeForce GTX 1060 с 6 и 3 ГБ видеопамяти. Затем к ним присоединился вариант с 6 ГБ ускоренной до 9 ГГц GDDR5-памяти, а позже стало известно об эксклюзиве для китайского рынка − NVIDIA GeForce GTX 1060 с 5 ГБ памяти. Все они построены на базе модификации графического процессора NVIDIA GP106, который в максимальной конфигурации (GP106-400) поддерживает 1280 CUDA-ядер, 80 текстурных и 48 растровых блоков.
В свою очередь чип NVIDIA GP104 используется в более производительных видеокартах NVIDIA GeForce GTX 1070, GTX 1070 Ti и GTX 1080. Он имеет в своей структуре 1920 – 2560 CUDA-ядер (в зависимости от варианта), 120 – 160 текстурных блоков и 64 растровых модулей.
И теперь NVIDIA планирует использовать новую его версию – NVIDIA GP104-150 – в составе видеокарты NVIDIA GeForce GTX 1060. Сообщается, что по своей конфигурации этот чип является идентичным модели NVIDIA GP106-400 (1280 / 80 / 48), будет использовать аналогичные тактовые частоты и работать в паре с 6 ГБ GDDR5-памяти. То есть уровень производительности новой видеокарты будет соответствовать оригинальному 6-гигабайтному варианту NVIDIA GeForce GTX 1060.
Логично постает вопрос: «Зачем выпускать новую видеокарту с тем же уровнем производительности, что и у старой?». Наиболее простое предположение – чтобы очистить склады и извлечь максимальную пользу от забракованных чипов NVIDIA GP104, которые нельзя использовать в составе NVIDIA GeForce GTX 1070, GTX 1070 Ti и GTX 1080. И наверняка новая NVIDIA GeForce GTX 1060 с GPU NVIDIA GP104-150 будет доступна эксклюзивно на рынке Китая.
http://www.expreview.com
https://www.techpowerup.com
Сергей Будиловский