Игровой тест NVIDIA GeForce GTX 1080 в 2020-м: когда года не беда!
В основе NVIDIA GeForce GTX 1080 лежит видеоядро GP104 в своей максимальной конфигурации. На выходе получаем 2560 ядер CUDA, 160 текстурных и 64 растровых блока. В паре с ним работает 8 ГБ GDDR5X-памяти на эффективной частоте 10 ГГц, что вместе с 256-битной шиной дает пропускную способность в 320 ГБ/с. Позже появились версии GeForce GTX 1080 с ускоренной до 11 ГГц видеопамятью в качестве ответа на адаптеры серии AMD Radeon RX Vega.
Для практических тестов мы вооружились видеокартой INNO3D iChill GeForce GTX 1080 X3. К списку ее ключевых преимуществ стоит отнести 8-фазную подсистему питания, огромную и эффективную 3-вентиляторную систему охлаждения с LED-подсветкой, а также небольшой заводской разгон графического процессора и видеопамяти. В играх частота GPU держалась в районе 2 ГГц, а температура не превышала 78°С.
Теперь напомним о конфигурации стенда. За основу взяли 16-поточный Ryzen 7 3700X, который работал в номинале, то есть с динамическим разгоном до 4,4 ГГц.
Для его охлаждения использовали классический башенный кулер Vinga CL3007R. Он совместим практически со всеми актуальными платформами и рядом устаревших.
Материнка BIOSTAR X470GTQ RACING имеет 7.1-канальный HD-кодек Realtek ALC887 в комплекте с конденсаторами, усилителем, отдельными слоями для левого и правого канала, а также изоляцией аудиозоны.
Оперативка набрана скоростным 16-гигабайтным комплектом DDR4-3733 Patriot Viper Steel. Он работал на паспортной частоте с таймингами 18-21-21-41.
Дисковая подсистема представлена парой твердотельников от ADATA. ОС и весь необходимый софт закинули на шустрый NVMe-накопитель XPG SX8200 PRO объемом 512 ГБ. Под игры использовали 2,5-дюймовый SU800 на 2 ТБ. В его основе лежат микросхемы 3D NAND TLC и котроллер SMI.
Стабильное и качественное питание для всех компонентов обеспечил полностью модульный Seasonic PRIME TX-750. Для процессора предусмотрено два 8-контактных коннектора. А для питания графической подсистемы есть четыре отдельных 6+2-контактных PCIe. При подключении периферии также не должно возникнуть никаких проблем – одних только разъемов SATA здесь 10 штук.
Систему собрали в Middle Tower-корпусе Vinga Tank. Он может принять на борт до шести вертушек. Но в комплекте они не поставляются, поэтому мы добавили парочку 120-мм вентиляторов Vinga RGB FAN-06 с LED-подсветкой и FDB-подшипниками.
В качестве монитора использовали AOC U2790PQU. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
С чистой совестью переходим к играм. Как и в прошлые разы, для разогрева посмотрим на несколько популярных онлайн-проектов. World of Tanks на ультрах сулит нам максимально плавный и приятный геймплей: средняя скорость достигает 190 FPS, а просадки не опускаются ниже сотни кадров/с. Даже «киберкотлетам» этого за глаза.
То же самое касается War Thunder с пресетом Кино. В среднем получаем под 200 FPS, без малейших намеков на подфризы или любые другие лаги. Обладатели мониторов с повышенной частотой развертки будут довольны.
В ARK Survival Evolved выкрутили все на максимум и подняли масштаб рендера до 100%. В таком режиме картинка сочная и достаточно плавная. Очень редкие события не опускаются ниже 45 FPS. К управлению нет никаких вопросов.
В RUST тоже не пожалели, что выбрали максимальные настройки графики. Взамен получили 92 FPS в среднем и очень добротную остальную статистику. Бегается более чем комфортно.
Rainbow Six Siege на ультрах со 100% масштабом рендера выдает в среднем около 160 FPS. И даже просадки не опускаются ниже сотни кадров/с. Все это обеспечивает очень плавный и отзывчивый геймплей.
Читать обзор полностью >>>AMD и NVIDIA представят новые видеокарты в сентябре
Авторитетное тайваньское издание DigiTimes сообщает, что новые поколения видеокарт AMD и NVIDIA поступят в продажу в сентябре. В третьем квартале партнеры снизят цены на модели текущего поколения, чтобы повысить спрос и очистить склады от остатков продукции.
Ожидается, что NVIDIA представит игровые видеокарты линейки Ampere. В свою очередь AMD может выпустить как игровые модели линейки Big Navi на базе микроархитектуры RDNA 2, так и графические ускорители линейки Radeon Instinct MI100 на основе CDNA.
Обе компании обещали выпустить новые поколения своих продуктов в текущем году, и за последние 10 месяцев у них не было больших релизов. График выхода предыдущих поколений видеокарт выглядит следующим образом:
NVIDIA GeForce:
- GeForce GTX 1080 – май 2016
- GeForce GTX 1080 11Gbps – апрель 2017 [+11 месяцев]
- GeForce RTX 2080 – сентябрь 2018 [+15 месяцев]
- GeForce RTX 2080 SUPER – июль 2019 [+10 месяцев]
- не было ключевых релизов за последние 10 месяцев
AMD Radeon:
- Radeon RX 480 – июнь 2016
- Radeon RX 580 – апрель 2017 [+10 месяцев]
- RX Vega 64 – август 2017 [+4 месяца]
- Radeon RX 590 – ноябрь 2018 [+15 месяцев]
- Radeon VII – февраль 2019 [+3 месяца]
- RX 5700 XT – июль 2019 [+5 месяцев]
- не было ключевых релизов за последние 10 месяцев
https://videocardz.com
Сергей Будиловский
Китайская компания создает конкурента для NVIDIA GeForce GTX 1050 и GTX 1080
На рынке дискретных GPU становится теснее, и это не может не радовать обычных пользователей. В течение многих лет в нем доминировали NVIDIA и AMD. Недавно Intel всерьез решила составить конкуренцию двум гигантам, и в 2020 году она готовится представить линейку Intel Xe в различных сегментах, включая массовые пользовательские модели.
На горизонте появился еще один потенциальный конкурент – китайская компания Jingjia Micro (полное название Changsha Jingjia Microelectronics Co., Ltd). Сейчас она работает над двумя чипами: JM9231 и JM9271. Оба построены на базе 28-нм техпроцесса. Производительность первого чуть выше NVIDIA GeForce GTX 1050, хотя и TDP у него в 2 раза больше. Второй приближается к показателям NVIDIA GeForce GTX 1080. Он получил поддержку интерфейса PCIe 4.0 и 16 ГБ HBM-памяти.
Это уже не первые GPU в арсенале Jingjia Micro, ведь она начала свою работу в далеком 2006 году. Но все ее наработки используются исключительно в военной сфере. И данные чипы также создаются под эти цели, поэтому у них нет поддержки API DirectX и Vulkan. Но в любой момент Jingjia Micro может начать освоение массового рынка, особенно на фоне обострения торговой войны между США и Китаем.
Сравнительная таблица технической спецификации чипов JM9231 и JM9271 выглядит следующим образом:
Сравнение AMD Radeon VII с RTX 2080 Ti, RTX 2080, RX Vega 56 и GTX 1080 Ti: трудно быть первым
AMD первой смогла вывести на рынок 7-нм GPU для дискретных видеокарт. Это произошло еще в ноябре 2018 года с релизом графических ускорителей Radeon Instinct MI60 и MI50. Они предназначены для использования в системах глубинного обучения и нейронных сетях.
Затем в январе 2019 года AMD анонсировала видеокарту Radeon VII, также созданную на базе 7-нм графического процессора. Но она уже нацелена на геймеров и создателей контента.
В ее основе находится графический процессор Vega 20 XT, основанный на микроархитектуре GCN 5.1. Переход на более тонкий техпроцесс позволил уменьшить его площадь на 33% и увеличить количество транзисторов на 6% по сравнению с 14-нм Vega 10 XT, на базе которого построена видеокарта Radeon Vega 64.
Благодаря этому на подложке появилось место для еще двух 4-гигабайтных стеков HBM2-памяти. К тому же немного выросла частота памяти и в 2 раза увеличилась разрядность шины, поэтому пропускная способность возросла на 112%.
А вот вычислительных блоков в структуре Vega 20 стало меньше по сравнению с Vega 10: количество потоковых процессоров сократилось до 3840, а текстурных модулей – до 240. Зато второе поколение архитектуры Vega может похвастать повышенными частотами и меньшими задержками, более быстрыми ROP-блоками и улучшенной производительностью при обработке целочисленных операций и операций с плавающей запятой.
Все это обещает прирост производительности. Например, на 27% повышает скорость цветокоррекции и редактирования 8K-видео в программе DaVinci Resolve 15, на 29% ускоряется редактирование 8K-видео в Adobe Premiere. Рендеринг 3D-объектов в Blender также ускоряется на 27%.
Геймерам обещают стабильно комфортный геймплей в современных блокбастерах в разрешении 4K и возможность параллельно стримить игры, не ощущая при этом падения производительности.
Весомую роль в достижении этих результатов играет наличие быстрой HBM2-памяти объемом 16 ГБ. Думаете, ее слишком много? Все зависит от задач. Кодирование 4K-видео в Adobe Premiere потребует около 10 ГБ, а для 8K-видео нужно 11,5 ГБ.
Разработчики игр также не стесняются запрашивать все больше и больше видеопамяти. Тот же Call of Duty: Black Ops 4 потребует около 12 ГБ при максимальных настройках, Far Cry 5 – почти 13 ГБ. В меню Resident Evil 2 сообщает, что нужно более 12 ГБ, но поначалу во время прохождения было занято 10. В любом случае, 8-гигабайтного буфера уже маловато для прохождения блокбастеров на максимальных настройках.
Важен не только объем, но и скоростные характеристики памяти. Например, график времени кадра в Radeon VII в Far Cry 5 более ровный и стабильный, чем у GeForce RTX 2080. Это должно улучшить статистику очень редких событий и комфортность геймплея.
И последний важный момент, на который стоит обратить внимание: в составе кристалла Vega 20 в 2 раза больше температурных сенсоров, чем у Vega 10. Благодаря этому улучшается точность мониторинга температуры. Кроме того, для определения троттлинга и автоматического контроля скорости вращения вентиляторов системы охлаждения теперь используется температура перехода. Это благотворно сказывается на динамическом разгоне графического процессора и повышает общий уровень производительности.
К нам в руки попала эталонная версия Radeon VII от компании AMD. Разбирать ее мы не стали, чтобы не повредить термопрокладку на GPU. Но точно знаем, что она получила 10+2+2-фазную подсистему питания под управлением двух контроллеров IR35217.
Энергопотребление видеокарты составляет 300 Вт, поэтому кулер должен обладать очень высокой эффективностью. В его состав входит испарительная камера, пять медных тепловых трубок, алюминиевый радиатор и три 75-мм осевых вентилятора. Есть еще специальная рамка, которая поддерживает всю эту габаритную конструкцию и передает тепло от силовых элементов подсистемы питания на основной радиатор.
В тестах температура GPU поднималась до 78°C. AMD традиционно не указывает максимальной температуры, поэтому сложно сказать, насколько она близка к критическому уровню. Но троттлинга не было.
Что касается частот, то мы уже привыкли, что видеокарты NVIDIA обычно работают на более высоких скоростях, чем указано в GPU-Z. С AMD другая история – динамическая частота в 1800 МГц – это пиковое значение, которое можно увидеть очень редко. В основном скорость колеблется в диапазоне 1400 – 1750 МГц.
А теперь переходим к оппонентам. Главным конкурентом для Radeon VII выступает RTX 2080. У обеих видеокарт рекомендованный ценник составляет $699. На нашем рынке версию Founders Edition можно найти в среднем за $750, а Radeon VII обойдется вам в $820.
В тестировании участвует модель RTX 2080 GamingPro OC от Palit. Она получила небольшой заводской разгон динамической частоты GPU и двухвентиляторный кулер.
В продаже также можно встретить GeForce GTX 1080 Ti с еще более низким ценником. Если вы планируете апгрейд своего ПК, то и ее не забудьте принять во внимание. В данном случае использовалась модель серии MSI GeForce GTX 1080 Ti ARMOR с заводским разгоном графического процессора, 11 ГБ GDDR5X-памяти и эффективным 2-вентиляторным кулером.
Третьим оппонентом выступает топовая во всех отношениях ASUS ROG Strix RTX 2080 Ti OC. По умолчанию она использует профиль Gaming, в котором динамическая частота GPU на 7% выше эталонной, но в запасе есть еще режим OC с дополнительным разгоном. Также она примечательна усиленной подсистемой питания, почти 3-слотовым кулером и поддержкой ряда фирменных технологий.
Внутренними оппонентами для Radeon VII выступают видеокарты серии RX Vega. У нас на руках была габаритная SAPPHIRE NITRO+ Radeon RX Vega56 с 3-вентиляторным кулером и заводским разгоном графического процессора с 1471 до 1550 МГц.
Из прошлых тестов мы помним, что RX Vega 64 на 10-15% быстрее. Поэтому для полноты картины добавили на графики расчетные показатели этой видеокарты путем увеличения результатов Vega 56 на 15%.
Для тестирования использовался следующий стенд:
- Intel Core i9-9900K
- Vinga CL3008B
- ASRock Z390 Phantom Gaming SLI
- 2 x 8GB DDR4-3400 Patriot Viper 4
- Apacer AS2280P2 M.2 NVMe 480 GB
- Apacer Panther AS340 960 GB
- Seagate Barracuda Pro 4 TB ST4000DM006
- Vinga VPS-1200Pl
- Vinga Ark
Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, то есть без потери производительности. Для мониторинга использовалась программа FPS Monitor.
Начнем тестовую сессию с пролета по миру Metro: Exodus в Full HD при ультра настройках. Тут главным соперником для Radeon VII является GTX 1080 Ti: по статистике редких и очень редких событий лучше представитель AMD, а по средней скорости –NVIDIA. Преимущество RTX 2080 достигает 13%, а RTX 2080 Ti уходит в отрыв минимум на 23%.
После перехода в 4K Radeon VII, RTX 2080 и GTX 1080 Ti выдают приблизительно одинаковые результаты. Преимущество RTX 2080 Ti немного уменьшается, но все равно держится выше 20%.
В Shadow of the Tomb Raider при максимальных настройках тестовая видеокарта без проблем справляется лишь со своими внутренними оппонентами. Уверенное преимущество над GTX 1080 Ti наблюдается только по статистике 1% Low. Остальные конкуренты не оставляют ей шансов на победу.
В Ultra HD Radeon VII чувствует себя увереннее. Например, отрыв RTX 2080 уменьшается максимум до 29%, хотя в Full HD он достигал 52%. А при сравнении с Vega 56, наоборот, наблюдается рост преимущества нового флагмана AMD с максимум 33 до 40%.
Strange Brigade хотели проверить в режиме Vulkan, но во время теста нагрузка на видеокарту постоянно менялась от 0 до 100%. Поэтому итоговые показатели оказались на 40-70% ниже, чем в режиме DirectX 12. С чем это связано – не понятно, но для теста решили использовать API от Microsoft.
В нем Radeon VII чувствует себя настолько хорошо, что даже в Full HD при ультра пресете впервые обходит RTX 2080 на 10%. Правда, лишь по среднему фреймрейту. А вот по статистике редких и очень редких событий все видеокарты NVIDIA были лучше.
Зато в 4K второе место Radeon VII никто уже не может оспорить. Она минимум на 20% обходит GeForce RTX 2080 и GeForce GTX 1080 Ti. Впереди оказалась лишь RTX 2080 Ti, но ее отрыв не превышает 12%.
AMD Navi появятся не ранее октября 2019 года
Ранее предполагалось, что линейка игровых GPU AMD Navi и видеокарт на их основе появится в середине текущего года. Но если верить неофициальной информации, то их релиз отложен до четвертого квартала. Причины возможного переноса не сообщаются, но он может быть связан с загруженностью компании TSMC. Именно на ее фабриках будут изготовлены 7-нм продукты AMD, включая новое поколение процессоров AMD Ryzen и AMD Ryzen Threadripper. А учитывая желание других компаний выпустить свои 7-нм продукты, у TSMC может просто не хватать производственных мощностей для более оперативного создания AMD Navi.
Кроме того, анонимные неофициальные источники открыли некоторые подробности этих видеокарт. На рынке AMD Navi дебютирует как серия AMD Radeon RX 3000. Пока сообщается о трех новинках:
- AMD Radeon RX 3080 – создана на базе GPU AMD Navi 10 и 8 ГБ GDDR6-памяти. TDP составит 150 Вт. По уровню производительности соответствует NVIDIA GeForce RTX 2070 / GeForce GTX 1080. Ожидаемый ценник – $249.
- AMD Radeon RX 3070 – создана на базе GPU AMD Navi 12 и 8 ГБ GDDR6-памяти. TDP составит 120 Вт. По уровню производительности соответствует NVIDIA GeForce RTX 2060 / GeForce GTX 1070. Ожидаемый ценник – $199.
- AMD Radeon RX 3060 – создана на базе GPU AMD Navi 12 и 8 ГБ GDDR6-памяти. TDP составит 75 Вт. По уровню производительности соответствует NVIDIA GeForce GTX 1060. Ожидаемый ценник – $129.
Выглядят такие видеокарты очень заманчиво, но пока это лишь слухи, поэтому воспринимайте их с большой долей скептицизма.
https://www.techpowerup.com
https://www.cowcotland.com
Сергей Будиловский
Мобильная NVIDIA GeForce RTX 2070 Max-Q быстрее десктопной Radeon RX Vega 64
В очередной раз база данных бенчмарка Final Fantasy XV пролила свет на производительность неанонсированной видеокарты. Речь идет о мобильном видеоускорителе NVIDIA GeForce RTX 2070 Max-Q, который предположительно дебютирует в рамках выставки CES 2019.
В разрешении 3840 х 2160 при высоком качестве эта видеокарта выдала 3080 баллов. Для сравнения: результат Radeon RX Vega 64 составляет 2895 баллов, NVIDIA GeForce GTX 1080 Max-Q – 2782 баллов, а NVIDIA GeForce RTX 2070 – 3864 балла.
Согласно неофициальной информации, NVIDIA GeForce RTX 2070 Max-Q построена на базе GPU NVIDIA TU106 (2304 CUDA-ядер) и 8 ГБ GDDR6-памяти (256-битная шина). Тактовая частота графического процессора составляет 1300 МГц, а видеопамяти – 12000 МГц.
https://wccftech.com
Сергей Будиловский
Сравнение видеокарты NVIDIA GeForce RTX 2070 с GeForce RTX 2080, GeForce GTX 1080 и Radeon RX Vega 56 в Full HD, Quad HD и Ultra HD: все более чем неоднозначно!
В предыдущих игровых сравнениях мы познакомились с возможностями видеокарт NVIDIA GeForce RTX 2080 и NVIDIA GeForce RTX 2080 Ti, а теперь настал черед поиздеваться протестировать модель серии NVIDIA GeForce RTX 2070. Поскольку это уже не первый материал по данному адаптеру, то не будем утомлять вас подробностями его технических характеристик и отличиями от двух старших представителей этой линейки. Кому интересно – милости просим почитать этот обзор.
А мы сразу перейдем к представлению участников тестирования. Первой скрипкой этого сравнения является видеокарта ASUS ROG STRIX GeForce RTX 2070 OC Edition на основе GPU TU106-400A. Она примечательна усиленной 10-фазной подсистемой питания и эффективным 3-вентиляторным кулером, который занимает почти 3 слота расширения. Зато он удерживает температуру GPU в районе 60°, позволяя частоте подниматься выше 1900 МГц без ручного разгона.
Тестирование же проводилось в режиме «Gaming», в котором динамическая скорость заявлена на уровне 1815 МГц. В фирменной утилите GPU Tweak II можно активировать профиль «OC» с заводским разгоном до 1845 МГц.
С остальными участниками вы уже наверняка знакомы по предыдущим сравнениям. Честь более дорогих видеокарт будет защищать Palit GeForce RTX 2080 GamingPro OC. Это пока один из самых доступных представителей серии 2080. В среднем он обойдется в $940.
Новинка обладает заводским разгоном динамической частоты GPU c 1710 до 1815 МГц, микросхемами DrMOS в цепях питания, LED-подcветкой и 2-слотовым кулером с двумя 9-см вентиляторами.
Номинально GeForce RTX 2070 пришла на смену GeForce GTX 1070, но нам показалось более интересным сравнение с GeForce GTX 1080, которая сейчас стоит гораздо дешевле новинки. Например, тестовую Inno3D iChill GeForce GTX 1080 X3 можно найти в среднем за $650, а за используемую GeForce RTX 2070 придется выложить $815.
Сама же видеокарта обладает массивным 3-вентиляторным кулером, 7-фазной подсистемой питания, заводским разгоном GPU и 8 ГБ GDDR5X-памяти.
Конкурентом из «красного лагеря» выступит SAPPHIRE NITRO+ Radeon RX Vega 56 8G. Стоимость этой видеокарты составляет $710, что соответствует уровню более простых модификаций GeForce RTX 2070.
Она обладает массивным кулером с восемью тепловыми трубками и тремя вентиляторами, заводским разгоном графического процессора до 1590 МГц и 8 ГБ HBM2-памяти.
Для тестирования использовался следующий стенд:
- Intel Core i7-7740X @ 5.0 GHz
- Thermaltake Water 3.0 Riing RGB 240
- ASUS TUF X299 MARK 1
- 2 x 8 GB DDR4-3200 Patriot Viper 4
- Apacer PANTHER AS330 240GB/960GB
- Seagate ST2000DX001 2TB
- Seasonic Snow Silent 1050 1050W
- Thermaltake Core P3
- AOC U2879VF
Для записи геймплеев применялась внешняя система с AVerMedia Live Gamer Portable 2, то есть без потери производительности. А с мониторингом нам помогла программа FPS Monitor.
Переходим к тестированию. Игры и бенчмарки запускались при максимальных настройках в трех разрешениях: Full HD, Quad HD и Ultra HD. Для экономии времени используем пресеты, но если вы знаете оптимальные настройки графики под такой конфиг, то поделитесь им в комментариях.
Начало теста явно не задалось для GeForce RTX 2070. В Forza Horizon 4 в 1080p она оказалась на последнем месте. Даже показатели Vega 56 были лучше на 13-21%, а GeForce RTX 2080 и вовсе вырвалась вперед максимум на 28%.
Переход в 1440p не принес кардинальных изменений для тестовой модели. Ее опять обидели все оппоненты. Меньше всего постаралась в этом плане GeForce GTX 1080: ее преимущество не превышает 10,5%. Лидер же оказался впереди минимум на 23%.
И лишь в 2160p Vega 56 сдала позиции, опустившись на последнее место. RTX 2070 обходит ее на 6-7%. А вот GeForce GTX 1080 удалось сохранить свое преимущество над новинкой, но оно не превышает 6%.
Совсем иная картина наблюдается в Shadow of the Tomb Raider. В Full HD статистика 0,1% Low у тестовой модели оказалась самой низкой, зато по среднему фреймрейту она уверенно опередила представителя AMD и даже оказалась на 4% быстрее GeForce GTX 1080.
В Quad HD преимущество новинки над Vega 56 и GeForce GTX 1080 становится безоговорочным. Минимальный разрыв между ними составляет 6%, а максимальный – 32%. Лидерство удерживает RTX 2080 с максимум 20% перевесом.
Очередной удар по позициям внутреннего и внешнего конкурента GeForce RTX 2070 наносит в разрешении Ultra HD. Особенно впечатляющим выглядит разрыв по статистике редких и очень редких событий: он достигает 60%. А от лидера новинку отделяет максимум 15%.
Бенчмарк Final Fantasy XV получил поддержку DLSS
Компания Square Enix обновила бенчмарк Final Fantasy XV до версии 1.2, добавив в него поддержку NVIDIA Deep Learning Super-Sampling (DLSS). Это новая технология сглаживания, которая по качеству финального изображения превосходит 64-кратное MSAA, но при этом создает меньшую нагрузку на систему.
Однако DLSS работает на основе тензорных ядер, поэтому может использоваться лишь в системах с видеокартами линейки NVIDIA GeForce RTX 20. К тому же поддержка этой технологии должна быть реализована и самими разработчиками в их играх. Многие компании анонсировали ее поддержку, но одной из первых подсуетилась именно Square Enix.
Использование DLSS действительно позволяет улучшить уровень производительности новых видеокарт и оправдать их покупку. Например, результат видеокарты NVIDIA GeForce RTX 2080 в разрешении 4K Ultra HD вырос на 37,6%, что позволило на 36,9% обойти NVIDIA GeForce GTX 1080 Ti. Для тестирования использовался игровой ПК CORSAIR Vengeance 5180 (Intel Core i7-8700, 16 ГБ DDR4-2666).
Таким образом, если сглаживание DLSS станет массовым для популярных игр, то вырастет целесообразность покупки видеокарт линейки NVIDIA GeForce RTX 20.
https://www.techpowerup.com
Сергей Будиловский
Мини-ПК ASRock DeskMini GTX (Z390) с поддержкой 95-ваттных процессоров
Компания ASRock продолжает активно продвигать формат материнских плат Micro-STX, который позволяет использовать обычные десктопные процессоры в компактных системах. На базе новой платы ASRock Z390M-STX размерами 147 х 188 мм она построила новый мини-ПК ASRock DeskMini GTX (Z390).
Общие габариты новинки составляют 213 х 154,5 х 81,9 мм (объем 2,7 л). Встроенного процессора нет. Вы сможете установить любую модель серий Intel Celeron, Pentium, Core i3, Core i5 или Core i7 восьмого или девятого поколения под разъем Socket LGA1151. Тепловой пакет ЦП не должен превышать 95 Вт, поэтому в теории подойдет даже 8-ядерный флагман Intel Core i9-9900K, если удастся организовать надлежащее охлаждение в столь компактном корпусе. Подсистема питания использует 5+1-фазный дизайн.
Также ASRock DeskMini GTX (Z390) предоставляет в распоряжение пользователя:
- два слота SO-DIMM для установки максимум 32 ГБ памяти стандарта DDR4-4000+ МГц;
- три интерфейса M.2 Socket 3 и два порта SATA 6 Гбит/с для реализации дисковой подсистемы;
- MXM-видеокарту на выбор: 6-гигабайтную NVIDIA GeForce GTX 1060 или 8-гигабайтную NVIDIA GeForce GTX 1080;
- один слот M.2 для модуля беспроводных сетевых интерфейсов Wi-Fi + Bluetooth;
- гигабитный LAN-контроллер Intel I219V;
- внешний блок питания мощностью 220 или 270 Вт.
Стоимость новинки пока не сообщается.
https://www.asrock.com
Сергей Будиловский
Обзор и тестирование видеокарты ASUS ROG Strix GeForce RTX 2070 OC edition: входной билет в мир новых технологий
В конце лета была анонсирована линейка видеокарт NVIDIA GeForce RTX 20. Первой в продажу поступила предтоповая модель NVIDIA GeForce RTX 2080, а через несколько недель к ней присоединилась флагманская NVIDIA GeForce RTX 2080 Ti. Третьим на полках магазинов появился видеоускоритель NVIDIA GeForce RTX 2070. На данный момент он является самым доступным представителем новой серии, предоставляя всем желающим вход в мир трассировки лучей в режиме реального времени и других инновационных возможностей.
Но в целом ситуация неоднозначная. Традиционно на старте продаж ценники новинок завышены, особенно когда отсутствует реальная конкуренция со стороны AMD. В таких условиях главными оппонентами выступают видеокарты NVIDIA предыдущего поколения. Например, цена флагманской NVIDIA GeForce GTX 1080 Ti как раз находится на уровне GeForce RTX 2070. Пускай она не обладает поддержкой новых технологий и GDDR6-памяти, зато имеет большее количество CUDA-ядер в составе GPU и 11 ГБ все еще быстрой GDDR5X-памяти. И благодаря 352-битной шине пропускная способность памяти у нее даже чуть выше.
Для более наглядного сравнения все характеристики мы свели в общую таблицу:
Модель |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce RTX 2070 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce RTX 2080 |
NVIDIA GeForce GTX 1080 Ti |
NVIDIA GeForce RTX 2080 Ti |
Техпроцесс, нм |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
GPU |
NVIDIA GP104-200 |
NVIDIA TU106-400A |
NVIDIA GP104-400 |
NVIDIA TU104-400A |
NVIDIA GP102-350 |
NVIDIA TU102-300A |
Микроархитектура |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
Площадь кристалла, мм2 |
314 |
445 |
314 |
545 |
471 |
754 |
Количество транзисторов, млрд. |
7,2 |
10,8 |
7,2 |
13,6 |
12 |
18,6 |
Количество SM-блоков |
15 |
36 |
20 |
46 |
28 |
68 |
Количество CUDA-ядер |
1920 |
2304 |
2560 |
2944 |
3584 |
4352 |
Количество CUDA-ядер в SM-блоке |
128 |
64 |
128 |
64 |
128 |
64 |
Количество текстурных блоков |
120 |
144 |
160 |
184 |
224 |
272 |
Количество растровых блоков |
64 |
64 |
64 |
64 |
88 |
88 |
Количество ядер Tensor |
- |
288 |
- |
368 |
- |
544 |
Количество ядер RT |
- |
36 |
- |
46 |
- |
68 |
Объем кэша L2, КБ |
2048 |
4096 |
2048 |
4096 |
3072 |
6144 |
Базовая / динамическая частота GPU, МГц |
1506 / 1683 |
1410 / 1620 |
1607 / 1733 |
1515 / 1710 |
1480 / 1582 |
1350 / 1545 |
Базовая / динамическая частота GPU Founders Edition, МГц |
1506 / 1683 |
1410 / 1710 |
1607 / 1733 |
1515 / 1800 |
1480 / 1582 |
1350 / 1635 |
Тип видеопамяти |
GDDR5 |
GDDR6 |
GDDR5X |
GDDR6 |
GDDR5X |
GDDR6 |
Объем, ГБ |
8 |
8 |
8 |
8 |
11 |
11 |
Эффективная частота памяти, МГц |
8 008 |
14 000 |
10 008 |
14 000 |
11 008 |
14 000 |
Разрядность шины, бит |
256 |
256 |
256 |
256 |
352 |
352 |
Пропускная способность, ГБ/с |
256,3 |
448 |
320 |
448 |
484 |
616 |
Вычислительная мощность FP32 (Founders Edition), TFLOPS |
6,5 |
7,5 (7,9) |
8,9 |
10 (10,6) |
11,3 |
13,4 (14,2) |
TDP (Founders Edition), Вт |
150 |
175 (185) |
180 |
215 (225) |
250 |
250 (260) |
Рекомендованная стоимость на старте продаж (партнерские / Founders Edition), $ |
379 / 449 |
499 / 599 |
599 / 699 |
699 / 799 |
699 |
999 / 1199 |
В итоге у пользователей, желающих купить производительную видеокарту, есть несколько вариантов: сэкономить и взять NVIDIA GeForce GTX 1070, 1070 Ti или GTX 1080 либо выложить весь имеющийся бюджет за GeForce GTX 1080 Ti или GeForce RTX 2070. В этом обзоре мы и постараемся разобраться, какой из вариантов лучший и при каких условиях.
Поможет нам в этом видеокарта ASUS ROG Strix GeForce RTX 2070 OC edition. Это флагманская модель, которая получила массивный 3-вентиляторный кулер, усиленную подсистему питания с элементной базой Super Alloy Power II, автоматический процесс сборки ASUS Auto-Extreme и ряд других преимуществ. Для начала давайте взглянем на ее технические характеристики.
Спецификация
Модель |
ASUS ROG Strix GeForce RTX 2070 OC edition (ASUS ROG-STRIX-RTX2070-O8G-GAMING) |
|
Техпроцесс, нм |
12 |
|
GPU |
NVIDIA TU106-400A |
|
Микроархитектура |
NVIDIA Turing |
|
Количество CUDA-ядер |
2304 |
|
Количество текстурных блоков |
144 |
|
Количество растровых блоков |
64 |
|
Количество тензорных ядер |
288 |
|
Количество ядер RT |
36 |
|
Базовая / динамическая частота GPU, МГц |
«Gaming» |
1410 / 1815 |
«OC» |
1410 / 1845 |
|
Тип видеопамяти |
GDDR6 |
|
Объем, ГБ |
8 |
|
Эффективная частота, МГц |
14 000 |
|
Разрядность шины, бит |
256 |
|
Пропускная способность, ГБ/с |
448 |
|
Внутренний интерфейс |
PCI Express 3.0 x16 |
|
Внешние интерфейсы |
2 x HDMI 2.0b |
|
Дополнительный коннектор питания |
1 х 8-контактный |
|
Рекомендованная мощность блока питания, Вт |
550 |
|
Размеры, мм |
305 х 130,6 х 48,9 |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или с сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Красочная картонная упаковка с цветной полиграфией не только защищает видеокарту в процессе транспортировки, но и сообщает потенциальным владельцам о ключевых ее особенностях и преимуществах. А вот технических характеристик очень мало. Зато есть упоминание о бесплатной 6-месячной премиум-подписке на сервис WTFast Gamers Private Network. Он автоматически оптимизирует путь прохождения игровых пакетов между компьютером пользователя и игровым сервером для минимизации их потери и уменьшения среднего времени отклика (ping).
На нижней стороне есть рекомендации производителя к блоку питания: минимальная его мощность должна составлять 550 Вт, а в наборе коннекторов желательно иметь один 6-контактный и один 8-контактный PCIe. Реальное же энергопотребление нашего тестового стенда с этой видеокартой указано на последнем графике блока тестирования.
В комплекте поставки мы обнаружили руководство пользователя, диск с ПО, пару многоразовых стяжек Velcro и переходник питания с двух 6-контактных на один 8-контактный.
Внешний вид
Внешне видеокарта ASUS ROG-STRIX-RTX2070-O8G-GAMING выглядит в меру сдержанно и агрессивно за счет сочетания однотонной раскраски и декоративных элементов пластикового кожуха.
Если же вы используете открытый стенд или корпус с боковой смотровой панелью, то не забудьте активировать фирменную подсветку Aura Sync, которая делает облик новинки более стильным и приятным. А главное, что цвет и режим работы иллюминации можно менять в широких пределах. При желании ее можно использовать для визуального мониторинга за температурой GPU.
Тыльная сторона прикрыта защитным кожухом с симпатичным дизайном. Он не только используется в роли декоративного элемента, но также поддерживает вес кулера, предотвращая изгиб или повреждение текстолита. Также он принимает пассивное участие в отводе излишков тепла. В специальных прорезях можно заметить тантал-полимерные конденсаторы, которые являются частью подсистемы питания, и наклейку на одном из винтов, повреждение которой ведет к потере гарантии.
Поскольку видеокарты серии NVIDIA GeForce RTX 2070 лишены поддержки технологии NVIDIA SLI, то инженеры компании ASUS решили по максимуму использовать фронтальную часть тыльной панели. Они расположили тут три полезных компонента:
- Кнопку «LED On/Off» для включения / выключения подсветки.
- Площадку с контактными разъемами для мониторинга и изменения ключевых напряжений.
- Переключатель BIOS для выбора одного из двух режимов работы системы охлаждения: «P Mode» или «Q Mode». В первом случае (сокращение от Performance) вентиляторы будут вращаться быстрее. Этот режим подходит для игровых сессий или оверклокинга. Во втором (сокращение от Quiet) их скорость будет ниже для более тихой работы.
С противоположной стороны находятся два разъема дополнительного питания PCIe, хотя эталонный дизайн предполагает использование лишь одного. Здесь же все сделано для стабильного питания внутренних компонентов даже в условиях высокого ручного разгона. Под разъемами есть специальные светодиоды, которые сигнализируют в случае возникновения проблем с питанием.
В хвостовой части можно заметить три дополнительных разъема. Нижний – это колодка Aura RGB для синхронизации подсветки, а два верхних – это 4-контактные коннекторы для подключения корпусных вентиляторов (технология FanConnect II). Скорость их работы можно привязать к температуре CPU или GPU.
Набор внешних интерфейсов видеокарты ASUS ROG Strix GeForce RTX 2070 OC edition не соответствует эталонным рекомендациям. Он включает в себя два порта DisplayPort, два HDMI и один USB Type-C. Максимальное разрешение составляет 7680 x 4320.
Разобрать графический адаптер нам не разрешили, поэтому не можем порадовать вас собственными фотографиями внутренней компоновки. Зато такой снимок есть на официальной страничке. На нем можно разглядеть 10-фазную подсистему питания с элементной базой Super Alloy Power II.
О всех ключевых характеристиках ASUS ROG-STRIX-RTX2070-O8G-GAMING можно узнать благодаря утилите GPU-Z. В основе новинки находится графический процессор NVIDIA TU106-400A с поддержкой 2304 CUDA-ядер. По умолчанию используется режим «Gaming», в котором базовая частота GPU находится на уровне 1410 МГц, а динамическая – 1815 МГц. Эталонная частотная формула составляет 1410 / 1620 МГц.
Видеопамять набрана с помощью восьми GDDR6-микросхем компании Micron общим объемом 8 ГБ. Эффективная частота ее работы − 14 000 МГц, что соответствует референсному уровню. Пропускная способность достигает 448 ГБ/с при 256-битной шине.
В фирменной утилите GPU Tweak II заложено еще два профиля: «Silent» и «OC». В первом динамическая частота графического процессора снижается до 1785 МГц, а во втором – поднимается до 1845 МГц.
Система охлаждения
Длина видеокарты ROG Strix GeForce RTX 2070 OC edition составляет 305 мм, а ширина − 2,7 слота. Поэтому перед покупкой обязательно проверьте, найдется ли для нее место, и не возникнет ли конфликтов с другими картами расширения.
Пассивная часть кулера состоит из никелированного медного основания и шести 6-мм никелированных тепловых трубок, которые пронизывают двухсекционный радиатор. Через термопрокладку и утолщение радиатор контактирует с элементами подсистемы питания. А чтобы снизить нагрузку на печатную плату, используется усиленная рама на лицевой стороне и пластина жесткости на обороте.
Активная часть кулера представлена тремя 88-мм осевыми вентиляторами со знакомым дизайном Wing-blade и защитой от пыли (IP5X). Поддерживается и технология 0dB, которая приостанавливает вращение вертушек при низких нагрузках. Но чтобы ее использовать, необходимо для начала перейти в режим «Q Mode» с помощью переключателя BIOS.
Также напомним о поддержке технологии MaxContact. Она предполагает более качественную обработку основания радиатора для увеличения площади контакта с графическим процессором и улучшения теплоотвода.
При максимальной нагрузке и автоматической работе системы в режиме «P Mode», температура графического процессора достигала всего 59°С при критическом показателе 89°С. Вентиляторы вращались на скорости 1683 об/мин (51% от максимальной), создавая тихий фоновый шум. Частота графического процессора поднялась до 1665 МГц.
После принудительной установки скорости вентиляторов на 100% (3227 об/мин), температура GPU опустилась до 50°С, а его частота поднялась до 1680 МГц. Шум превысил средний уровень и перестал быть комфортным для постоянного использования.
В простое вентиляторы бесшумно вращались со скоростью 798 об/мин (24% от максимальной), удерживая температуру графического процессора в пределах 28°С. Напомним, что активация пассивного режима 0dB при низкой нагрузке происходит лишь после переключения в режим «Q Mode».
В очередной раз убеждаемся, что игровые видеокарты линейки ASUS ROG Strix получили отличный 3-вентиляторный кулер. Он без проблем справляется с охлаждением ключевых узлов в автоматическом режиме и имеет большой запас прочности для оверклокерских экспериментов. Для более тихой его работы можете активировать режим «Q Mode». Никаких посторонних звуков в виде раздражающего писка дросселей в процессе тестирования замечено не было.
Сравнение видеокарты NVIDIA GeForce RTX 2080 с GTX 1080 Ti, GTX 1080 и RX Vega 56 в Full HD, Quad HD и 4K: выбор есть, были бы деньги!
В прошлом материале мы оценили возможности видеокарты NVIDIA GeForce RTX 2080 в двух десятках актуальных игр в разрешении Full HD. А теперь давайте сопоставим ее возможности с близкими конкурентами в трех разрешениях: Full HD, Quad HD и Ultra HD. Да, мы в курсе, что GeForce RTX 2080 и GTX 1080 Ti позиционируются для 4K, но нередко их берут и для Full HD в паре со 120 или 144-герцовыми мониторами.
Но для начала представим участников тестирования. С Palit GeForce RTX 2080 GamingPro OC мы познакомились в прошлом геймплейном видео. К списку ее преимуществ можно отнести заводской разгон динамической частоты GPU c 1710 до 1815 МГц, использование микросхем DrMOS в цепях питания, LED-подсветку и 2-слотовый кулер с двумя 9-см вентиляторами.
В играх температура поднималась максимум до 76°C при критическом показателе 88°C. Шум был ниже среднего уровня, вполне комфортный для длительной работы.
В ценовом плане еще до недавнего времени главным конкурентом для NVIDIA GeForce RTX 2080 была GeForce GTX 1080 Ti. У нас она представлена моделью ASUS ROG Poseidon GeForce GTX 1080 Ti Platinum edition. Она характеризуется встроенным водоблоком и обычным воздушным кулером, усиленной 12-фазной подсистемой питания и заводским разгоном графического процессора. К тому же она оснащена 11 ГБ GDDR5X-памяти с 352-битной шиной. Тест покажет, будет ли это важно для обеспечения комфортного геймплея в высоких разрешениях.
Еще одним внутренним оппонентом является NVIDIA GeForce GTX 1080, которая гораздо дешевле GeForce RTX 2080. Поэтому для многих она является оптимальным выбором, особенно если это касается разрешения Full HD и Quad HD.
В тесте принимает участие хорошо знакомая вам Inno3D iChill GeForce GTX 1080 X3 с массивным 3-вентиляторным кулером, 7-фазной подсистемой питания и заводским разгоном GPU и 8 ГБ GDDR5X-памяти.
Позиции компании AMD должна была бы защищать видеокарта Radeon RX Vega 64, но у нас ее нет в наличии. Зато с предыдущего теста осталась SAPPHIRE NITRO+ Radeon RX Vega 56 8G. Она выделяется массивным кулером с восемью тепловыми трубками и тремя вентиляторами, заводским разгоном графического процессора до 1590 МГц и 8 ГБ HBM2-памяти с эффективной тактовой частотой 1600 МГц. Обратите внимание, что пропускная способность достигает 410 ГБ/с. По этому параметру она находится на третьем месте после GeForce RTX 2080 и GTX 1080 Ti.
Для тестирования использовался следующий стенд:
- Intel Core i7-7740X @ 5.0 GHz
- Thermaltake Water 3.0 Riing RGB 240
- ASUS TUF X299 MARK 1
- 2 x 8 GB DDR4-3200 Patriot Viper 4
- Apacer PANTHER AS330 240GB/960GB
- Seagate ST2000DX001 2TB
- Seasonic Snow Silent 1050 1050W
- Thermaltake Core P3
- AOC U2879VF
Для записи геймплеев применялась внешняя система с AVerMedia Live Gamer Portable 2, то есть без потери производительности. А с мониторингом нам помогла программа FPS Monitor.
В Full HD Forza Horizon 4 требует менее 5 ГБ видеопамяти, поэтому объем буфера не играет существенной роли. Лидерство захватывает RTX 2080, которая опережает ближайшего конкурента на 2-8%.
Переход в Quad HD потребует дополнительных 200-300 МБ видеопамяти. Увеличивается нагрузка на GPU и снижаются результаты. Этим воспользовалась GeForce GTX 1080 Ti, и теперь у нас двоевластие: показатель 1% Low лучше у новинки, зато очень редкие события выше у предыдущего флагмана.
В 4K перевес по двум показателям уже был на стороне GeForce GTX 1080 Ti, хотя это всего лишь 1-2 FPS, которые легко можно списать на погрешность измерения. В целом на играбельные 40-60 FPS можно рассчитывать даже с GeForce GTX 1080 и Vega 56.
Максимальный пресет в Shadow of the Tomb Raider в 1080p съедает порядка 6 ГБ видеопамяти. Но это не помешало RTX 2080 слегка опередить 1080 Ti. А вот отрыв от GTX 1080 уже достигает 25%.
В разрешении 1440p принципиальные соперники выдают одинаковый результат. К тому же увеличивается их отрыв от двух других оппонентов, хотя он все же не такой большой, как разница в цене.
Если вы захотите пройти эту игру в 4K, то вам потребуется около 8 ГБ видеопамяти. В таких условиях мы ожидали доминирования 11-гигабайтной GTX 1080 Ti, хотя бы по статистике 1 и 0,1% Low. Но на удивление RTX 2080 отвоевала себе чистое первое место, хотя и с минимальным преимуществом. А вот в системах с GTX 1080 и RX Vega 56 обязательно придется снижать настройки графики.
Видеокарта серии AMD Radeon Vega 20 замечена в бенчмарке Final Fantasy XV
В апреле при изучении кода нового Linux-драйвера AMD Radeon были замечены шесть новых ID для графического процессора AMD Vega 20. Одно из них («66AF») на днях появилось в базе данных бенчмарка Final Fantasy XV. Сама игра и ее бенчмарк используют технологии NVIDIA Gameworks, и лучше оптимизированы именно под видеокарты NVIDIA. Поэтому немного странно видеть результаты новой видеокарты в этом тесте.
Второй странный момент заключается в том, что AMD Vega 20 – это 7-нм графический процессор. Ранее AMD неоднократно заявляла, что не планирует выпускать модели этой линейки на рынок массовых пользовательских видеокарт. Они дебютируют в качестве профессиональных адаптеров серии AMD Radeon Instinct, а обычным пользователям нужно подождать выхода 7-нм линейки Navi в следующем году.
Третий подозрительный момент – сами результаты. Они выше, чем у NVIDIA GeForce GTX 1070 Ti и AMD Radeon RX Vega, но ниже, чем NVIDIA GeForce GTX 1080 и GeForce RTX 2070. Предполагают, что это может быть ранний инженерный образец с более низкими частотами или даже фейковые результаты. Поэтому к ним следует относится с долей скептицизма.
https://videocardz.com
Сергей Будиловский
Готовится к выходу видеокарта NVIDIA GeForce RTX 2070 Ti
В прошлом поколении видеокарт модели NVIDIA GeForce GTX 1080 и GTX 1070 используют разные версии одного и того же графического процессора NVIDIA GP104. С приходом микроархитектуры Turing ситуация изменилась: NVIDIA GeForce RTX 2080 получила чип TU104, а в основе NVIDIA GeForce RTX 2070 уже находится модель TU106 в максимальной конфигурации.
Вскоре между ними появится связующее звено в виде видеокарты NVIDIA GeForce RTX 2070 Ti. Она закроет громадный ценовой диапазон между $499 (минимальная рекомендованная стоимость партнерских GeForce RTX 2070) и $699 (GeForce RTX 2080).
Логично предположить, что новинка построена на базе урезанной версии GPU NVIDIA TU104. Модель RTX 2080 имеет в своем составе 2944 CUDA-ядер, а RTX 2070 – 2304. Поэтому у RTX 2070 Ti может быть в районе 2560 CUDA-ядер. Подсистемы видеопамяти у представленных новинок одинаковые, следовательно, и RTX 2070 Ti должна получить 8 ГБ GDDR6-памяти с эффективной частотой 14 ГГц и 256-битной шиной.
Релиз NVIDIA GeForce RTX 2070 Ti должен состоятся до конца октября, поэтому скоро узнаем не только все ключевые параметры, но и рекомендованную стоимость.
https://www.techpowerup.com
Сергей Будиловский
Геймплейное тестирование видеокарты AMD Radeon RX Vega 56 в 22 играх в реалиях 2018 года: цена решает все
Геймплейный тест по AMD Radeon RX Vega 56 вышел на нашем YouTube-канале не вовремя − в феврале 2018 года. Тогда майнинговая лихорадка была на пике, и производительные видеокарты AMD продавались лучше, чем кондиционеры в аду. Ценники на отдельные модификации Vega 56 преодолевали планку в $1000. Поэтому даже самые ярые фанаты не решались на ее покупку исключительно ради запуска игр.
Но теперь ситуация изменилась, и уже AMD приходится всячески переманивать покупателей на свою сторону, предлагая им дополнительные подарки вместе с топовыми видеокартами. Самым большим бонусом является промо-акция Raise the Game, которая продлится до 3 ноября. При покупке видеокарт Radeon RX 570, Radeon RX 580, Vega 56 и Vega 64 в магазинах-участниках вы получите в подарок три игры: Assassin’s Creed Odyssey, Strange Brigade и Star Control: Origins. Общая их стоимость составляет $150.
Есть бонусы и поменьше, но зато они не ограничены во времени. В их число входит технология AMD Freesync для получения плавного геймплея без разрывов и артефактов изображения. В отличие от аналога NVIDIA G-SYNC, она не удорожает монитор. Поэтому на покупке дисплея вы можете сэкономить. Да и выбор Freesync-мониторов шире.
Вторым бонусом являются полезные инструменты в составе драйвера. Хотите, чтобы ваша видеокарта работала тихо и не закипала? В этом поможет Radeon Chill. Просто ограничьте уровень фреймрейта, и видеокарта не будет гнаться за более высокими показателями. Если же вам нужно выжать из нее все соки для достижения максимальной производительности, то пригодится WattMan. А с помощью ReLive можно сохранить геймплей на память внукам или записать любую видеоинструкцию.
Гостьей данного теста стала модель SAPPHIRE NITRO+ Radeon RX Vega56. Она отличается заводским разгоном графического процессора Vega 10 XL: по паспорту – до 1550 МГц, а GPU-Z фиксирует 1590 МГц. В играх скорость скачет: в большинстве находится в пределах 1400 – 1500 МГц, но в некоторых может подниматься выше или опускаться ниже этого диапазона.
Видеопамять представлена двумя стеками HBM2 общим объемом 8 ГБ с эффективной частотой 1600 МГц и пропускной способностью 410 ГБ/с. Память расположена на одной подложке с GPU, что упрощает печатную плату и организацию охлаждения. Но это вовсе не значит, что на кулере сэкономили.
Используется 3-слотовая система с тремя вентиляторами на основе двойных шарикоподшипников и восемью тепловыми трубками. При необходимости вертушки можно снять для очистки или замены, без потери гарантии. Если температура GPU опустится ниже 52°C, то кулер перейдет в пассивный режим. В тяжелых играх, например, Hunt: Showdown, температура GPU поднималась до 66°C.
Для тестирования видеокарты SAPPHIRE NITRO+ Radeon RX Vega56 использовался следующий стенд:
- Intel Core i7-7740X @ 5.0 GHz
- Thermaltake Water 3.0 Riing RGB 240
- ASUS TUF X299 MARK 1
- 2x 8GB DDR4-3200 Patriot Viper 4
- Apacer PANTHER AS330 240GB/960GB
- Seagate ST2000DX001 2TB
- Seasonic Snow Silent 1050 1050W
- Thermaltake Core P3
- AOC U2879VF
Для записи геймплеев применялась внешняя система с AVerMedia Live Gamer Portable 2, то есть без потери производительности. А с мониторингом нам помогла программа FPS Monitor.
С вводной частью разобрались, переходим к тестам. Все игры запускались в Full HD и по возможности на максимальных настройках графики.
Для начала погоняем динозавров в мире ARK Survival Evolved при высоких настройках. В среднем получаем желаемые 60 FPS. Показатель 0,1% Low опускается до 32, но без каких-либо неприятных последствий для геймплея. Видеопамяти потребовалось под 7 ГБ, поэтому большой буфер очень кстати.
Помните культовый монолог Морфеуса из Матрицы о выборе и двух таблетках? На той же идее построен сюжет We Happy Few. Авторы предлагают нам аналогичный выбор: лететь в пропасть, но вместе со всем обществом, или попытаться спастись, став изгоем. Интересно, какой финал выбрали вы? Делитесь в комментариях. А мы тем временем отметим, что при ультра настройках скорость очень редко просаживается до 55 FPS, поэтому проблемы могут возникнуть лишь с прохождением сюжетных заданий.
Полнее ощутить атмосферу Frostpunk можно в холодные осенние дни, когда за окном +3°C, а центральное отопление еще не включили. В таком случае с первого раза покинуть теплую постель утром – это уже подвиг. А если вы еще и до компьютера добрались, то можно о медали помечтать. Игра вам ее не выдаст, но порадует стабильной средней скоростью в районе 60 FPS. Было бы больше, да принудительная вертикальная синхронизация не позволяет.
RUST при почти максимальных настройках бегался на удивление хорошо. Периодически на графике времени кадра проскакивали неприятные пики и очень редкие события упали до 25 FPS, но средняя скорость и статистика 1% Low держались выше 60 FPS. А вот памяти нужно много: более 7 ГБ видео и 9 ГБ оперативной.
Выжить в мире SCUM под силу далеко не каждому, ведь нужно не только вовремя заметить противника, но и постоянно следить за внутренними показателями героя. Все это не просто, но интересно. А при эпическом пресете – еще и красиво. Скоростные показатели находятся на уровне RUST: средний фреймрейт спешит в стратосферу, а 0,1% Low пробивает дно в 20 FPS.
Бегать по полям с пшеницей в Cuisine Royale − еще пол беды, а вот если бы там была кукуруза той же высоты, то на это было бы больно смотреть. Хорошо, что скорость видеоряда не вызывает никаких неприятных ощущений: в среднем 96 FPS с очень редкими просадками до 51.
Откровенно порадовал Quake Champions: даже при ультра настройках мы получили в среднем 205 FPS, а статистика 0,1% Low не опускалась ниже 109. Особенно такие показатели понравятся обладателям 144-герцовых мониторов. Видеопамяти потребовалось более 6 ГБ, а оперативной – 5,5 ГБ.
Интересный факт: в Британии все чаще причиной развода становится увлечение одного из супругов игрой Fortnite. Поэтому, милые девушки, подумайте дважды перед тем, как спросить: «Выбирай, что тебе важнее: я или Fortnite?» Ведь выбор действительно непростой: с Vega 56 в игре можно рассчитывать на стабильно высокие 60-110 FPS, а в отношениях стабильными могут быть только ссоры.
PUBG приучил нас к двум вещам: профи играют на низких настройках и выходить безопаснее через окно. Но в реальности пользуйтесь все же дверью. С Vega 56 можно комфортно играть и с ультра пресетом. В среднем рассчитывайте на 109 FPS с очень редкими просадками до 43. Видеопамяти нужно около 5 ГБ, и еще более 7 ГБ взято из ОЗУ.
Игровой десктоп ASUS ROG Strix GL12CX с процессорами Intel Core 9-го поколения
В декабре в продажу поступит новый игровой десктоп ASUS ROG Strix GL12CX. В топовой комплектации он может похвастать новыми 8-ядерными процессорами Intel Core i7-9700K (с заводским разгоном до 4,9 ГГц) и Intel Core i9-9900K (с заводским разгоном до 5 ГГц). За их охлаждение отвечает СВО закрытого типа от Cooler Master. А видеоподсистема включает в себя NVIDIA GeForce RTX 2080 Ti 11GD6 или NVIDIA GeForce RTX 2080 8GD6.
Подсистема оперативной памяти десктопа ROG Strix GL12CX состоит из двух DIMM-слотов с поддержкой до 32 ГБ стандарта DDR4-2666. Дисковая подсистема может включать в себя пять SATA и два M.2-накопителя. В комплект поставки входит карта расширения ASUS DIMM.2, которая добавляет поддержку еще двух коннекторов для M.2 NVMe. Также в конструкции предусмотрен один отсек под SSD с поддержкой «горячей замены».
Сводная таблица технической спецификации игрового десктопа ASUS ROG Strix GL12CX выглядит следующим образом:
Обзор и тестирование видеокарты ASUS Dual GeForce RTX 2080 OC edition: шаг в будущее
В конце лета NVIDIA сделала то, что от нее ожидали с начала весны – официально анонсировала новую линейку видеокарт. По мнению компании, она настолько инновационна, что даже заслуживает новой приставки «RTX» вместо привычной «GTX». Первые ее представители уже поступили в продажу, что позволило и нам получить модель для тестов. Но для начала немного теории.
Для более удобного восприятия информации приводим сводную таблицу видеокарт NVIDIA:
Модель |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce RTX 2070 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce RTX 2080 |
NVIDIA GeForce GTX 1080 Ti |
NVIDIA GeForce RTX 2080 Ti |
Техпроцесс, нм |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
16 (FinFET) |
12 (FFN) |
GPU |
NVIDIA GP104-200 |
NVIDIA TU106 |
NVIDIA GP104-400 |
NVIDIA TU104-400A |
NVIDIA GP102-350 |
NVIDIA TU102-300A |
Микроархитектура |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
NVIDIA Pascal |
NVIDIA Turing |
Площадь кристалла, мм2 |
314 |
445 |
314 |
545 |
471 |
754 |
Количество транзисторов, млрд. |
7,2 |
10,8 |
7,2 |
13,6 |
12 |
18,6 |
Количество SM-блоков |
15 |
36 |
20 |
46 |
28 |
68 |
Количество CUDA-ядер |
1920 |
2304 |
2560 |
2944 |
3584 |
4352 |
Количество CUDA-ядер в SM-блоке |
128 |
64 |
128 |
64 |
128 |
64 |
Количество текстурных блоков |
120 |
144 |
160 |
184 |
224 |
272 |
Количество растровых блоков |
64 |
64 |
64 |
64 |
88 |
88 |
Количество ядер Tensor |
- |
288 |
- |
368 |
- |
544 |
Количество ядер RT |
- |
36 |
- |
46 |
- |
68 |
Объем кэша L2, КБ |
2048 |
4096 |
2048 |
4096 |
3072 |
6144 |
Базовая / динамическая частота GPU, МГц |
1506 / 1683 |
1410 / 1620 |
1607 / 1733 |
1515 / 1710 |
1480 / 1582 |
1350 / 1545 |
Базовая / динамическая частота GPU Founders Edition, МГц |
1506 / 1683 |
1410 / 1710 |
1607 / 1733 |
1515 / 1800 |
1480 / 1582 |
1350 / 1635 |
Тип видеопамяти |
GDDR5 |
GDDR6 |
GDDR5X |
GDDR6 |
GDDR5X |
GDDR6 |
Объем, ГБ |
8 |
8 |
8 |
8 |
11 |
11 |
Эффективная частота памяти, МГц |
8 008 |
14 000 |
10 008 |
14 000 |
11 008 |
14 000 |
Разрядность шины, бит |
256 |
256 |
256 |
256 |
352 |
352 |
Пропускная способность, ГБ/с |
256,3 |
448 |
320 |
448 |
484 |
616 |
Вычислительная мощность FP32 (Founders Edition), TFLOPS |
6,5 |
7,5 (7,9) |
8,9 |
10 (10,6) |
11,3 |
13,4 (14,2) |
TDP (Founders Edition), Вт |
150 |
175 (185) |
180 |
215 (225) |
250 |
250 (260) |
Рекомендованная стоимость на старте продаж (партнерские / Founders Edition), $ |
379 / 449 |
499 / 599 |
599 / 699 |
699 / 799 |
699 |
999 / 1199 |
Мы понимаем, что выкладываем обзор по новинке с опозданием, поэтому нет особого смысла в глубоком погружении в микроархитектурные особенности: кому интересно – уже прочел все подробности на других ресурсах, а кому не интересно – все равно пропустит этот блок и сразу перейдет к знакомству с видеокартой. Поэтому лишь кратко остановимся на ключевых инновациях.
Техпроцесс
На бумаге видим переход от 16-нм технологии до 12-нм, но производитель самих чипов, компания TSMC, открыто заявляет, что ее техпроцесс 12-нм FFN является слегка улучшенной версией 16-нм FinFET+. Поэтому в реальности плотность размещения транзисторов возросла незначительно. Например, для NVIDIA TU104 она увеличилась на 9% по сравнению с NVIDIA GP104. Основной же рост числа транзисторов произошел благодаря увеличению общей площади кристаллов.
Микроархитектура
Блок-схема графического процессора NVIDIA TU104
Важные изменения коснулись распределения структурных блоков внутри графического процессора. По-прежнему в основе находятся вычислительные кластеры GPC (Graphics Processing Cluster), но по сравнению с NVIDIA Pascal имеем ряд нововведений:
- каждый SM-модуль внутри GPC получил по одному ядру RT;
- каждый SM-модуль внутри GPC получил по 8 тензорных ядер (Tensor);
- количество CUDA-ядер в каждом SM-модуле уменьшилась со 128 до 64;
- появилась возможность одновременного параллельного выполнения операций с целочисленными (INT32) и вещественными (FP32) данными, хотя раньше вычислительные блоки были универсальными, поэтому за такт обрабатывались либо первые, либо вторые данные;
- в 2 раза увеличился объем кэш-памяти L2;
- до 2,7 раз вырос объем кэш-памяти L1, в 2 раза увеличилась ее пропускная способность и существенно снизилась задержка доступа.
Тензорные ядра
Тензорные ядра (Tensor Core) в микроархитектуре Turing используются для перемножения двух матриц размером 4 х 4 и складывания полученного результата с третьей матрицей аналогичного размера. При этом сами матрицы могут включать в себя целые числа или числа с запятой. Эта простая с виду операция лежит в основе обучения нейронных сетей.
В играх на основе тензорных ядер будет реализована технология сглаживания Deep Learning Super Sampling (DLSS). По уровню качества финального изображения она превосходит 64-кратное MSAA, но при этом создает меньшую нагрузку на систему. Однако поддержку DLSS необходимо реализовать еще и на уровне игр. Если таковая имеется, то существенно повышается скорость видеоряда.
RT-ядра
Трассировка лучей в режиме реального времени – это не новинка. Она уже многие годы используется в архитектуре для создания фотореалистичных интерактивных проектов зданий либо интерьеров. Также ее активно применяют в киноиндустрии, но там рендеринг каждого кадра занимает уйму времени и требует большого объема вычислительных ресурсов. Игры же выделяются вариативным геймплеем и даже NVIDIA Turing не сможет в полной мере просчитать все лучи в реальном времени, но первый шаг в этом направлении сделан с помощью RT-ядер.
Они помогают системе определить, пересекает ли виртуальный луч света определенный пиксель изображения или нет. А после этого просчитывается, насколько меняется его освещенность и как это отображается на соседних пикселях.
Сложность этой задачи такова, что все вычислительные ресурсы видеокарты NVIDIA GeForce GTX 1080 Ti обеспечивают производительность в 1,1 гигалучей за секунду (Giga Rays/s). А всего 68 RT-ядер видеокарты NVIDIA GeForce RTX 2080 Ti выдают более 10 гигалучей в секунду. При этом остальные блоки освобождаются для выполнения других задач. Кстати, тензорные ядра также участвуют в технологии трассировки лучей: они используются для подавления сопутствующих шумов.
К сожалению, такой производительности недостаточно для полноценной трассировки лучей в режиме реального времени, поэтому в NVIDIA Turing появился гибридный метод рендеринга: в некоторых эффектах может использоваться растеризация, а в других – трассировка лучей. Но, опять же, ее поддержку должны предусмотреть сами разработчики игр.
Производительность и модели заливки
Улучшения в структуре SM-модулей и архитектуре памяти, а также увеличение регистрового файла привели к 50%-ому росту производительности шейдерных блоков.
Кроме того, NVIDIA предлагает использовать новые модели заливки (Shading Model):
- Mesh Shading – предлагает заменить тесселяцию, вершинные и геометрические шейдеры на более универсальные Task Shader и Mesh Shader, чтобы ускорить обработку сложных сцен с большим количеством объектов.
- Variable Rate Shading (VRS) – позволяет разбить экран на зоны размером 16 х 16 пикселей, и внутри каждой зоны гибко менять плотность выборки пикселей. Например, если конкретная зона не нуждается в точном определении цвета пикселей, то их можно объединить в разных вариациях (1 х 2, 2 х 1, 2 х 2, 4 х 2, 2 х 4, 4 х 4), чтобы снизить нагрузку на систему. Это целесообразно для закраски изображения на периферии. А для центральной части используется более точная модель 1 х 1.
- Texture-Space Sharing – сохраняет результат заливки в памяти для последующего использования, без необходимости повторного просчета.
- Multi-View Rendering (MVR) – является дальнейшим развитием технологии Simultaneous Multi-Projection (SMP). Если SMP за один проход может отрисовать проекцию полигонов на экран с двух точек обзора, то MVR выполняет то же самое для четырех точек. Эта технология будет востребована, например, в новых поколениях VR-шлемов.
GDDR6
NVIDIA Turing первой использует видеопамять стандарта GDDR6 с пропускной способностью 14 Гбит/с на контакт. Графические процессоры поддерживают по одному 8-гигабитному чипу на каждый 32-битный контроллер памяти. В составе NVIDIA TU104 и TU106 есть по 8 контроллеров, а NVIDIA TU102 получил 11. Соответственно, имеем либо 8, либо 11 ГБ памяти. Общая пропускная способность выросла до 616 ГБ/с. Для сравнения напомним, что у HBM2 в составе AMD Radeon RX Vega 64 этот показатель достигает 484 ГБ/с. Добавьте к этому улучшенные алгоритмы компрессии данных, и вы получите 50%-ый рост эффективной пропускной способности по сравнению с предшественниками.
NVLink
Один канал NVLink с 8 линиями имеет пиковую пропускную способность в 25 ГБ/с в одном направлении (50 ГБ/с в двух направлениях). Этого достаточно для передачи кадрового буфера с разрешением 8K. Для двух каналов пропускная способность повышается до 50 и 100 ГБ/с соответственно. Этого хватит для режима 8K Surround.
Таким образом NVIDIA обеспечила мощный толчок для дальнейшего развития технологии NVIDIA SLI, но реализовать ее можно будет только в видеокартах NVIDIA GeForce RTX 2080 и RTX 2080 Ti, и лишь в режиме 2-Way для двух адаптеров. Всем желающим придется дополнительно потратиться на новый мостик NVLink Bridge.
Интерфейсы вывода изображения
Позаботилась компания и о поддержке мониторов со сверхвысоким разрешением. Для этого в стандартном наборе есть порт HDMI 2.0b с максимальным разрешением 4K @ 60 Гц, три DisplayPort 1.4a (8K @ 60 Гц) и USB Type-C (VirtualLink) для шлемов виртуальной реальности нового поколения.
Стримерам также лучше смотреть в сторону видеокарт NVIDIA Turing благодаря улучшенной поддержке кодирования HEVC и H.264, а также декодирования VP9 и HEVC.
GPU Boost 4.0
И напоследок теоретического раздела вспомним о технологии GPU Boost 4.0. Новая версия динамического оверклокинга предлагает дополнительные параметры для тонкой настройки разгона. В спецификации по-прежнему указывается некое среднее значение скорости, а не максимальное. Если система охлаждения и питания позволяют, то реальная скорость динамического разгона буде выше той, которая обозначена в спецификации.
Также разработан инструмент NVIDIA Scanner, поддержка которого уже добавлена в утилиту EVGA Precision X1. Он позволяет просканировать вашу видеокарту в автоматическом режиме и определить максимальные значение тактовой частоты и необходимые для этого рабочие напряжения. Очень удобно, особенно для новичков-любителей.
ASUS Dual GeForce RTX 2080 OC edition
Теперь давайте перейдем от теории к практике на примере видеокарты ASUS Dual GeForce RTX 2080 OC edition (DUAL-RTX2080-O8G). В первую очередь она выделяется обновленным 2,7-слотовым кулером и заводским разгоном графического процессора. Об остальных ее возможностях расскажем далее.
Спецификация
Модель |
ASUS Dual GeForce RTX 2080 OC edition (DUAL-RTX2080-O8G) |
|
Техпроцесс, нм |
12 |
|
GPU |
NVIDIA TU104-400A |
|
Микроархитектура |
NVIDIA Turing |
|
Количество CUDA-ядер |
2944 |
|
Количество текстурных блоков |
184 |
|
Количество растровых блоков |
64 |
|
Базовая / динамическая частота GPU, МГц |
«Gaming» |
1515 / 1800 |
«OC» |
1515 / 1830 |
|
Тип видеопамяти |
GDDR6 |
|
Объем, ГБ |
8 |
|
Эффективная частота, МГц |
14 000 |
|
Разрядность шины, бит |
256 |
|
Пропускная способность, ГБ/с |
448 |
|
Внутренний интерфейс |
PCI Express 3.0 x16 |
|
Внешние интерфейсы |
1 x HDMI 2.0b |
|
Дополнительные коннекторы питания |
1 х 8-контактный |
|
Рекомендованная мощность блока питания, Вт |
650 |
|
Размеры, мм |
268 х 114 х 58 |
|
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или с сайта производителя GPU |
|
Сайт производителя |
Упаковка и комплектация
Новинка поставляется в красочной картонной упаковке с информативной полиграфией, которая отображает ключевые преимущества графического адаптера. На лицевой стороне упоминается о бесплатной 6-месячной премиум-подписке на сервис WTFast Gamers Private Network. Он автоматически оптимизирует путь прохождения игровых пакетов между компьютером пользователя и игровым сервером для минимизации их потери и уменьшения среднего времени отклика (ping).
На нижнюю сторону производитель поместил рекомендации к блоку питания: минимальная его мощность должна составлять 650 Вт, а в наборе коннекторов желательно иметь один 6-контактный и один 8-контактный PCIe. Эти рекомендации традиционно указаны с запасом, поскольку производитель не может предсказать финальную конфигурацию пользовательской системы. Реальное энергопотребление нашего тестового стенда с этой видеокартой указано на последнем графике блока тестирования.
В коробке мы обнаружили только руководство пользователя и диск с ПО.
Внешний вид
Для видеокарт серии ASUS Dual характерным является сочетание черно-белой цветовой схемы, но если раньше преобладал белый цвет, то теперь – черный. Адаптер выглядит стильно, немного агрессивно и не скучно благодаря множеству дизайнерских элементов на пластиковом кожухе.
На обратной стороне приютилась металлическая пластина жесткости. Она поддерживает массивную конструкцию системы охлаждения, предотвращая изгиб или повреждение печатной платы, а также участвует в пассивном отводе излишков тепла. Один из крепежных винтов прикрыт наклейкой, поэтому снять пластину жесткости без потери гарантии не получится.
Разобрать видеокарту ASUS Dual GeForce RTX 2080 OC edition нам не разрешили, поэтому заглянуть внутрь и показать вам подсистему питания с элементной базой мы не можем. Даже на официальном сайте отсутствует эта информация.
В наборе же внешних интерфейсов используется стандартный перечень портов:
- 1 x HDMI 2.0b
- 3 x DisplayPort 1.4a
- 1 x USB Type-C
Максимальное разрешение составляет 7680 х 4320.
В верхней части возле интерфейсной панели находится традиционный разъем для реализации технологии NVIDIA SLI. Правда, теперь для этого подходят только мостики NVLink Bridge. В младших моделях (NVIDIA GeForce RTX 2070 и других) поддержка этой технологии отсутствует.
Для корректной работы видеокарты ASUS DUAL-RTX2080-O8G необходимо подключить два дополнительных коннектора питания PCIe: один 6-контактный и один 8-контактный. Вместе со слотом PCIe 3.0 x16 они смогут подать до 300 Вт мощности. Этого хватит даже для оверклокерских экспериментов.
В основе ASUS DUAL-RTX2080-O8G находится графический процессор NVIDIA TU104-400A с поддержкой 2944 CUDA-ядер. Тестирование проводилось в режиме «Gaming», который используется по умолчанию. Он характеризуются разгоном динамической частоты GPU с эталонных 1710 до 1800 МГц. А вот базовая скорость осталась на референсном уровне.
Подсистема видеопамяти набрана с помощью GDDR6-микросхем компании Micron общим объемом 8 ГБ. Эффективная частота составляет 14 ГГц, что при 256-битной шине дает пропускную способность в 448 ГБ/с.
На официальной страничке указано о наличии профиля «OC» с разгоном динамической частоты GPU до 1830 МГц. Но там не упоминается режим «Silent», который также есть в фирменной утилите GPU Tweak II. Он снижает динамическую скорость до 1770 МГц. Эффективная частота видеопамяти во всех случаях остается неизменной.
Подсветка в конструкции видеокарты ASUS DUAL-RTX2080-O8G не предусмотрена.
Система охлаждения
Кулер – это одно из ключевых изменений в дизайне нового представителя серии ASUS Dual. Он занимает 2,7 слота расширения, а общие габариты графического адаптера составляют 268 х 114 х 58 мм. Поэтому перед покупкой обязательно убедитесь, что в корпусе достаточно места для новинки.
Конструкция системы охлаждения состоит из массивного алюминиевого радиатора без тепловых трубок, но с большим основанием. На обороте приютилась пластина жесткости, которая также принимает участие в отводе тепла. За активный обдув отвечает пара 88-мм осевых вентиляторов с дизайном Wing-blade и защитой от пыли (IP5X).
В автоматическом режиме работы системы охлаждения, при максимальной нагрузке температура графического процессора достигала 78°С. Вентиляторы вращались на 60% (1989 об/мин) от своей максимальной скорости, создавая очень тихий фоновый шум, который абсолютно не мешал работе. Напомним, что критической для GPU считается температура в 88°С.
После принудительной установки скорости вентиляторов на 100% (3259 – 3239 об/мин), температура GPU опустилась до более приятных 63°С. Шум превысил средний уровень и перестал быть комфортным для постоянного использования.
В режиме простоя вентиляторы прекратили свою работу благодаря технологии 0dB, а температура графического процессора уменьшилась до 48°С. В активный режим пропеллеры возвращались лишь тогда, когда температура GPU поднималась до 56°С.
Система охлаждения видеокарты ASUS Dual GeForce RTX 2080 OC edition даже в автоматическом режиме удержала температуру графического процессора в рабочих пределах, но до критической отметки осталось всего 10°С. При максимальной скорости вращения вентиляторов у нее есть хороший запас прочности, но тогда придется жертвовать акустическим комфортом. Никаких посторонних звуков в виде раздражающего писка дросселей в процессе тестирования замечено не было.
Обзор результатов тестирования видеокарт NVIDIA GeForce RTX 20
Наиболее крупные IT-порталы уже получили свои экземпляры видеокарт линейки NVIDIA GeForce RTX 20 и выложили первые обзоры. Мы также ждем свои тестовые образцы, поэтому в скором будущем порадуем вас собственными тестами. А пока можем взглянуть на общую картину.
В целом мнение IT-журналистов совпало: NVIDIA GeForce RTX 2080 и GeForce RTX 2080 Ti получились очень производительными, но и очень дорогими продуктами. Сказывается как отсутствие реальной конкуренции, так и традиционно повышенный ажиотаж на старте продаж. А в свете торговой войны между США и Китаем цены могут вырасти еще на 10% или больше.
В числовом эквиваленте имеем следующую ситуацию:
- RTX 2080 Ti vs GTX 1080 Ti (средний FPS) – 23% быстрее в 1440p; 31% быстрее в 4K;
- RTX 2080 Ti vs RTX 2080 (средний FPS) – 21% быстрее в 1440p; 30% быстрее в 4K;
- RTX 2080 vs GTX 1080 (средний FPS) – 29% быстрее в 1440p; 34% быстрее в 4K.
Больше всего негатива у обозревателей вызвала ситуация вокруг NVIDIA GeForce RTX 2080. Показатели производительности у нее находятся на уровне GeForce GTX 1080 Ti, но новинка на зарубежных рынках пока на $200 дороже. Хотя многие смотрят в сторону GeForce RTX 20 исключительно из-за поддержки технологий NVIDIA RTX и DLSS, которые будут добавлены в популярные игры в скором будущем. Поэтому полный потенциал GeForce RTX 20 пока не раскрыт.
https://www.notebookcheck.net
Сергей Будиловский
Новые слайды производительности NVIDIA GeForce RTX 2080 и 2080 Ti с DLSS и без нее
Ранее компания NVIDIA опубликовала первый слайд с относительной игровой производительностью видеокарты GeForce RTX 2080 в 4K-разрешении, приняв за базовый уровень показатели NVIDIA GeForce GTX 1080. На этом же слайде было показано влияние технологии DLSS (Deep Learning Super Sampling), которая заметно повышает производительность новинки в совместимых играх.
Теперь NVIDIA показала еще несколько интересных слайдов. На первом она открыто признала, что NVIDIA GeForce GTX 1080 Ti не всегда обеспечивает комфортные 60 FPS в 4K-разрешении. Для этой задачи следует использовать минимум GeForce RTX 2080, а лучше – NVIDIA GeForce RTX 2080 Ti.
Второй слайд демонстрирует значительный прирост от использования технологии DLSS благодаря встроенным тензорным ядрам и оптимизации самих игр. Вот полный список проектов, в которых уже или вскоре будет добавлена поддержка этой технологии:
- Darksiders III
- Deliver Us The Moon: Fortuna
- Fear the Wolves
- Hellblade: Senua’s Sacrifice
- KINETIK
- Outpost Zero
- Overkill’s The Walking Dead
- SCUM
- Stormdivers
- Ark: Survival Evolved
- Atomic Heart
- Dauntless
- Final Fantasy XV
- Fractured Lands
- Hitman 2
- Islands of Nyne
- Justice
- JX3
- Mechwarrior 5: Mercenaries
- PlayerUnknown’s Battlegrounds
- Remnant: From the Ashes
- Serious Sam 4: Planet Badass
- Shadow of the Tomb Raider
- The Forge Arena
- We Happy Few
https://wccftech.com
Сергей Будиловский
Видеокарта серии NVIDIA GeForce RTX 20 засветилась в бенчмарке 3DMark Time Spy
В базе данных бенчмарка 3DMark Time Spy замечена неопознанная видеокарта компании NVIDIA. Она имеет в своем составе 8 ГБ GDDR6-памяти с эффективной частотой 14 ГГц, поэтому сложно сказать о ком именно идет речь: NVIDIA GeForce RTX 2080 или GeForce RTX 2070.
Источник предполагает, что это NVIDIA GeForce RTX 2080, поскольку результат составил 10 030 баллов, что на 37% выше типичных показателей NVIDIA GeForce GTX 1080 (7325 баллов), на 38,5% выше AMD Radeon RX Vega 64 (7240 баллов) и на 5% лучше результата NVIDIA GeForce GTX 1080 Ti (9508 баллов). Показатель видеокарты NVIDIA TITAN Xp составляет 10180 баллов, или на 1,5% выше, чем у тестовой модели. Ожидать от NVIDIA GeForce RTX 2070 таких результатов было бы слишком оптимистично, хотя «чему бы грабли не учили, а сердце верит в чудеса», поэтому ждем полноценных тестов.
https://videocardz.com
Сергей Будиловский