Первые неофициальные фото и характеристики флагманской видеокарты линейки Intel DG2
YouTube-канал Moore's Law is Dead поделился предварительной информацией касательно топовой версии GPU для линейки Intel DG2 и флагманской игровой видеокарты на его основе. Хотя до релиза характеристики могут измениться, ведь это пока предварительные данные из неофициальных анонимных источников.
GPU будет создан компанией TSMC с применением 6-нм (N6) или 7-нм (N7P) техпроцесса. В его основе находится 512 исполнительных блоков EU (4096 шейдерных блоков) с базовой тактовой частотой 2,2 ГГц. В паре с ним работает 16 ГБ памяти GDDR6 с 256-битной шиной. TDP приблизительно находится в районе 275 Вт, хотя изначально планировали снизить этот показатель до 225-250 Вт.
Параллельно Intel создает собственный аналог технологий NVIDIA DLSS/AMD FidelityFX Super Resolution под названием Intel XeSS. Для него заявлена поддержка аппаратной трассировки лучей и технологии масштабирования разрешения.
Уровень производительности топовой видеокарты линейки Intel DG2 находится между GeForce RTX 3070 и RTX 3080. Intel еще не определилась с финальным дизайном кулера – существует как минимум три варианта на выбор. Релиз новинки ожидается не ранее четвертого квартала 2021 года, с более широкой доступностью в 2022 году. Стоимость среднеценовых видеокарт линейки Intel DG2 составит $200 – 300. Ценник топовой версии пока держится в секрете.
https://www.techpowerup.com
Сергей Будиловский
Характеристики и производительность мобильных видеокарт серии GeForce RTX 3050
Вскоре NVIDIA выпустит игровые мобильные видеокарты бюджетного уровня – GeForce RTX 3050 и RTX 3050 Ti. Обе созданы на базе 8-нм графического процессора GA107 (Ampere). В первом случае он получил 2048 ядер CUDA, а во втором – 2560. Также в их составе есть ядра RT и Tensor для аппаратного ускорения рейтрейсинга и поддержки технологии DLSS, но точное их количество пока не сообщается. Подсистема видеопамяти в обоих случаях набрана из 4 ГБ GDDR6 со 128-битной шиной.
Показатель TDP для мобильной серии GeForce RTX 3050 находится в диапазоне от 35 до 80 Вт. Это напрямую влияет на Boost частоту GPU и пиковую производительность. В максимальном варианте получаем 1740 МГц для GeForce RTX 3050 и 1695 МГц для GeForce RTX 3050 Ti.
В плане производительности NVIDIA GeForce RTX 3050 Ti находится между GeForce RTX 2060 Max-Q и GeForce GTX 1660 Ti Max-Q. В свою очередь RTX 3050 обходит GeForce GTX 1650 Ti, но уступает GTX 1660 Ti Max-Q в синтетике, но опережает ее в Shadow of the Tomb Raider.
Сводная таблица технической спецификации мобильных видеокарт серии NVIDIA GeForce RTX 3050:
Модель |
NVIDIA GeForce RTX 3050 |
NVIDIA GeForce RTX 3050 Ti |
GPU |
GA107 (GN20-P0) |
GA107 (GN20-P1) |
Ядер CUDA |
2048 |
2560 |
Boost частота (35 Вт) / (50 Вт) / (60 Вт) / (80 Вт), МГц |
1057,5 / 1455 / 1500 / 1740 |
1035 / 1410 / 1485 / 1695 |
Пиковая производительность FP32, TFLOPS |
7,2 |
8,7 |
Тип видеопамяти |
GDDR6 |
|
Объем, ГБ |
4 |
|
Частота памяти, ГГц |
5,5 |
|
Разрядность шины, бит |
128 |
https://videocardz.com
Сергей Будиловский
Новые подробности технологии AMD FidelityFX Super Resolution
В рамках подкаста PCWorld Full Nerd Special представитель AMD Скотт Херкелман (Scott Herkelman) поделился интересными подробностями касательно технологии AMD FidelityFX Super Resolution. Это некий аналог NVIDIA DLSS.
Во-первых, официальный акроним для нее будет не FFS или FXSS, а FSR. Во-вторых, AMD планирует выпустить ее в этом году для ПК. Поскольку это открытая и кроссплатформенная технология, то позже она появится на консолях и других платформах.
Еще один интересный момент касается базовой технологии, на основе которой работает AMD FSR. Напомним, что NVIDIA DLSS базируется на машинном обучении. Для этого в структуре GPU видеокарт линейки GeForce RTX есть специальные тензорные ядра. Графические процессоры AMD лишены их поддержки. Но компания может использовать технологию машинного обучения Microsoft DirectML, которая также не требует особых структурных блоков, или внедрить что-то другое.
В итоге AMD пока продолжает работу над технологией FSR в лаборатории. Компания не планирует форсировать ее разработку, чтобы не пострадали ключевые цели: простота и удобство реализации со стороны разработчиков, высокое качество выходного изображения, хорошая масштабируемость под различные разрешения и повышение кадровой частоты.
https://videocardz.com
Сергей Будиловский
Игровой тест NVIDIA GeForce RTX 3070 в Full HD: с лучами по жизни
Это уже третий материал данного цикла. Ранее мы уже погоняли GeForce RTX 3060 Ti и Radeon RX 6800. А разрешение Full HD выбрано неспроста. По статистике Steam подобные мониторы находятся у 67% пользователей. И их обладателям наверняка интересно: «А если заменить старую видеокарту на что-то поновее и помощнее!? Сколько FPS будет, если все ползунки выкрутить вправо?» И с этим мы можем помочь.
Теперь про саму GeForce RTX 3070. В ее основе находится 8-нм графический процессор GA104-300 поколения Ampere. Он имеет 5888 ядер CUDA, по 184 текстурных блока и тензорных ядра, а также 96 растровых блоков и 46 ядер RT. В паре с ним работает 8 ГБ памяти GDDR6 c эффективной частотой 14 ГГц. Согласно нашим тестам, RTX 3070 быстрее RTX 2080 SUPER на 15-16%. И даже RTX 2080 Ti смог опередить ее лишь на 6-8%.
На главную роль в этом материале мы пригласили быструю и тихую Palit GeForce RTX 3070 JetStream OC. Она получила ускорение динамической частоты GPU с эталонных 1725 до 1815 МГц, но в играх она в основном поднимается выше 1950 МГц, а температура не превышает 78° при критических 93°С.
Все благодаря расширенному TDP, качественной элементной базе и практически 3-слотовому кулеру с парой вентиляторов TurboFan 3.0. В наличии поддержка новомодной ARGB-подсветки и технологии «0 децибел».
Переходим к тестовому стенду. В его основе находится 16-поточный Core i9-9900K.
Специально его не разгоняли, но активировали режим автобуста на материнке ASUS Prime Z390-A.
Охлаждали процессор топовой 3-секционной водянкой NZXT Kraken X73.
Оперативки у нас с большим запасом – 32 ГБ из комплекта DDR4-3600 CORSAIR Dominator Platinum RGB.
Для ОС и необходимого софта взяли M.2 SSD Kingston A1000 объемом 480 ГБ.
Все игры установили на более быстрый и емкий 2-терабайтный Kingston KC2000.
Остальное закинули на 4-терабайтный HDD Seagate BarraCuda.
Питание доверили безупречному Seasonic PRIME PX-1000 мощностью 1 кВт с «платиновым» сертификатом.
Систему собрали в красивом и просторном NZXT H710i.
Картинку выводили на монитор Philips Brilliance 329P9H. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Поскольку в тесте RTX 3060 Ti некоторые игры и так летали, то на сей раз мы их исключили. Просим понять и простить, но Третьего Ведьмака сегодня не будет. Зато будут тяжелые или слабо оптимизированные проекты, а также некоторые новинки для разнообразия. Итак, погнали!
Начнем с простого – Wasteland 3. Погрузиться в мир постапокалипсиса можно при максимальном пресете графики. Даже показатель 0,1% Low не опускался ниже 110 кадров/с – это все, что нужно знать о комфорте игрового процесса.
ARK не блещет оптимизацией. Если сервер позволяет и не приближаться к большим базам или густым зарослям, то средний FPS переваливает за 60. В противном случае могут встречаться ощутимые просадки, но не смертельно. С эпическим пресетом видеокарта трудится по полной.
В RUST особо не церемонились: выбрали максимальные настройки графики и получили в среднем за 120 FPS. Хотя видеокарта и недогружена, но в густой растительности могут встречаться просадки ниже 50 кадров/с. Правда, особой погоды они не делают и все более чем играбельно.
Для разнообразия добавили Grounded. Игра на движке Unreal Engine 4 может нагрузить даже топовые видеокарты в 4K. Но в Full HD на максималках получаем под 130 FPS и комфортную остальную статистику.
В популярной Apex Legends выкрутили все на максимум и уперлись в ограничение в 140 FPS. Естественно, нет ни малейших намеков на лаги или проблемы с управлением. По мониторингу видно, что загрузка видеокарты не превышает 80%.
Читать обзор полностью >>>Игровой тест NVIDIA GeForce RTX 3060 Ti: майнеры, у вас совесть есть?
В комментариях вы, конечно же, отметите, что тестировать нужно было в Quad HD или в 4K, но мы подняли свежую статистику Steam и увидели, что почти 67% его пользователей отдают предпочтение старому доброму Full HD. Менее 10% используют Quad HD и чуть более 2% – Ultra HD.
Напомним, что GeForce RTX 3060 Ti представили 1 декабря 2020 года. В продажу она поступила с рекомендованным ценником $399. Столько же стояла RTX 2060 SUPER на старте продаж, но новинка быстрее в среднем на 40%. Она сочетает в себе 8-нм графический процессор GA104-200 поколения Ampere и 8 ГБ памяти GDDR6.
В составе GPU есть 4864 ядер CUDA, 152 тензорных ядра третьего поколения и 38 ядер RT второго поколения. Новинка поддерживает все актуальные технологии и API, включая, DirectX 12 Ultimate, Vulkan RT и OpenGL 4.6, NVIDIA DLSS, Reflex и RTX IO.
Стримерам понравятся возможности программы NVIDIA Broadcast на основе ИИ. Создатели контента оценят специализированные драйверы и уникальные инструменты платформы NVIDIA Studio. И только майнерам NVIDIA не обещает никаких дополнительных плюшек, но именно из-за них геймеры, стримеры и создатели контента не могут купить RTX 3060 Ti по адекватной цене.
Нам для тестов предоставили эталонную версию с новомодным 12-контактным коннектором питания. В комплекте есть стандартный переходник на обычные блоки, но мы использовали более надежный и добротный вариант от Seasonic.
Boost-частота графического процессорах заявлена на уровне 1665 МГц, но в играх она в основном поднимается выше 1900 МГц, а температура не превышает 75°C при критических 93°С. Вот так стильный 2-вентиляторный кулер справляется с охлаждением даже без испарительной камеры.
Кратко пробежимся по тестовому стенду. В основе находится 16-поточный Intel Core i9-9900K.
Для его ускорения использовали режим автобуста на материнской плате ASUS Prime Z390-A.
С охлаждением процессора помогла 3-секционная водянка NZXT Kraken X73.
Все вопросы с оперативной памятью закрыл 32-гигабайтный комплект DDR4-3600 CORSAIR Dominator Platinum RGB.
Для ОС и необходимого софта взяли M.2 SSD Kingston A1000 объемом 480 ГБ.
Все игры установили на более быстрый и емкий 2-терабайтный Kingston KC2000.
А под временные файлы, скриншоты и прочее добро использовали 4-терабайтный Seagate BarraCuda.
Киловаттный «платиновый» Seasonic PRIME PX-1000 обеспечил стабильное питание всех узлов и не потревожил излишним шумом.
Просторный корпус NZXT H710i с легкостью вместил в себя все комплектующие.
Для вывода изображения использовали монитор Philips Brilliance 329P9H. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Без дальнейшей раскачки переходим к играм. ARK при эпическом пресете на живом сервере бегается отлично. В первые минуты ощущались небольшие подлагивания, но потом они пропали. Побежали куда глаза глядят и максимум до 35 FPS просадили статистику очень редких событий, хотя в геймплее это уже не ощущалось.
В RUST можно надолго зависнуть с тонким подбором настроек. Мы же пошли напролом и выставили практически максимальные параметры. Средняя скорость поднялась выше 135 кадров/с. Подлагиваний не было, как и проблем с управлением.
Результат в Escape from Tarkov при ультра пресете сильно зависит от локации. В одних местах текущая скорость держится в районе сотни FPS, а загрузка видеокарты превышает 60%. А в других текущий фреймрейт падает ниже 60 кадров/с, а загрузка – ниже 40%. Явно ощущается нехватка оптимизации.
PUBG тоже не радует хорошей оптимизацией по всей карте, но в этот раз все прошло более-менее гладко при народном миксе ультра и низких настроек. Средняя скорость находилась в районе 240 кадров/с, а показатель 0,1% Low опустился ниже 40. Бегается приятно и попадать можно без проблем при прямых руках и хорошей реакции.
Контрольный запуск Fortnite при эпическом пресете и без лучей прошел комфортно. Средняя скорость поднялась выше 170 кадров/с. К геймплею особых претензий нет: для начала побегали немножко, чтобы все подкешилось, а затем уже можно было играть всерьез. В момент записи соединение было не очень стабильным, что и отразилось на статистике очень редких событий.
Если вам хочется добавить лучи с максимальным качеством, то без DLSS в сбалансированном режиме не обойтись. Средняя скорость держится в районе 60 кадров/с, картинка приятная и управление полностью отзывчивое.
Ради эксперимента перевели DLSS в режим «Качество» и чуть поубавили настройки рейтрейсинга, чтобы плавность видеоряда не пострадала и на выходе получили те же 60 FPS. А если вы предпочитаете средний пресет качества, то показатели будут еще выше.
В Apex Legends можно выкрутить все настройки на максимум и радоваться средней скорости более 140 FPS, без фризов, подергиваний и желейности в управлении. Как раз для монитора с повышенной частотой развертки. Если вы готовы жертвовать настройками, то фреймрейт можно поднять еще выше.
Читать обзор полностью >>>Обзор видеокарты ASUS ROG STRIX GeForce RTX 3060 OC Edition: младший Ampere
Одним из самых ярких событий прошлого года стала презентация первых видеокарт линейки NVIDIA Ampere. Сначала NVIDIA представила старшие модели, чтобы продемонстрировать весь потенциал. И вот в начале 2021 года нам показали более доступную новинку – NVIDIA GeForce RTX 3060, с которой мы сегодня и познакомимся.
В отличие от NVIDIA GeForce RTX 3060 Ti и GeForce RTX 3070, основанных на GA104, в основу новинки легла модификация графического процессора GA106. Он получил в свое распоряжение 4 GPC (Graphics Processing Cluster) с 8 SM-модулями в каждом. На выходе должно было получиться 32 SM и 4096 ядер соответственно. Однако четыре модуля SM у RTX 3060 отключены. В итоге характеристики выглядят следующим образом: 4 GPC, 28 SM, 3584 ядер CUDA, по 112 текстурных блоков и тензорных ядер, 48 растровых блоков и 28 ядер RT.
Подсистема видеопамяти выделяется на фоне других представителей линейки Ampere своим объемом. В видеокарте используется 192-битная шина памяти, что позволяет NVIDIA установить 6 или 12 ГБ. Компания сочла первый вариант недостаточным для запуска современных требовательных игр в разрешении 2K.
Кроме того, GeForce RTX 3060 получила поддержку технологии Resizable BAR. Она позволяет процессору обращаться ко всему объему видеопамяти при наличии совместимой материнской платы. Однако она немного повышает требования к объему видеопамяти, и с 6-гигабайтной конфигурацией она работает не так эффективно, как с 12-гигабайтной. Это вторая причина выбора 12 ГБ памяти. Отдельное спасибо NVIDIA скажут майнеры Ethereum за такой емкий видеобуфер, если бы не встроенное ограничение. Но об этом расскажем позже.
Напомним, что ключевым преимуществом Ampere стали новые SM-процессоры, тензорные ядра третьего поколения и ядра RT второго поколения. Это позволило повысить пропускную способность первых до 12,7 Shader-TFLOPS, вторых – до 102 Tensor-TFLOPS и третьих – до 24,9 RT-TFLOPS. Для сравнения: аналогичные показатели GeForce RTX 2060 составляют 6,5 Shader-TFLOPS, 51,6 Tensor-TFLOPS и 19,5 RT-TFLOP. Прирост достигает 95%, 98% и 28% соответственно.
Для большей наглядности ниже представлено сравнение характеристик со старшими видеокартами серии GeForce RTX 30.
Модель |
GeForce RTX 3060 |
|||||
Техпроцесс, нм |
8 |
|||||
Микроархитектура |
Ampere |
|||||
GPU |
GA102-300-A1 |
GA102-200-KD-A1 |
GA104-300-A1 |
GA104-200 |
GA106-300-A1 |
|
Количество SM-блоков |
82 |
68 |
46 |
38 |
28 |
|
Количество ядер CUDA |
10 496 |
8704 |
5888 |
4864 |
3584 |
|
Количество текстурных блоков |
328 |
272 |
184 |
152 |
112 |
|
Количество растровых блоков |
112 |
96 |
96 |
80 |
48 |
|
Количество ядер Tensor |
328 |
272 |
184 |
152 |
112 |
|
Количество ядер RT |
82 |
68 |
46 |
38 |
28 |
|
Базовая / динамическая частота, МГц |
1395 / 1695 |
1440 / 1710 |
1500 / 1725 |
1410 / 1665 |
1320 / 1777 |
|
Тип памяти |
GDDR6X |
GDDR6X |
GDDR6 |
GDDR6 |
GDDR6 |
|
Объем памяти |
24 |
10 |
8 |
8 |
12 |
|
Эффективная частота памяти, МГц |
19 500 |
19 000 |
14 000 |
14 000 |
15 000 |
|
Шина памяти, бит |
384 |
320 |
256 |
256 |
192 |
|
Пропускная способность, ГБ/с |
936 |
760 |
448 |
448 |
360 |
|
Энергопотребление, Вт |
350 |
320 |
220 |
200 |
170 |
|
Дополнительные разъемы питания |
2 х 8-контактных |
2 х 8-контактных |
1 х 8-контактный |
1 х 8-контактный |
1 х 8-контактный |
|
Рекомендованная мощность блока питания, Вт |
750 |
750 |
650 |
650 |
650 |
|
Рекомендованная стоимость, $ |
1499 |
699 |
499 |
399 |
329 |
Для сравнения напомним, что графический процессор TU106-200A-KA-A1 в составе RTX 2060 имеет в своем составе 30 SM-модулей, 1920 ядер CUDA, 120 текстурных блоков, 240 тензорных ядер второго поколения, 48 растровых блоков и 30 ядер RT первого поколения. Объем видеопамяти GDDR6 составляет 6 ГБ, а рекомендованный ценник – $349.
Разница в оснащении более чем существенная, поэтому нет ничего удивительного в том, что по внутренним тестам NVIDIA новинка превосходит предшественницу, не говоря уже о GeForce GTX 1060.
Речь идет не только об игровом преимуществе, но и о вычислительной мощности в целом. Это оказывает существенное влияние на производительность в прикладном ПО для работы с контентом.
Как и другие представители семейства Ampere, GeForce RTX 3060 получила поддержку популярных фирменных технологий. К примеру, NVIDIA Reflex динамически снижает задержку системы на действия игрока путем оптимизации как графического процессора, так и игры. Это особенно важно в соревновательных сетевых проектах. Благодаря библиотекам NVIDIA Reflex Low-Latency Mode разработчики игр могут встраивать в свои проекты специальный режим для скоростного рендера кадров. Данная технология уже задействована в Apex Legends, Call of Duty: Cold War, Fortnite, Destiny 2 и Valorant.
Понравится новинка и стримерам. Во-первых, видеокарты NVIDIA Ampere получили новую версию блока кодирования и декодирования видео (NVENC). Он разгружает процессор и высвобождает его мощность для транслируемой игры.
Во-вторых, приложение NVIDIA Broadcast получило целый ряд инструментов, основанных на работе искусственного интеллекта (ИИ). С их помощью стримеры смогут повысить качество передачи речи путем удаления посторонних шумов, менять фон без использования хромакей, а также использовать ИИ в качестве своеобразного личного оператора, который сможет фокусировать камеру на лице, отслеживая его перемещение в кадре. Все перечисленные выше функции могут быть использованы не только для стримов, но и для видеоконференций.
Ну а теперь предлагаем взглянуть на NVIDIA GeForce RTX 3060 на примере ASUS ROG STRIX GeForce RTX 3060 OC Edition.
Спецификация
Модель |
ASUS ROG STRIX GeForce RTX 3060 OC Edition (ROG-STRIX-RTX3060-O12G-GAMING) |
GPU |
NVIDIA GA106-300-A1 |
Микроархитектура |
NVIDIA Ampere |
Техпроцесс, нм |
8 |
Количество ядер CUDA |
3584 |
Количество текстурных блоков |
112 |
Количество растровых блоков |
48 |
Количество тензорных ядер |
112 |
Количество ядер RT |
28 |
Номинальная / динамическая частота графического ядра, МГц |
1320 / 1852 («Silent») 1320 / 1882 («Gaming») 1320 / 1912 («OC») |
Тип памяти |
GDDR6 |
Объем памяти, ГБ |
12 |
Эффективная частота памяти, МГц |
15 000 |
Ширина шины памяти, бит |
192 |
Пропускная способность памяти, ГБ/с |
360 |
Внутренний интерфейс |
PCI Express 4.0 x16 |
Внешние интерфейсы |
2 x HDMI 2.1 |
Рекомендованная мощность блока питания, Вт |
750 |
Дополнительные разъемы питания PCIe |
1 х 8-контактный |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
300 х 134 х 53,5 |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта ASUS ROG-STRIX-RTX3060-O12G-GAMING поставляется в крупной картонной коробке с отличным информационным наполнением и приятным оформлением. На упаковке обозначены ключевые преимущества этой новинки, но не указаны подробные характеристики.
На одной из боковых сторон находится краткий список системных требований к компьютеру. Исходя из рекомендаций, блок питания должен поддерживать один 8-контактный кабель PCIe. Рекомендованная мощность самого источника составляет 750 Вт.
В комплекте мы обнаружили стандартную документацию, диск с ПО и пару стяжек для проводов.
Внешний вид
Выпуск новой линейки видеокарт стал знаковым не только для самой NVIDIA, но и для многих ее партнеров, которые решили к этому событию обновить дизайн своих модификаций. ASUS существенно переработала облик видеокарт линейки ROG STRIX. Кожух системы охлаждения выполнен из пластика и украшен металлическими накладками темно-серого цвета, которые отлично сочетаются с серебристой сердцевиной вентиляторов.
Не обошли вниманием и любителей подсветки, оснастив иллюминацией практически всю боковину кожуха. Вы сможете синхронизировать ее работу со свечением других совместимых комплектующих вашего ПК.
На этой же боковине приютился небольшой переключатель между двумя прошивками BIOS – Performance и Quiet. Первый характеризуется большей производительностью, а второй – меньшим шумом.
Для питания видеокарты используется слот PCI Express 4.0 х16 и 8-контактный разъем PCIe. Благодаря его удачному расположению кулер нисколько не затрудняет отключение кабеля питания.
В хвостовой части печатной платы есть пара колодок для подключения корпусных вентиляторов. Скорость вращения их лопастей может меняться в зависимости от температуры видеокарты или процессора благодаря технологии ASUS FanConnect II.
Обратная сторона ASUS ROG STRIX GeForce RTX 3060 OC Edition защищена металлической опорной пластиной. Она повышает жесткость конструкции и участвует в отводе тепла.
Для вывода изображения используется следующий набор интерфейсов:
- 2 х HDMI 2.1;
- 3 х DisplayPort 1.4а.
Максимальное разрешение составляет 7680 х 4320.
В основе видеоускорителя лежит 8-нм GPU GA106-300-A1. По умолчанию используется режим Gaming. В нем базовая частота GPU составляет 1320 МГц, а динамическая достигает 1882 МГц, что на 6% выше эталонных 1777 МГц. В фирменной утилите GPU Tweak II можно дополнительно активировать профили Silent и OC. В первом случае Boost-частота снижается до 1852 МГц, а во втором – поднимается до 1912 МГц.
Видеопамять набрана из GDDR6-микросхем компании Samsung общим объемом 12 ГБ. Они работают на эталонной эффективной частоте 15 000 МГц. Обмен данными между графическим ядром и памятью осуществляется через 192-битную шину, которая способна пропускать 360 ГБ информации за секунду.
Система охлаждения
Видеокарта ASUS ROG-STRIX-RTX3060-O12G-GAMING с установленной системой охлаждения занимает 2,7 слота расширения и имеет общую длину 300 мм.
Кулер состоит из крупного трехсекционного алюминиевого радиатора и пяти никелированных медных тепловых трубок диаметром 6 мм. Элементы подсистемы питания и чипы видеопамяти охлаждаются за счет отдельной пластины и контакта с основным радиатором.
Активная часть представлена тремя вентиляторами с дизайном Axial-tech и диаметром лопастей 90 мм. Их крыльчатка закольцована по внешнему радиусу. Вместе с доработанной формой лопастей это повышает давление нисходящего воздушного потока и улучшает эффективность охлаждения.
Вертушки вращаются в разном направлении для снижения турбулентности, а в их основе находятся двойные шарикоподшипники. Поддерживается и пассивный режим работы СО вплоть до температуры в 50°С.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 55°С при критическом показателе в 93°С. Пропеллеры тихо работали на скорости 1350 об/мин.
В режиме максимальной частоты вращения лопастей вентиляторов (в районе 3000 об/мин) температура GPU опустилась до 45°С. Шум едва достигал среднего уровня и оставался абсолютно комфортным для повседневной эксплуатации.
При реальной игровой нагрузке в Assassin’s Creed Odyssey в разрешении Full HD температура составила 49°С при скорости работы вертушек в районе 1000 об/мин. Частота графического процессора поднималась до 1957 МГц.
Переход в разрешение 4K привнес рост температуры до 55°С. Частота GPU возросла до 1980 МГц, а скорость вращения вертушек осталась на прежнем уровне.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU достигла 37°С, а кулер перешел в пассивный режим.
В целом система охлаждения модели ASUS ROG-STRIX-RTX3060-O12G-GAMING без проблем справляется с поставленной задачей. Даже в автоматическом режиме можно не волноваться за перегрев компонентов и есть запас для разгонных экспериментов. Очень понравился комфортный уровень шума на всем диапазоне и отсутствие свиста дросселей.
NVIDIA опубликовала ключевые характеристики GeForce RTX 3060
На днях NVIDIA подтвердила официальный старт продаж видеокарт серии GeForce RTX 3060 с 25 февраля. Рекомендованная стоимость остается на уровне $329 / €329, но ритейлеры уже активно повышают ценники до уровня €700.
Теперь NVIDIA добавила новинку на свой веб-сайт. И ее характеристики полностью совпадают с ранее опубликованными из неофициальных источников. В составе GPU есть 3584 ядер CUDA, 28 ядер RT и 112 Tensor. Базовая частота составляет 1320 МГц, а динамическая поднимается в район 1777 МГц. Хотя если система охлаждения позволяет, то в играх она будет еще выше. Подсистема видеопамяти представлена 12 ГБ GDDR6 с эффективной частотой 15 ГГц и 192-битной шиной.
Пиковая производительность NVIDIA GeForce RTX 3060 составляет 13 TFLOPS. При активации тензорных ядер она достигает 101 Tensor-TFLOPS, а в рейтрейсинге составляет 25 RT-TFLOPS. Также новинка поддерживает все сопутствующие технологии линейки Ampere, включая DLSS, Reflex, DirectX 12 Ultimate, 7-е поколение NVIDIA Encoder и 5-е поколение NVIDIA Decoder.
Сводная таблица технической спецификации видеокарт серии GeForce RTX 3060:
Игровой тест GeForce RTX 3070 в Full HD и Quad HD на примере INNO3D GeForce RTX 3070 iCHILL X3
Но для начала пару слов о самой видеокарте. В ее основе находится 8-нм графический процессор GA104-300. Он имеет 5888 ядер CUDA, по 184 текстурных блока и тензорных ядра, а также 96 растровых блоков и 46 ядер RT.
В паре с ним работает 8 ГБ памяти GDDR6 c эффективной частотой 14 ГГц. Как и все носители микроархитектуры Ampere, новинка получила удвоенную производительность в операциях над 32-битными вещественными числами, а также тензорные ядра третьего поколения и ядра RT второго поколения.
Согласно нашим тестам, RTX 3070 быстрее 2080 SUPER на 15-16%. И даже RTX 2080 Ti смог ее опередить лишь на 6-8%. При этом рекомендованный ценник у нее в 2 раза выше, что делает покупку RTX 2080 Ti нецелесообразной. Плюс, Ampere энергоэффективнее.
Новые видеокарты принесли с собой целый ряд особенностей и технологий. Одной из них является RTX IO, призванная разгрузить CPU за счет оптимизации путей прохождения данных к GPU.
NVIDIA Reflex повышает отзывчивость системы, в первую очередь в киберспортивных проектах, без потери в качестве картинки. Отдельного внимания заслуживает приложение NVIDIA Broadcast для стримеров. Во-первых, все ускорители Ampere получили новую версию аппаратного кодека NVENC. Во-вторых, приложение имеет широкий набор инструментов, основанных на работе искусственного интеллекта, который опирается на тензорные ядра.
К тому же на GeForce RTX можно не только играть, но и продуцировать контент. Для этих задач создана платформа NVIDIA Studio. Она сочетает в себе GPU RTX, набор ПО со специализированными SDK и единый драйвер STUDIO.
Для более пристального изучения возможностей новинки мы вооружились графическим ускорителем INNO3D GeForce RTX 3070 ICHILL X3. Он получил небольшой разгон динамической скорости GPU до 1785 МГц. Память трудится на рекомендованных частотах.
Инженеры оснастили свое детище 12-фазной подсистемой питания, а в цепи используются силовые каскады, рассчитанные на номинальный ток в 50 А. Все это добро управляется парой ШИМ-контроллеров от On Semiconductor.
Фирменная система охлаждения состоит из двухсекционного радиатора, пронизанного шестью никелированными трубками диаметром 6 мм. В основании реализована технология прямого контакта. VRM и чипы памяти охлаждаются с помощью отдельных пластин, прикрученных к тому же радиатору. Задняя пластина не только защищает PCB от механических повреждений, но и принимает участие в отводе тепла.
Поверх радиатора установлен кожух с металлическим накладками и тремя 95-мм вентиляторами. На верхнем торце встроены RGB-светодиоды. Там же расположена специальная ниша для крепления акриловых вставок из комплекта поставки. А еще есть пара 4-контактных коннекторов для подключения и синхронизации устройств с подсветкой.
А всем этим добром можно управлять через утилиту INNO3D TuneIT. Любители ярких и оригинальных сборок будут довольны в полной мере!
Да и с эффективностью СО полный порядок. Даже в стресс-тесте FurMark температура GPU не превышала 70°С, а видеокарта оставалась очень тихой на фоне остальных компонентов системы. В играх ГП трудился в диапазоне 1875-2025 МГц, а температура в пике достигала тех же 70°С. Напомним, что критической температурой для чипа является 93°С.
Теперь пробежимся по тестовому стенду. За основу взят 16-поточный Core i9-9900K, который ускорили при помощи активации режима автобуста на материнке.
Его охлаждение доверили топовой 3-секционной водянке NZXT Kraken X73.
Роль материнской платы исполнила полноформатная ASUS Prime Z390-A.
Оперативка набрана 32-гигабайтным комплектом DDR4-3600 CORSAIR Dominator Platinum RGB.
Для ОС и необходимого софта взяли доступный M2 SSD Kingston A1000 объемом 480 ГБ.
Под игры использовали более быстрый 2-терабайтный Kingston KC2000 с интерфейсом PCI Express 3.0 x4.
Все остальное закинули на 4-терабайтный HDD Seagate BarraCuda.
Качественное и бесперебойное питание обеспечил киловаттный «платиновый» блок Seasonic PRIME PX-1000.
Систему собрали в белоснежном корпусе NZXT H710i.
Картинку выводили на монитор Philips Brilliance 329P9H. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Все, переходим к тестам. Игры попроще данная видеокарта щелкает как семечки. Например, в Full HD в World of Tanks на ультрах средний фреймрейт вплотную приближается к отметке в 300 FPS, а видеокарта недогружена и силами Core i9. Но даже с такими скоростными показателями не всегда получается уйти от арты, и это на легком танке.
С теми же настройками переходим в Quad HD. На той же карте и в том же бою получаем среднюю скорость около 230 кадров/с, а загрузка видеокарты уже стремится к 100%. Но киберспортсмены чаще всего играют на низких или очень низких настройках графики, изредка приправляя все это ультратекстурами. Поэтому в любом случае упор будет в процессор, память или другие подсистемы.
Читать обзор полностью >>>Как влияет скорость PCIe на производительность GeForce RTX 3060 Ti, RTX 3070, RTX 3080, RTX 3090?
Итак, мы уже оценили возможности четырех первых видеокарт очень годной линейки NVIDIA Ampere в игровых тестах и сравнениях с внешними и внутренними конкурентами. Но остается важный вопрос: «Как версия интерфейса PCIe на материнской плате влияет на их производительность?» Сейчас новую ревизию для видеокарт поддерживают лишь чипсеты AMD X570 и B550. Остальные в лучшем случае предоставляют PCIe 3.0. Intel перейдет на 4-ю версию вместе с дебютом 11-го поколения десктопных процессоров с кодовым названием Rocket Lake. Но на руках остается еще очень много систем с PCIe 2.0. Да, еще есть модели с PCIe 1.1, только там уж совсем невероятно добавление видеокарты стоимостью как несколько таких компов.
При тестировании мы возьмем новые и наиболее тяжелые игры и бенчмарки, чтобы по максимуму использовать пропускную способность PCI Express и лучше ощутить разницу. В более простых задачах и играх различие может вообще не ощущаться.
Но для начала напомним о самой линейке GeForce RTX 30. 17-го сентября первой в продажу поступила RTX 3080. Через неделю к ней присоединилась флагманская RTX 3090. 29-го октября вышла RTX 3070, а с 2-го декабря в продаже можно искать RTX 3060 Ti.
Все новинки созданы на базе 8-нм микроархитектуры Ampere. Они получили новые SM-процессоры, второе поколение ядер RT и третье поколение тензорных ядер, каждые из которых до 2 раз быстрее предшественников. Две старшие новинки используют память GDDR6X, а две младшие – GDDR6. И, конечно же, все представленные модели линейки RTX 30 поддерживают полезные фирменные технологии, включая DLSS и Reflex.
Первая предназначена для рендеринга на базе ИИ, чтобы ускорить частоту кадров и одновременно улучшить качество картинки. В свою очередь Reflex динамически снижает задержку системы, чтобы вы могли быстрее реагировать на игровые события, что крайне важно в соревновательных играх.
Теперь давайте подробнее рассмотрим все эти новинки на примере видеокарт MSI серии GAMING X TRIO. Именно они участвуют в основном тестировании.
Начнем с модели MSI GeForce RTX 3060 Ti GAMING X TRIO. В ее основе находится графический процессор GA104-200 с поддержкой 4864 ядер CUDA, 38 RT и 152 тензорных ядер. 8 ГБ видеопамяти набраны из микросхем GDDR6 с пропускной способностью 448 ГБ/с. Базовая частота GPU осталась неизменной, а динамическая повышена в заводских условиях с эталонных 1665 до 1830 МГц. Эффективная частота памяти не менялась и составляет 14 ГГц.
За охлаждение отвечает кулер TRI FROZR 2 с технологией Core Pipe и вентиляторами TORX FAN 4.0. Микросхемы памяти передают тепло на радиатор через термопрокладки, а на обороте есть пластина жесткости. Не обошлось без красочной подсветки RGB Mystic Light. В комплекте есть универсальный держатель для любого корпуса, чтобы минимизировать нагрузку на слот PCIe x16.
Рекомендованная стоимость эталонной RTX 3060 Ti составляет $399. Это вариант с запасом для Full HD, ведь на ней можно запускать даже тяжелые игры в Quad HD на ультрах с лучами, например, Watch Dogs Legion. Но без DLSS в среднем получаем 34 FPS. С DLSS в сбалансированном режиме можно рассчитывать на около 60 FPS. Для подобного проекта в 4K она слабовата: с рейтрейсингом и без DLSS видеокарта выдаст менее 20 кадров/с, а после активации чудо технологии получаем почти в 2 раза больше.
Если вам нужна модель под Quad HD и немного под 4K, то лучше смотрите в сторону MSI GeForce RTX 3070 GAMING X TRIO. Рекомендованная стоимость эталонной версии на $100 выше, чем у 3060 Ti. Взамен она предлагает 5888 ядер CUDA, 46 RT и 184 тензорных ядер в составе графического процессора. Возросло и количество других структурных блоков. Со своей стороны MSI добавила заводской разгон динамической частоты с эталонных 1725 до 1830 МГц. Подсистема видеопамяти не изменилась – 8 ГБ GDDR6 с эффективной скоростью 14 ГГц.
За охлаждение внутренних узлов отвечает кулер TRI FROZR 2 с тем же дизайном и преимуществами. Это значит, что радиатор также использует технологии Airflow Control и Wave-curved 2.0 для улучшения аэродинамических свойств, а вентиляторы приостанавливают свою работу при низких нагрузках благодаря технологии Zero Frozr.
Что касается производительности в тяжелых проектах на примере Watch Dogs Legion, то в Quad HD на ультрах с лучами и без DLSS получаем около 40 FPS в среднем. Активация рендеринга на базе искусственного интеллекта обеспечивает заветные 60+ кадров/с.
4K с трассировкой и без DLSS все еще даются с трудом – 22 FPS в среднем нельзя назвать играбельными. Опять на помощь спешит технология DLSS: уже в сбалансированном режиме получаем 41 кадр/с без заметной потери качества картинки.
Так что для более уверенного запуска игр в Ultra HD необходимо смотреть в сторону RTX 3080. Рекомендованная стоимость эталонного варианта составляет $699, но партнерские версии, например, MSI GeForce RTX 3080 GAMING X TRIO 10G, обойдутся вам дороже.
GPU этой новинки включает в себя 8704 ядер CUDA, 68 ядер RT и 272 тензорных ядра, а подсистема видеопамяти набрана из чипов GDDR6X общим объемом 10 ГБ с эффективной частотой 19 ГГц и 320-битной шиной. Модель от MSI обладает лишь заводским разгоном динамической частоты с 1710 до 1815 МГц. Она потребляет 340 Вт и требует подключения трех 8-контактных коннекторов PCIe.
Эффективный отвод тепла обеспечивает тот же кулер TRI FROZR 2, но с рядом доработок по сравнению с младшими моделями. Во-первых, технология Core Pipe использует дополнительную седьмую тепловую трубку большего диаметра. Во-вторых, вентиляторы созданы на базе более надежных и долговечных двойных шарикоподшипников.
Смотрим, на что можно рассчитывать в тяжелых проектах на примере Watch Dogs Legion. На ультрах в Quad HD с лучами и без DLSS получаем 52 FPS. Зато с DLSS в режиме Balanced средний фреймрейт подскакивает почти до 80 кадров/с.
В 4K без рендера на базе искусственного интеллекта можно рассчитывать на 30 FPS – не много, но уже выше психологической отметки в 24 FPS. Добавляем DLSS и радуемся более 50 кадрам/с с приятной картинкой.
Ну и для ультимативного 4K, запуска игр в 8K и для работы создана RTX 3090 с рекомендованным ценником в $1499. В структуре ее GPU находятся 10496 ядер CUDA, 82 ядра RT и 328 тензорных ядер. Объем видеопамяти GDDR6X увеличен до 24 ГБ, и это играет важную роль, особенно в рабочих задачах.
Модель MSI GeForce RTX 3090 GAMING X TRIO 24G добавляет этому бриллианту в линейке Ampere заводской разгон динамической частоты с 1695 до 1785 МГц. Энергопотребление возросло до 370 Вт, а значит необходимо усиливать конструкцию кулера TRI FROZR 2. В качестве дополнительного радиатора инженеры использовали пластину жесткости на обороте. Под ней спрятаны тепловые трубки для лучшего охлаждения чипов памяти.
В играх на примере все той же Watch Dogs Legion на ультрах ситуация следующая. В Quad HD можно спокойно играть с лучами и без DLSS при средней скорости под 60 FPS. С DLSS получаем 85 кадров/с. В 4K без рендеринга на базе ИИ можно рассчитывать на 33 FPS, а с DLSS – почти на 60.
Анонс видеокарты NVIDIA GeForce RTX 3060 – в продаже в конце февраля с ценником от $329
Вчера вечером NVIDIA анонсировала видеокарту GeForce RTX 3060. Она позиционируется в качестве замены GeForce GTX 1060: новинка в 2 раза быстрее в производительности растровых блоков и в 10 раз быстрее в рейтрейсинге.
В основе NVIDIA GeForce RTX 3060 находится связка графического процессора GA106-300 (3584 ядер CUDA) и 12 ГБ памяти GDDR6 со 192-битной шиной. Эффективная частота памяти достигает 15 ГГц, а пропускная способность – 360 ГБ/с.
Производительность RTX 3060 заявлена на следующих уровнях:
- 13 TFLOPS – для шейдерных блоков
- 25 RT-TFLOPS – для ядер RT
- 101 Tensor-TFLOPS – для тензорных ядер
Кроме того, новинка поддерживает все преимущества видеокарт линейки GeForce RTX 30, включая 2-е поколение ядер RT и 3-е поколение ядер Tensor, интерфейсы PCIe 4.0, HDMI 2.1 и DisplayPort 1.4a, 7-е поколение NVIDIA Encoder и 5-е поколение NVIDIA Decoder, а также технологии NVIDIA DLSS, NVIDIA RTX, NVIDIA Reflex и NVIDIA Broadcast. В продажу она поступит в конце февраля с рекомендованным ценником $329. Эталонной версии от NVIDIA не будет – партнеры сразу могут выпускать модифицированные варианты с фирменными кулерами и заводским разгоном.
Сводная таблица технической спецификации видеокарты NVIDIA GeForce RTX 3060:
Читать новость полностью >>>12 января NVIDIA представит мобильные и, возможно, новые десктопные видеокарты линейки GeForce RTX 30
NVIDIA на своем YouTube-канале и в Twitch запланировала трансляцию мероприятия GeForce RTX: Game On. Оно пройдет 12 января в 19:00 по Киеву (9:00 PST).
В Twitter NVIDIA разместила небольшой тизер этого мероприятия. В нем мелькает ноутбук и изображение мобильной видеокарты. Это явно указывает на презентацию мобильной линейки GeForce RTX 30. Первыми в ее состав войдут модели GeForce RTX 3080 и RTX 3070. Обе созданы на основе версий графического процессора GA104 и 8 ГБ памяти GDDR6. Также ожидается релиз 16-гигабайтной версии GeForce RTX 3080.
Второе изображение также наводит на мысль о том, что NVIDIA представит свою версию технологии AMD Smart Memory Access (SAM), созданную на основе функции ReSize BAR интерфейса PCI.
Также в тизере мелькнуло изображение игры Outriders от студии People Can Fly. Ее релиз запланирован на 1 апреля, а бесплатная демоверсия появится 25 февраля. Наверняка эта игра является лишь одной из списка новинок с поддержкой актуальных технологий NVIDIA, включая рейтрейсинг и DLSS.
Последнее из представленных изображений – лого GeForce RTX. Возможно, это намек на презентацию новых десктопных видеокарт. В первую очередь ожидаем анонс среднеценовой GeForce RTX 3060 с 12 ГБ памяти GDDR6. Больше узнаем завтра.
— NVIDIA GeForce (@NVIDIAGeForce) January 9, 2021
https://videocardz.com
Сергей Будиловский
Сравнение GeForce RTX 3060 Ti vs RTX 3070, RTX 2080/2060 SUPER и RX 5700 XT в FHD, QHD и 4K: Ampere всемогущий!
Номинально NVIDIA GeForce RTX 3060 Ti пришла на смену RTX 2060 SUPER. Подсистема видеопамяти у них аналогичная – 8 ГБ GDDR6 с одинаковой частотой и пропускной способностью. Но главная магия кроется в графическом процессоре. SM-блоков стало всего на 4 больше, как и ядер RT, но более чем в 2 раза увеличилось количество ядер CUDA.
С переходом на новую архитектуру заметно выросла мощность трех основных вычислительных ядер. Пиковая производительность программируемых шейдеров поднялась с 7 до 16 TFLOPS по сравнению с предшественником. Прирост для ядер RT составляет 46%, а для тензорных – 126%.
Это позволило RTX 3060 Ti в среднем на 40% обойти 2060 SUPER в играх при одинаковом рекомендованном ценнике на старте продаж. Новинка даже чуть быстрее 2080 SUPER, особенно в играх с рейтрейсингом, хотя рекомендованный ценник у нее на $300 или 43% меньше.
Кстати, о трассировке и DLSS – уже 26 игр обладают поддержкой этих технологий, и их количество будет расти. Осенью уже вышли Ghostrunner, Pumpkin Jack, Watch Dogs Legion и новая Call of Duty с их поддержкой. А зимой дебютировала Cyberpunk 2077 с рейтрейсингом отражений, фоновыми затенениями, тенями, глобальным рассеянным освещением и DLSS.
Кроме того, RTX 3060 Ti гораздо быстрее 2080 SUPER в рендеринге и в задачах с использованием искусственного интеллекта, что делает новинку отличным вариантам для создателей контента.
Любителей шутеров и киберспортивных дисциплин RTX 3060 Ti порадует режимом Reflex Low Latency для снижения задержки системы. Очень часто в бою миллисекунды отделяют победителя от проигравшего. Например, в Fortnite использование технологий Reflex и DLSS сокращает задержку на 60%.
Стримерам понравится высокая производительность новинки при сравнительно низком рекомендованном ценнике, поддержка NVIDIA Encoder 7-го поколения и NVIDIA Broadcast. С их помощью вы сможете комфортнее стримить и использовать технологии устранения фонового шума или виртуального фона для вебки.
Технология RTX IO позволяет разгрузить процессор и ускорить обработку данных с накопителя. Без нее игровая информация с накопителя в первую очередь поступает на процессор, обрабатывается с использованием ОЗУ и только после этого отправляется на GPU. RTX IO позволяет сразу направлять эти потоки данных на графический процессор для ускоренной обработки. Единственная проблема: разработчикам игр нужно самостоятельно добавлять ее поддержку в свои проекты.
Также напомним, что линейка Ampere обеспечивает аппаратную поддержку декодирования формата AV1 и интерфейса HDMI 2.1. AV1 передает видеопоток с более эффективным сжатием и качеством, чем H.264, HEVC и VP9. В свою очередь HDMI 2.1 с пропускной способностью 48 Гбит/с обладает поддержкой переменной частоты обновления, динамического HDR и 8K-мониторов.
Все, больше не будем вас мучить теорией – перейдем к практическому знакомству с новинкой и ее оппонентами. Первой скрипкой нашего теста выступает видеокарта Palit GeForce RTX 3060 Ti GamingPRO OC. Она может похвастать заводским разгоном динамической частоты с 1665 до 1800 МГц или на 8%. Для стабильной работы подсистема питания включает в себя надежные и эффективные микросхемы DrMOS.
Хорошо знакомый кулер занимает почти 3 слота расширения. Его конструкция включает в себя массивный алюминиевый радиатор, несколько тепловых трубок, три осевых вентилятора и пластину жесткости на обороте. Не обошлось без адресной RGB-подсветки и технологии 0-децибел для бесшумной работы при низкой нагрузке.
Более производительным внутренним конкурентом выступает Palit GeForce RTX 3070 JetStream OC. Она может похвастать 5%-ым разгоном динамической частоты GPU, двумя микросхемами BIOS с профилями Silent и Performance, микросхемами DrMOS в цепях питания и 2-вентиляторным кулером с адресной подсветкой. В основе вертушек находятся надежные двойные шарикоподшипники.
Главная же конкуренция развернется с более дорогой, но потенциально менее производительной Palit GeForce RTX 2080 SUPER GameRock. У нее нет заводского разгона GPU или 8 ГБ памяти GDDR6. Зато она получила усиленную подсистему питания и эффективную систему охлаждения с двумя вентиляторами, чтобы в играх частота могла подниматься выше 1900 МГц.
AMD пока не представила видеокарты серии Radeon RX 6700 для конкуренции с 3060 Ti. Но в продаже остается RX 5700 XT с рекомендованным ценником в $399, как и у новинки от NVIDIA. Поэтому сравнение было бы неполным без PowerColor Red Devil Radeon RX 5700 XT OC. Она будет работать в режиме OC для повышения шансов на успех.
Отдельно мы решили сравнить новинку с GIGABYTE GeForce RTX 2060 SUPER WINDFORCE OC, чтобы на практике проверить насколько удачной вышла RTX 3060 Ti по сравнению с прямой предшественницей. У этой модели также в активе небольшой заводской разгон GPU и эффективный, хотя и более компактный 2-вентиляторный кулер.
В некоторых синтетических бенчмарках для полноты картины добавили видеокарты INNO3D GeForce RTX 3080 ICHILL X4 и MSI GeForce RTX 2080 Ti GAMING X TRIO.
Теперь кратко пробежимся по тестовому стенду. Ключевым его компонентом является 16-поточный процессор Intel Core i9-9900K.
Для его ускорения активировали режим автобуста на материнской плате ASUS Prime Z390-A.
Ответственной за охлаждение процессора назначили 3-секционную водянку NZXT Kraken X73.
Проблем с оперативкой не было благодаря 32-гигабайтному комплекту DDR4-3600 CORSAIR Dominator Platinum RGB.
ОС, бенчмарки и другой софт установили на M2 SSD Kingston A1000 объемом 480 ГБ.
Все игры прописали на более быстрый и емкий 2-терабайтный Kingston KC2000.
А для остального использовали 4-терабайтный HDD Seagate BarraCuda.
«Платиновый» киловаттный источник Seasonic PRIME PX-1000 избавил нас от головной боли по поводу стабильного питания системы.
Все компоненты собрали в симпатичном и просторном матово-белом корпусе NZXT H710i.
Для вывода картинки использовали монитор Philips Brilliance 329P9H. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Читать обзор полностью >>>Игровой тест NVIDIA GeForce RTX 3080 в Full HD и Quad HD: а где заветные 60 FPS?
Для начала пару слов о самой видеокарте. В ее основе находится графический процессор поколения Ampere с поддержкой 8704 ядер CUDA, 272 тензорных ядер третьего поколения и 68 ядер RT второго поколения. В паре с ним работает 10 ГБ памяти GDDR6X c эффективной частотой 19 ГГц. По слухам, NVIDIA планировала в декабре выпустить вариант с 20 ГБ памяти, но затем передумала. В плане производительности карта на 20-25% превосходит RTX 2080 Ti в Quad HD и на 30% в 4K.
Одним словом – отличная видеокарта, но дорогая. На нашем рынке она должна стоить от 23,5 тис грн, а в реальности видим более 33 тис. С 29 октября в продаже можно искать RTX 3070, которая по результатам тестирования находится на уровне RTX 2080 Ti. Но не рассчитывайте, что ее ценник на старте будет близок к рекомендованному.
В прошлой сборке мы использовали RTX 3080 в варианте от ASUS. А теперь оценим возможности Palit GeForce RTX 3080 GameRock OC. Название намекает на заводской разгон графического процессора. Базовая его частота не изменилась, а вот динамическая выросла на 9% до 1860 МГц. Память работает на эталонной скорости.
С первого взгляда в глаза бросается очень яркая и оригинальная адресная RGB-подсветка «Ослепительный ангел». Она выглядит шикарно, особенно при вертикальной установке видеокарты. Подсистема питания получила надежные микросхемы DrMOS, а на плате предусмотрено две микросхемы BIOS с режимами Silent и Performance.
Кулер использует пару усилительных литых пластин со сквозными отверстиями для прохождения воздуха. Они принимают участие в отводе тепла и защищают печатную плату от механического повреждения под весом конструкции. Активная часть представлена тремя вентиляторами TurboFan 3.0 на двойных шарикоподшипниках. В играх температура GPU не превышала 70°С при критических 93°С, а частота легко превышала 1900 МГц. Для более простых задач предусмотрен бесшумный режим «0 децибел». А еще в комплекте есть универсальный прозрачный держатель для тех, кто беспокоится о целостности слота PCI-E.
В основе тестового стенда находится 8-ядерный 16-поточный Intel Core i9-9900K. Специально его не разгоняли, но на материнской плате активировали режим автобуста для динамического ускорения.
Чтобы он не закипел в таком режиме, взяли 3-секционную водянка NZXT Kraken X73 с вентиляторами на надежном и долговечном FDB-подшипнике.
Материнская плата ASUS Prime Z390-A порадовала симпатичным дизайном и хорошей функциональностью, хотя для серьезного разгона она не подходит.
Ни в одном из тестов мы не ощущали нехватки оперативной памяти благодаря 32-гигабайтному комплекту DDR4-3600 CORSAIR Dominator Platinum RGB.
Операционную систему и необходимый софт поставили на M.2 SSD Kingston A1000 объемом 480 ГБ с двумя линиями PCIe 3.0.
Все игры установили на более быстрый и емкий 2-терабайтный Kingston KC2000. Последовательная скорость чтения для него заявлена на уровне 3200 МБ/с, а скорость записи достигает 2200 МБ/с.
Под временные файлы, скриншоты и прочее добро добавили 4-терабайтный Seagate BarraCuda.
Блок питания взяли тихий и с запасом – «платиновый» киловаттный Seasonic PRIME PX-1000 с полностью модульной системой кабелей и 12-летней гарантией.
Для 300-мм видеокарты и 3-секционной водянки нужен просторный корпус, например, матово-белый NZXT H710i. Он комплектуется четырьмя вертушками, чтобы сходу обеспечить комфортный температурный режим внутри.
Для вывода изображения использовали монитор Philips Brilliance 329P9H.
Сами геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности. В компьютере она занимает один слот PCIe x4, а взамен позволяет захватывать видео с разрешением вплоть до 4K HDR при частоте 60 FPS. В Full HD максимальная частота кадров поднимается до 240 Гц для более плавного и четкого отображения всех нюансов геймплея.
В этот раз тестовую сессию начнем не с более простых проектов, а с более хитрых, в которых можно легко получить странные результаты, как при предвзятом тесте RTX 2080 Ti в прошлом году.
В Full HD в GTA V выкручиваем все основные и дополнительные настройки на максимум. В городе текущий фреймрейт может подниматься выше 120 FPS, а видеокарта слегка недогружена. Но стоит только выехать на травку, и текущий фреймрейт проседает в 2 раза - в район 60 кадров/с. В среднем за тестовую сессию получаем порядка 90 FPS.
С теми же настройками переходим в Quad HD. В городе текущий фреймрейт находится в районе сотни FPS, а на травке он просаживается до 40 кадров/с. Если сделать MSAA сглаживание попроще, то показатели будут выше. Но это уже компромисс!
В до сих пор тяжелой Watch Dogs 2 мы пошли тем же путем. Для начала в Full HD выбрали ультра пресет, а затем вручную выкрутили на максимум все настройки, включая хардкорное сглаживание. В таком режиме получаем около 60 кадров/с, хотя на травке с деревьями текущая скорость может опускаться в район 50.
С теми же настройками поднимаемся в Quad HD, и получаем в среднем порядка 45 кадров/с. Текущий фреймрейт держится в пределах 40-50 кадров/с, но проблем с плавностью видеоряда или отзывчивостью управления не было.
Хотя стоит только опустить сглаживание с 8-кратного TXAA до 2-кратного MSAA, как в Quad HD текущая скорость поднимается в район 60-70 кадров/с. В динамике разницу в картинке мы не увидели, зато видеоряд гораздо плавнее и приятнее.
Ради фана добавили в тесты Quake II RTX. Проект выглядит простеньким, но с максимальными настройками рейтрейсинга в Full HD система с RTX 2070 SUPER выдавала лишь около 50 FPS, с просадкой редких и очень редких событий ниже 30 кадров/с. RTX 3080 уже справляется куда лучше: при тех же настройках получаем более сотни FPS, а остальная статистика находится выше 80.
В 1440p система выдает чуть более 60 FPS в среднем. Геймплей полностью комфортный, но только вдумайтесь: всего 60 FPS на RTX 3080, за которую сейчас нужно выложить более $1200 на нашем рынке.
Переходим к остальным проектам. ARK при эпическом пресете в 1080p обеспечивает порядка сотни FPS в среднем. В разрешении 1440p с теми же настройками получаем около 90 кадров/с. Остальная статистика тоже немного просела, но без критических последствий.
Если же подойти к крупной базе, то сразу ощущаются проблемы с оптимизацией. Загрузка видеокарты падает в район 50-60%, а текущий фреймрейт проседает до 50 кадров/с. Похоже, уперлись в ограничение DirectX 11 в плане количества вызовов на отрисовку. К видеокарте тут претензий нет.
Death Stranding при очень высоком пресете в Full HD и в Quad HD DLSS можно не включать – система и так выдает комфортные показатели. В первом случае средняя скорость превышает 180 кадров/с. Показатель очень редких событий каким-то чудом опустился до 39, но в данном случае на него можно не обращать внимание.
В разрешении повыше средняя скорость опускается до 150 кадров/с, и бегается без проблем. Графический процессор уже загружен по полной, хотя в Full HD он был слегка недогружен, если верить мониторингу.
В Vulkan на нашей памяти мониторинг никогда не показывал 100%-ую загрузку видеокарты. Но в DOOM Eternal при Абсолютном кошмаре мы явно упираемся в возможности RTX 3080. Правда, в Full HD она выдает в среднем за 300 FPS – в самый раз для тестов ультрабыстрых мониторов с заоблачной частотой развертки.
В Quad HD при Абсолютном кошмаре можно рассчитывать в среднем на 240 FPS. Остальная статистика держится выше 150 кадров/с. Сами понимаете, сетовать на плавность видеоряда или отзывчивость управления в таком случае просто грешно и аморально.
Читать обзор полностью >>>Обзор видеокарты ASUS ROG STRIX GeForce RTX 3070 OC Edition: новый дизайн ей к лицу
Технологии Ray Tracing и DLSS дебютировали еще в августе 2018 года вместе с 12-нм микроархитектурой NVIDIA Turing, ядрами Tensor и RT. Однако до сих пор они остаются интересными и желанными гостьями для каждой игры.
До ноября 2020 года в полной мере наслаждаться этими технологиями могли обладатели видеокарт линеек NVIDIA GeForce RTX 20 и RTX 30. Также они поддерживаются CUDA-ядрами моделей серии GeForce GTX 16, но с меньшим уровнем производительности. А вот поклонникам AMD и консолей оставалось только завистливо поглядывать в сторону фанатов видеоускорителей «зеленого» лагеря.
В начале ноября в продажу поступили игровые консоли нового поколения от Microsoft и Sony. Их встроенные графические ядра на архитектуре RDNA 2 имеют аппаратную поддержку рейтрейсинга. С 18 ноября в продажу поступили и первые видеокарты линейки Radeon RX 6000 на базе RDNA 2.
И теперь можно с уверенностью говорить о том, что трассировка лучей полноценно отправилась покорять сердца поклонников игр. К слову, пару недель назад вышла Watch Dogs Legion. Это мультиплатформенный проект с поддержкой рейтрейсинга. Давайте еще раз взглянем на работу этой технологии на примере данной новинки игровой индустрии.
Для начала напомним, для чего вообще нужна трассировка лучей. Это технология рендера сцены с трехмерной графикой. Алгоритм отслеживает путь светового луча от источника к объекту освещения и параллельно идет просчет его взаимодействия с объектами на пути следования. Например, он может проходить сквозь прозрачные поверхности, отражаться от металлических объектов и т.д. Для точного просчета всех взаимодействий, будь то преломление или отражение, и нужна трассировка лучей. Все это позволяет отрисовать наиболее реалистичную световую схему и тени, а также максимально точно смоделировать освещение всех объектов в сцене.
На представленных выше скриншотах наглядно видно, как с включением рейтрейсинга существенно меняется световой рисунок кадра. На автомобилях и на полу появились реалистичная игра света и тени, подчеркивающая объемность объектов, а стекла стали детальнее отражать расположенные напротив объекты.
Далее мы решили сравнить разные уровни трассировки лучей: от полностью выключенного до среднего, высокого и ультра режима рейтрейсинга. При включении среднего уровня появляются отражения крон деревьев в лужах, на стекле слева видим отражение неба, а тротуарная плитка выглядит более реалистично.
Переход со средних на высокие настройки еще больше повышает реалистичность плитки, на которой отражения света стали подчеркивать больше деталей. Также немного улучшились отражения на стеклянных поверхностях, но в целом разница не столь заметная, как на примере выше. В ультра режиме получаем еще более реалистичные отражения в лужах, на земле и на мокрых от дождя зонтах, что позволяет картинке выглядеть максимально естественно.
Давайте взглянем на разницу в графике на примере другой сцены с интересным освещением в красных тонах. При включении трассировки в глаза бросается лобовое стекло стоящего рядом автомобиля и витрина напротив, где появились отражения источников света. При этом изменилась структура плитки, с которой пропал рисунок сот.
Переход со средних на высокие настройки вернул соты на плитке, а также существенно улучшил качество отражений на блестящих поверхностях. Разница между высокими и ультра настройками заметна слабо. Можно выделить лишь более четкую структуру отражающей свет плитки.
Напомним, что включение трассировки лучей существенно снижает производительность. Сгладить эту потерю призвана технология NVIDIA Deep Learning Super Sampling (DLSS). При сравнении картинки без сглаживания и с режимом DLSS Performance можно заметить потерю четкости текстур, особенно на дорожных стрелках и на стоящем слева здании.
В режиме DLSS Quality практически все детали возвращаются и разница с отключенным DLSS уже не столь заметна. В свою очередь режим DLSS Balanced пытается найти баланс между четкостью картинки и производительностью.
Самая мягка картинка наблюдается в режиме максимальной производительности, который нужен для слабых видеокарт или более высоких разрешений.
Однако пора переходить к обзору ASUS ROG STRIX GeForce RTX 3070 OC Edition. Для начала предлагаем взглянуть на ее характеристики.
Спецификация
Модель |
ASUS ROG STRIX GeForce RTX 3070 OC Edition (ROG-STRIX-RTX3070-O8G-GAMING) |
GPU |
NVIDIA GA104-300-A1 |
Микроархитектура |
NVIDIA Ampere |
Техпроцесс, нм |
8 |
Количество ядер CUDA |
5888 |
Количество текстурных блоков |
184 |
Количество растровых блоков |
96 |
Количество тензорных ядер |
184 |
Количество ядер RT |
46 |
Номинальная / динамическая частота графического ядра, МГц |
1500 / 1905 |
Тип памяти |
GDDR6 |
Объем памяти, ГБ |
8 |
Эффективная частота памяти, МГц |
14 000 |
Ширина шины памяти, бит |
256 |
Пропускная способность памяти, ГБ/с |
448 |
Внутренний интерфейс |
PCI Express 4.0 x16 |
Внешние интерфейсы |
2 x HDMI 2.1 |
Рекомендованная мощность блока питания, Вт |
750 |
Дополнительные разъемы питания PCIe |
2 х 8-контактных |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
318,5 х 140,1 х 57,8 |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта ASUS ROG-STRIX-RTX3070-O8G-GAMING поставляется в крупной картонной коробке с отличным информационным наполнением и традиционным для серии ROG STRIX оформлением. На упаковке обозначены ключевые преимущества этой новинки, но не указаны подробные характеристики.
На одной из боковых сторон находится краткий список системных требований к компьютеру. Исходя из рекомендаций, блок питания должен поддерживать два 8-контактных кабеля PCIe. Что же касается его мощности, то на сайте заявлено 750 Вт.
В комплекте мы обнаружили стандартную документацию, диск с ПО, пару стяжек для проводов и брелок в виде линейки.
Внешний вид
Вместе с выпуском моделей GeForce RTX 30, компания ASUS обновила дизайн видеокарт линейки ROG STRIX, который стал еще более интересным. Новый кожух по-прежнему выполнен из пластика, но теперь на нем есть металлические накладки темно-серого цвета, которые отлично сочетаются с серебристой сердцевиной вентиляторов. В целом видеокарта выглядит великолепно, ее оформление полностью соответствует флагманскому статусу линейки.
Не обошли вниманием и любителей подсветки, оснастив иллюминацией практически всю боковину кожуха. Вы сможете синхронизировать ее работу со свечением других совместимых комплектующих вашего ПК.
На этой же боковине приютился небольшой переключатель между двумя прошивками BIOS – Performance и Quiet. Первый характеризуется большей производительностью, а второй – меньшим шумом.
Для питания видеокарты используется слот PCI Express 4.0 х16 и два 8-контактных разъема PCIe. Благодаря их удачному расположению кулер нисколько не затрудняет отключение кабелей питания.
В хвостовой части печатной платы есть пара колодок для подключения корпусных вентиляторов. Управление скоростью вращения их лопастей можно задать в зависимости от температуры видеокарты или процессора благодаря технологии ASUS FanConnect II.
Обратная сторона ASUS ROG STRIX GeForce RTX 3070 OC Edition защищена металлической опорной пластиной, которая повышает жесткость конструкции и участвует в отводе тепла.
Для вывода изображения используется следующий набор интерфейсов:
- 2 х HDMI 2.1;
- 3 х DisplayPort 1.4а.
Максимальное разрешение составляет 7680 х 4320.
В основе видеоускорителя лежит 8-нм GPU GA104-300-A1. Базовая его частота составляет 1500 МГц, а динамическая заявлена на уровне 1905 МГц, что на 10% выше эталонных 1725 МГц.
Видеопамять набрана из GDDR6-микросхем компании Samsung общим объемом 8 ГБ. Они работают на эталонной эффективной частоте 14 000 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 448 ГБ информации за секунду.
Система охлаждения
Видеокарта ASUS ROG-STRIX-RTX3070-O8G-GAMING с установленной системой охлаждения занимает 2,9 слота расширения и имеет общую длину 322 мм согласно нашим замерам.
Кулер состоит из крупного алюминиевого радиатора и семи никелированных медных тепловых трубок диаметром 6 мм. Приятным бонусом является охлаждение элементов подсистемы питания и чипов видеопамяти благодаря контакту с основным радиатором и отдельной пластине.
Активная часть представлена тремя вентиляторами с дизайном Axial-tech и диаметром лопастей 96 мм. Их крыльчатка закольцована по внешнему радиусу. Вместе с доработанной формой лопастей это повышает давление нисходящего воздушного потока и улучшает эффективность охлаждения.
Вертушки вращаются в разном направлении для снижения турбулентности, а в их основе находятся двойные шарикоподшипники. Последним в порядке очереди бонусом является пассивный режим работы вплоть до температуры в 55°С.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 65°С при критическом показателе в 93°С. Пропеллеры работали на скорости 1730 об/мин. По субъективным ощущениям шум практически отсутствовал.
Для сравнения возьмем видеокарту GIGABYTE GeForce RTX 3070 GAMING OC 8G. В аналогичном режиме ее GPU нагревался до 66°С и работал на более низкой частоте: 1875 против 1950 МГц.
В режиме максимальной частоты вращения лопастей вентиляторов (2950 об/мин) температура GPU опустилась до 60°С. Шум превысил средний уровень, но все еще оставался абсолютно комфортным для повседневной эксплуатации. Кулер оппонента в аналогичном режиме смог охладить GPU до 58°С. Частота его работы опять была ниже: 1905 против 1950 МГц.
При реальной игровой нагрузке в Assassin’s Creed Odyssey в разрешении Full HD температура составила 55°С при скорости работы вертушек в 1000 об/мин. Частота графического процессора поднималась до 2025 МГц.
Переход в разрешение 4K привнес рост температуры до 57°С. Частота GPU снизалась до 2010 МГц, а скорость вращения вертушек поднялась до 1330 об/мин.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU достигла 42°С.
В целом система охлаждения модели ASUS ROG-STRIX-RTX3070-O8G-GAMING без проблем справляется с поставленной задачей – в автоматическом режиме можно не волноваться за перегрев компонентов и есть запас для разгонных экспериментов.