Анонс видеокарты NVIDIA GeForce RTX 3060 – в продаже в конце февраля с ценником от $329
Вчера вечером NVIDIA анонсировала видеокарту GeForce RTX 3060. Она позиционируется в качестве замены GeForce GTX 1060: новинка в 2 раза быстрее в производительности растровых блоков и в 10 раз быстрее в рейтрейсинге.
В основе NVIDIA GeForce RTX 3060 находится связка графического процессора GA106-300 (3584 ядер CUDA) и 12 ГБ памяти GDDR6 со 192-битной шиной. Эффективная частота памяти достигает 15 ГГц, а пропускная способность – 360 ГБ/с.
Производительность RTX 3060 заявлена на следующих уровнях:
- 13 TFLOPS – для шейдерных блоков
- 25 RT-TFLOPS – для ядер RT
- 101 Tensor-TFLOPS – для тензорных ядер
Кроме того, новинка поддерживает все преимущества видеокарт линейки GeForce RTX 30, включая 2-е поколение ядер RT и 3-е поколение ядер Tensor, интерфейсы PCIe 4.0, HDMI 2.1 и DisplayPort 1.4a, 7-е поколение NVIDIA Encoder и 5-е поколение NVIDIA Decoder, а также технологии NVIDIA DLSS, NVIDIA RTX, NVIDIA Reflex и NVIDIA Broadcast. В продажу она поступит в конце февраля с рекомендованным ценником $329. Эталонной версии от NVIDIA не будет – партнеры сразу могут выпускать модифицированные варианты с фирменными кулерами и заводским разгоном.
Сводная таблица технической спецификации видеокарты NVIDIA GeForce RTX 3060:
Читать новость полностью >>>12 января NVIDIA представит мобильные и, возможно, новые десктопные видеокарты линейки GeForce RTX 30
NVIDIA на своем YouTube-канале и в Twitch запланировала трансляцию мероприятия GeForce RTX: Game On. Оно пройдет 12 января в 19:00 по Киеву (9:00 PST).
В Twitter NVIDIA разместила небольшой тизер этого мероприятия. В нем мелькает ноутбук и изображение мобильной видеокарты. Это явно указывает на презентацию мобильной линейки GeForce RTX 30. Первыми в ее состав войдут модели GeForce RTX 3080 и RTX 3070. Обе созданы на основе версий графического процессора GA104 и 8 ГБ памяти GDDR6. Также ожидается релиз 16-гигабайтной версии GeForce RTX 3080.
Второе изображение также наводит на мысль о том, что NVIDIA представит свою версию технологии AMD Smart Memory Access (SAM), созданную на основе функции ReSize BAR интерфейса PCI.
Также в тизере мелькнуло изображение игры Outriders от студии People Can Fly. Ее релиз запланирован на 1 апреля, а бесплатная демоверсия появится 25 февраля. Наверняка эта игра является лишь одной из списка новинок с поддержкой актуальных технологий NVIDIA, включая рейтрейсинг и DLSS.
Последнее из представленных изображений – лого GeForce RTX. Возможно, это намек на презентацию новых десктопных видеокарт. В первую очередь ожидаем анонс среднеценовой GeForce RTX 3060 с 12 ГБ памяти GDDR6. Больше узнаем завтра.
— NVIDIA GeForce (@NVIDIAGeForce) January 9, 2021
https://videocardz.com
Сергей Будиловский
Сравнение GeForce RTX 3060 Ti vs RTX 3070, RTX 2080/2060 SUPER и RX 5700 XT в FHD, QHD и 4K: Ampere всемогущий!
Номинально NVIDIA GeForce RTX 3060 Ti пришла на смену RTX 2060 SUPER. Подсистема видеопамяти у них аналогичная – 8 ГБ GDDR6 с одинаковой частотой и пропускной способностью. Но главная магия кроется в графическом процессоре. SM-блоков стало всего на 4 больше, как и ядер RT, но более чем в 2 раза увеличилось количество ядер CUDA.
С переходом на новую архитектуру заметно выросла мощность трех основных вычислительных ядер. Пиковая производительность программируемых шейдеров поднялась с 7 до 16 TFLOPS по сравнению с предшественником. Прирост для ядер RT составляет 46%, а для тензорных – 126%.
Это позволило RTX 3060 Ti в среднем на 40% обойти 2060 SUPER в играх при одинаковом рекомендованном ценнике на старте продаж. Новинка даже чуть быстрее 2080 SUPER, особенно в играх с рейтрейсингом, хотя рекомендованный ценник у нее на $300 или 43% меньше.
Кстати, о трассировке и DLSS – уже 26 игр обладают поддержкой этих технологий, и их количество будет расти. Осенью уже вышли Ghostrunner, Pumpkin Jack, Watch Dogs Legion и новая Call of Duty с их поддержкой. А зимой дебютировала Cyberpunk 2077 с рейтрейсингом отражений, фоновыми затенениями, тенями, глобальным рассеянным освещением и DLSS.
Кроме того, RTX 3060 Ti гораздо быстрее 2080 SUPER в рендеринге и в задачах с использованием искусственного интеллекта, что делает новинку отличным вариантам для создателей контента.
Любителей шутеров и киберспортивных дисциплин RTX 3060 Ti порадует режимом Reflex Low Latency для снижения задержки системы. Очень часто в бою миллисекунды отделяют победителя от проигравшего. Например, в Fortnite использование технологий Reflex и DLSS сокращает задержку на 60%.
Стримерам понравится высокая производительность новинки при сравнительно низком рекомендованном ценнике, поддержка NVIDIA Encoder 7-го поколения и NVIDIA Broadcast. С их помощью вы сможете комфортнее стримить и использовать технологии устранения фонового шума или виртуального фона для вебки.
Технология RTX IO позволяет разгрузить процессор и ускорить обработку данных с накопителя. Без нее игровая информация с накопителя в первую очередь поступает на процессор, обрабатывается с использованием ОЗУ и только после этого отправляется на GPU. RTX IO позволяет сразу направлять эти потоки данных на графический процессор для ускоренной обработки. Единственная проблема: разработчикам игр нужно самостоятельно добавлять ее поддержку в свои проекты.
Также напомним, что линейка Ampere обеспечивает аппаратную поддержку декодирования формата AV1 и интерфейса HDMI 2.1. AV1 передает видеопоток с более эффективным сжатием и качеством, чем H.264, HEVC и VP9. В свою очередь HDMI 2.1 с пропускной способностью 48 Гбит/с обладает поддержкой переменной частоты обновления, динамического HDR и 8K-мониторов.
Все, больше не будем вас мучить теорией – перейдем к практическому знакомству с новинкой и ее оппонентами. Первой скрипкой нашего теста выступает видеокарта Palit GeForce RTX 3060 Ti GamingPRO OC. Она может похвастать заводским разгоном динамической частоты с 1665 до 1800 МГц или на 8%. Для стабильной работы подсистема питания включает в себя надежные и эффективные микросхемы DrMOS.
Хорошо знакомый кулер занимает почти 3 слота расширения. Его конструкция включает в себя массивный алюминиевый радиатор, несколько тепловых трубок, три осевых вентилятора и пластину жесткости на обороте. Не обошлось без адресной RGB-подсветки и технологии 0-децибел для бесшумной работы при низкой нагрузке.
Более производительным внутренним конкурентом выступает Palit GeForce RTX 3070 JetStream OC. Она может похвастать 5%-ым разгоном динамической частоты GPU, двумя микросхемами BIOS с профилями Silent и Performance, микросхемами DrMOS в цепях питания и 2-вентиляторным кулером с адресной подсветкой. В основе вертушек находятся надежные двойные шарикоподшипники.
Главная же конкуренция развернется с более дорогой, но потенциально менее производительной Palit GeForce RTX 2080 SUPER GameRock. У нее нет заводского разгона GPU или 8 ГБ памяти GDDR6. Зато она получила усиленную подсистему питания и эффективную систему охлаждения с двумя вентиляторами, чтобы в играх частота могла подниматься выше 1900 МГц.
AMD пока не представила видеокарты серии Radeon RX 6700 для конкуренции с 3060 Ti. Но в продаже остается RX 5700 XT с рекомендованным ценником в $399, как и у новинки от NVIDIA. Поэтому сравнение было бы неполным без PowerColor Red Devil Radeon RX 5700 XT OC. Она будет работать в режиме OC для повышения шансов на успех.
Отдельно мы решили сравнить новинку с GIGABYTE GeForce RTX 2060 SUPER WINDFORCE OC, чтобы на практике проверить насколько удачной вышла RTX 3060 Ti по сравнению с прямой предшественницей. У этой модели также в активе небольшой заводской разгон GPU и эффективный, хотя и более компактный 2-вентиляторный кулер.
В некоторых синтетических бенчмарках для полноты картины добавили видеокарты INNO3D GeForce RTX 3080 ICHILL X4 и MSI GeForce RTX 2080 Ti GAMING X TRIO.
Теперь кратко пробежимся по тестовому стенду. Ключевым его компонентом является 16-поточный процессор Intel Core i9-9900K.
Для его ускорения активировали режим автобуста на материнской плате ASUS Prime Z390-A.
Ответственной за охлаждение процессора назначили 3-секционную водянку NZXT Kraken X73.
Проблем с оперативкой не было благодаря 32-гигабайтному комплекту DDR4-3600 CORSAIR Dominator Platinum RGB.
ОС, бенчмарки и другой софт установили на M2 SSD Kingston A1000 объемом 480 ГБ.
Все игры прописали на более быстрый и емкий 2-терабайтный Kingston KC2000.
А для остального использовали 4-терабайтный HDD Seagate BarraCuda.
«Платиновый» киловаттный источник Seasonic PRIME PX-1000 избавил нас от головной боли по поводу стабильного питания системы.
Все компоненты собрали в симпатичном и просторном матово-белом корпусе NZXT H710i.
Для вывода картинки использовали монитор Philips Brilliance 329P9H. Геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Читать обзор полностью >>>Игровой тест NVIDIA GeForce RTX 3080 в Full HD и Quad HD: а где заветные 60 FPS?
Для начала пару слов о самой видеокарте. В ее основе находится графический процессор поколения Ampere с поддержкой 8704 ядер CUDA, 272 тензорных ядер третьего поколения и 68 ядер RT второго поколения. В паре с ним работает 10 ГБ памяти GDDR6X c эффективной частотой 19 ГГц. По слухам, NVIDIA планировала в декабре выпустить вариант с 20 ГБ памяти, но затем передумала. В плане производительности карта на 20-25% превосходит RTX 2080 Ti в Quad HD и на 30% в 4K.
Одним словом – отличная видеокарта, но дорогая. На нашем рынке она должна стоить от 23,5 тис грн, а в реальности видим более 33 тис. С 29 октября в продаже можно искать RTX 3070, которая по результатам тестирования находится на уровне RTX 2080 Ti. Но не рассчитывайте, что ее ценник на старте будет близок к рекомендованному.
В прошлой сборке мы использовали RTX 3080 в варианте от ASUS. А теперь оценим возможности Palit GeForce RTX 3080 GameRock OC. Название намекает на заводской разгон графического процессора. Базовая его частота не изменилась, а вот динамическая выросла на 9% до 1860 МГц. Память работает на эталонной скорости.
С первого взгляда в глаза бросается очень яркая и оригинальная адресная RGB-подсветка «Ослепительный ангел». Она выглядит шикарно, особенно при вертикальной установке видеокарты. Подсистема питания получила надежные микросхемы DrMOS, а на плате предусмотрено две микросхемы BIOS с режимами Silent и Performance.
Кулер использует пару усилительных литых пластин со сквозными отверстиями для прохождения воздуха. Они принимают участие в отводе тепла и защищают печатную плату от механического повреждения под весом конструкции. Активная часть представлена тремя вентиляторами TurboFan 3.0 на двойных шарикоподшипниках. В играх температура GPU не превышала 70°С при критических 93°С, а частота легко превышала 1900 МГц. Для более простых задач предусмотрен бесшумный режим «0 децибел». А еще в комплекте есть универсальный прозрачный держатель для тех, кто беспокоится о целостности слота PCI-E.
В основе тестового стенда находится 8-ядерный 16-поточный Intel Core i9-9900K. Специально его не разгоняли, но на материнской плате активировали режим автобуста для динамического ускорения.
Чтобы он не закипел в таком режиме, взяли 3-секционную водянка NZXT Kraken X73 с вентиляторами на надежном и долговечном FDB-подшипнике.
Материнская плата ASUS Prime Z390-A порадовала симпатичным дизайном и хорошей функциональностью, хотя для серьезного разгона она не подходит.
Ни в одном из тестов мы не ощущали нехватки оперативной памяти благодаря 32-гигабайтному комплекту DDR4-3600 CORSAIR Dominator Platinum RGB.
Операционную систему и необходимый софт поставили на M.2 SSD Kingston A1000 объемом 480 ГБ с двумя линиями PCIe 3.0.
Все игры установили на более быстрый и емкий 2-терабайтный Kingston KC2000. Последовательная скорость чтения для него заявлена на уровне 3200 МБ/с, а скорость записи достигает 2200 МБ/с.
Под временные файлы, скриншоты и прочее добро добавили 4-терабайтный Seagate BarraCuda.
Блок питания взяли тихий и с запасом – «платиновый» киловаттный Seasonic PRIME PX-1000 с полностью модульной системой кабелей и 12-летней гарантией.
Для 300-мм видеокарты и 3-секционной водянки нужен просторный корпус, например, матово-белый NZXT H710i. Он комплектуется четырьмя вертушками, чтобы сходу обеспечить комфортный температурный режим внутри.
Для вывода изображения использовали монитор Philips Brilliance 329P9H.
Сами геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности. В компьютере она занимает один слот PCIe x4, а взамен позволяет захватывать видео с разрешением вплоть до 4K HDR при частоте 60 FPS. В Full HD максимальная частота кадров поднимается до 240 Гц для более плавного и четкого отображения всех нюансов геймплея.
В этот раз тестовую сессию начнем не с более простых проектов, а с более хитрых, в которых можно легко получить странные результаты, как при предвзятом тесте RTX 2080 Ti в прошлом году.
В Full HD в GTA V выкручиваем все основные и дополнительные настройки на максимум. В городе текущий фреймрейт может подниматься выше 120 FPS, а видеокарта слегка недогружена. Но стоит только выехать на травку, и текущий фреймрейт проседает в 2 раза - в район 60 кадров/с. В среднем за тестовую сессию получаем порядка 90 FPS.
С теми же настройками переходим в Quad HD. В городе текущий фреймрейт находится в районе сотни FPS, а на травке он просаживается до 40 кадров/с. Если сделать MSAA сглаживание попроще, то показатели будут выше. Но это уже компромисс!
В до сих пор тяжелой Watch Dogs 2 мы пошли тем же путем. Для начала в Full HD выбрали ультра пресет, а затем вручную выкрутили на максимум все настройки, включая хардкорное сглаживание. В таком режиме получаем около 60 кадров/с, хотя на травке с деревьями текущая скорость может опускаться в район 50.
С теми же настройками поднимаемся в Quad HD, и получаем в среднем порядка 45 кадров/с. Текущий фреймрейт держится в пределах 40-50 кадров/с, но проблем с плавностью видеоряда или отзывчивостью управления не было.
Хотя стоит только опустить сглаживание с 8-кратного TXAA до 2-кратного MSAA, как в Quad HD текущая скорость поднимается в район 60-70 кадров/с. В динамике разницу в картинке мы не увидели, зато видеоряд гораздо плавнее и приятнее.
Ради фана добавили в тесты Quake II RTX. Проект выглядит простеньким, но с максимальными настройками рейтрейсинга в Full HD система с RTX 2070 SUPER выдавала лишь около 50 FPS, с просадкой редких и очень редких событий ниже 30 кадров/с. RTX 3080 уже справляется куда лучше: при тех же настройках получаем более сотни FPS, а остальная статистика находится выше 80.
В 1440p система выдает чуть более 60 FPS в среднем. Геймплей полностью комфортный, но только вдумайтесь: всего 60 FPS на RTX 3080, за которую сейчас нужно выложить более $1200 на нашем рынке.
Переходим к остальным проектам. ARK при эпическом пресете в 1080p обеспечивает порядка сотни FPS в среднем. В разрешении 1440p с теми же настройками получаем около 90 кадров/с. Остальная статистика тоже немного просела, но без критических последствий.
Если же подойти к крупной базе, то сразу ощущаются проблемы с оптимизацией. Загрузка видеокарты падает в район 50-60%, а текущий фреймрейт проседает до 50 кадров/с. Похоже, уперлись в ограничение DirectX 11 в плане количества вызовов на отрисовку. К видеокарте тут претензий нет.
Death Stranding при очень высоком пресете в Full HD и в Quad HD DLSS можно не включать – система и так выдает комфортные показатели. В первом случае средняя скорость превышает 180 кадров/с. Показатель очень редких событий каким-то чудом опустился до 39, но в данном случае на него можно не обращать внимание.
В разрешении повыше средняя скорость опускается до 150 кадров/с, и бегается без проблем. Графический процессор уже загружен по полной, хотя в Full HD он был слегка недогружен, если верить мониторингу.
В Vulkan на нашей памяти мониторинг никогда не показывал 100%-ую загрузку видеокарты. Но в DOOM Eternal при Абсолютном кошмаре мы явно упираемся в возможности RTX 3080. Правда, в Full HD она выдает в среднем за 300 FPS – в самый раз для тестов ультрабыстрых мониторов с заоблачной частотой развертки.
В Quad HD при Абсолютном кошмаре можно рассчитывать в среднем на 240 FPS. Остальная статистика держится выше 150 кадров/с. Сами понимаете, сетовать на плавность видеоряда или отзывчивость управления в таком случае просто грешно и аморально.
Читать обзор полностью >>>Обзор видеокарты ASUS ROG STRIX GeForce RTX 3070 OC Edition: новый дизайн ей к лицу
Технологии Ray Tracing и DLSS дебютировали еще в августе 2018 года вместе с 12-нм микроархитектурой NVIDIA Turing, ядрами Tensor и RT. Однако до сих пор они остаются интересными и желанными гостьями для каждой игры.
До ноября 2020 года в полной мере наслаждаться этими технологиями могли обладатели видеокарт линеек NVIDIA GeForce RTX 20 и RTX 30. Также они поддерживаются CUDA-ядрами моделей серии GeForce GTX 16, но с меньшим уровнем производительности. А вот поклонникам AMD и консолей оставалось только завистливо поглядывать в сторону фанатов видеоускорителей «зеленого» лагеря.
В начале ноября в продажу поступили игровые консоли нового поколения от Microsoft и Sony. Их встроенные графические ядра на архитектуре RDNA 2 имеют аппаратную поддержку рейтрейсинга. С 18 ноября в продажу поступили и первые видеокарты линейки Radeon RX 6000 на базе RDNA 2.
И теперь можно с уверенностью говорить о том, что трассировка лучей полноценно отправилась покорять сердца поклонников игр. К слову, пару недель назад вышла Watch Dogs Legion. Это мультиплатформенный проект с поддержкой рейтрейсинга. Давайте еще раз взглянем на работу этой технологии на примере данной новинки игровой индустрии.
Для начала напомним, для чего вообще нужна трассировка лучей. Это технология рендера сцены с трехмерной графикой. Алгоритм отслеживает путь светового луча от источника к объекту освещения и параллельно идет просчет его взаимодействия с объектами на пути следования. Например, он может проходить сквозь прозрачные поверхности, отражаться от металлических объектов и т.д. Для точного просчета всех взаимодействий, будь то преломление или отражение, и нужна трассировка лучей. Все это позволяет отрисовать наиболее реалистичную световую схему и тени, а также максимально точно смоделировать освещение всех объектов в сцене.
На представленных выше скриншотах наглядно видно, как с включением рейтрейсинга существенно меняется световой рисунок кадра. На автомобилях и на полу появились реалистичная игра света и тени, подчеркивающая объемность объектов, а стекла стали детальнее отражать расположенные напротив объекты.
Далее мы решили сравнить разные уровни трассировки лучей: от полностью выключенного до среднего, высокого и ультра режима рейтрейсинга. При включении среднего уровня появляются отражения крон деревьев в лужах, на стекле слева видим отражение неба, а тротуарная плитка выглядит более реалистично.
Переход со средних на высокие настройки еще больше повышает реалистичность плитки, на которой отражения света стали подчеркивать больше деталей. Также немного улучшились отражения на стеклянных поверхностях, но в целом разница не столь заметная, как на примере выше. В ультра режиме получаем еще более реалистичные отражения в лужах, на земле и на мокрых от дождя зонтах, что позволяет картинке выглядеть максимально естественно.
Давайте взглянем на разницу в графике на примере другой сцены с интересным освещением в красных тонах. При включении трассировки в глаза бросается лобовое стекло стоящего рядом автомобиля и витрина напротив, где появились отражения источников света. При этом изменилась структура плитки, с которой пропал рисунок сот.
Переход со средних на высокие настройки вернул соты на плитке, а также существенно улучшил качество отражений на блестящих поверхностях. Разница между высокими и ультра настройками заметна слабо. Можно выделить лишь более четкую структуру отражающей свет плитки.
Напомним, что включение трассировки лучей существенно снижает производительность. Сгладить эту потерю призвана технология NVIDIA Deep Learning Super Sampling (DLSS). При сравнении картинки без сглаживания и с режимом DLSS Performance можно заметить потерю четкости текстур, особенно на дорожных стрелках и на стоящем слева здании.
В режиме DLSS Quality практически все детали возвращаются и разница с отключенным DLSS уже не столь заметна. В свою очередь режим DLSS Balanced пытается найти баланс между четкостью картинки и производительностью.
Самая мягка картинка наблюдается в режиме максимальной производительности, который нужен для слабых видеокарт или более высоких разрешений.
Однако пора переходить к обзору ASUS ROG STRIX GeForce RTX 3070 OC Edition. Для начала предлагаем взглянуть на ее характеристики.
Спецификация
Модель |
ASUS ROG STRIX GeForce RTX 3070 OC Edition (ROG-STRIX-RTX3070-O8G-GAMING) |
GPU |
NVIDIA GA104-300-A1 |
Микроархитектура |
NVIDIA Ampere |
Техпроцесс, нм |
8 |
Количество ядер CUDA |
5888 |
Количество текстурных блоков |
184 |
Количество растровых блоков |
96 |
Количество тензорных ядер |
184 |
Количество ядер RT |
46 |
Номинальная / динамическая частота графического ядра, МГц |
1500 / 1905 |
Тип памяти |
GDDR6 |
Объем памяти, ГБ |
8 |
Эффективная частота памяти, МГц |
14 000 |
Ширина шины памяти, бит |
256 |
Пропускная способность памяти, ГБ/с |
448 |
Внутренний интерфейс |
PCI Express 4.0 x16 |
Внешние интерфейсы |
2 x HDMI 2.1 |
Рекомендованная мощность блока питания, Вт |
750 |
Дополнительные разъемы питания PCIe |
2 х 8-контактных |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
318,5 х 140,1 х 57,8 |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта ASUS ROG-STRIX-RTX3070-O8G-GAMING поставляется в крупной картонной коробке с отличным информационным наполнением и традиционным для серии ROG STRIX оформлением. На упаковке обозначены ключевые преимущества этой новинки, но не указаны подробные характеристики.
На одной из боковых сторон находится краткий список системных требований к компьютеру. Исходя из рекомендаций, блок питания должен поддерживать два 8-контактных кабеля PCIe. Что же касается его мощности, то на сайте заявлено 750 Вт.
В комплекте мы обнаружили стандартную документацию, диск с ПО, пару стяжек для проводов и брелок в виде линейки.
Внешний вид
Вместе с выпуском моделей GeForce RTX 30, компания ASUS обновила дизайн видеокарт линейки ROG STRIX, который стал еще более интересным. Новый кожух по-прежнему выполнен из пластика, но теперь на нем есть металлические накладки темно-серого цвета, которые отлично сочетаются с серебристой сердцевиной вентиляторов. В целом видеокарта выглядит великолепно, ее оформление полностью соответствует флагманскому статусу линейки.
Не обошли вниманием и любителей подсветки, оснастив иллюминацией практически всю боковину кожуха. Вы сможете синхронизировать ее работу со свечением других совместимых комплектующих вашего ПК.
На этой же боковине приютился небольшой переключатель между двумя прошивками BIOS – Performance и Quiet. Первый характеризуется большей производительностью, а второй – меньшим шумом.
Для питания видеокарты используется слот PCI Express 4.0 х16 и два 8-контактных разъема PCIe. Благодаря их удачному расположению кулер нисколько не затрудняет отключение кабелей питания.
В хвостовой части печатной платы есть пара колодок для подключения корпусных вентиляторов. Управление скоростью вращения их лопастей можно задать в зависимости от температуры видеокарты или процессора благодаря технологии ASUS FanConnect II.
Обратная сторона ASUS ROG STRIX GeForce RTX 3070 OC Edition защищена металлической опорной пластиной, которая повышает жесткость конструкции и участвует в отводе тепла.
Для вывода изображения используется следующий набор интерфейсов:
- 2 х HDMI 2.1;
- 3 х DisplayPort 1.4а.
Максимальное разрешение составляет 7680 х 4320.
В основе видеоускорителя лежит 8-нм GPU GA104-300-A1. Базовая его частота составляет 1500 МГц, а динамическая заявлена на уровне 1905 МГц, что на 10% выше эталонных 1725 МГц.
Видеопамять набрана из GDDR6-микросхем компании Samsung общим объемом 8 ГБ. Они работают на эталонной эффективной частоте 14 000 МГц. Обмен данными между графическим ядром и памятью осуществляется через 256-битную шину, которая способна пропускать 448 ГБ информации за секунду.
Система охлаждения
Видеокарта ASUS ROG-STRIX-RTX3070-O8G-GAMING с установленной системой охлаждения занимает 2,9 слота расширения и имеет общую длину 322 мм согласно нашим замерам.
Кулер состоит из крупного алюминиевого радиатора и семи никелированных медных тепловых трубок диаметром 6 мм. Приятным бонусом является охлаждение элементов подсистемы питания и чипов видеопамяти благодаря контакту с основным радиатором и отдельной пластине.
Активная часть представлена тремя вентиляторами с дизайном Axial-tech и диаметром лопастей 96 мм. Их крыльчатка закольцована по внешнему радиусу. Вместе с доработанной формой лопастей это повышает давление нисходящего воздушного потока и улучшает эффективность охлаждения.
Вертушки вращаются в разном направлении для снижения турбулентности, а в их основе находятся двойные шарикоподшипники. Последним в порядке очереди бонусом является пассивный режим работы вплоть до температуры в 55°С.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 65°С при критическом показателе в 93°С. Пропеллеры работали на скорости 1730 об/мин. По субъективным ощущениям шум практически отсутствовал.
Для сравнения возьмем видеокарту GIGABYTE GeForce RTX 3070 GAMING OC 8G. В аналогичном режиме ее GPU нагревался до 66°С и работал на более низкой частоте: 1875 против 1950 МГц.
В режиме максимальной частоты вращения лопастей вентиляторов (2950 об/мин) температура GPU опустилась до 60°С. Шум превысил средний уровень, но все еще оставался абсолютно комфортным для повседневной эксплуатации. Кулер оппонента в аналогичном режиме смог охладить GPU до 58°С. Частота его работы опять была ниже: 1905 против 1950 МГц.
При реальной игровой нагрузке в Assassin’s Creed Odyssey в разрешении Full HD температура составила 55°С при скорости работы вертушек в 1000 об/мин. Частота графического процессора поднималась до 2025 МГц.
Переход в разрешение 4K привнес рост температуры до 57°С. Частота GPU снизалась до 2010 МГц, а скорость вращения вертушек поднялась до 1330 об/мин.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU достигла 42°С.
В целом система охлаждения модели ASUS ROG-STRIX-RTX3070-O8G-GAMING без проблем справляется с поставленной задачей – в автоматическом режиме можно не волноваться за перегрев компонентов и есть запас для разгонных экспериментов.
70 FPS в Battlefield V: раскрыта производительность рейтрейсинга в видеокарте AMD Radeon RX 6800 XT
AMD не спешила сообщать официальные цифры производительности видеокарт линейки Radeon RX 6800 при активации трассировки лучей. IT-портал Videocardz решил «помочь» и опубликовал слайд с официальной презентации. На нем обозначен средний фреймрейт в пяти играх для видеокарты AMD Radeon RX 6800 XT при активации рейтрейсинга.
Во всех случаях тестовая система включала в себя процессор AMD Ryzen 9 5900X и 16 ГБ оперативной памяти DDR4-3200. Игры запускались в разрешение 2560 х 1440 с ультра пресетом качества и ультра либо высоким пресетом рейтрейсинга. Все проекты в среднем выдали за 60 FPS. Меньше всего получилось в Metro Exodus (67 FPS), а больше всего – в Call of Duty MW (95 FPS).
Также AMD позаботилась и о создателях контента. Для Blender, Houdini и Autodesk Maya компания предложит плагины для аппаратного ускорения трассировки лучей. Позже аналогичный плагин появится и для Blender Cycles.
С появлением Radeon ProRender 2.5.17 для Blender 2.90, рендер заставки The Junk Shop на видеокарте Radeon RX 6800 XT ускорится на 49%, Barcelona Pavilion – на 60%, Car Demo и Classroom – на 68%.
Кроме того, AMD продолжает активную подготовку к релизу технологии FidelityFX Super Resolution. Это аналог NVIDIA DLSS (Deep Learning Super Sampling) для повышения производительности видеоряда. Особенно полезными данные технологии являются при активации рейтрейсинга.
https://videocardz.com
Сергей Будиловский
Обзор видеокарты ASUS TUF Gaming GeForce RTX 3090 OC Edition: флагман, но не для игр
Так сложились обстоятельства, что самая старшая модель среди всех новинок NVIDIA попала к нам на обзор самой последней. О всех ключевых особенностях микроархитектуры NVIDIA Ampere мы уже успели рассказать вам в обзорах NVIDIA GeForce RTX 3080 и RTX 3070. Там вы можете почитать о ключевых обновлениях по сравнению с линейкой GeForce RTX 20, а также познакомиться с интересными технологиями RTX IO, NVIDIA Reflex, NVIDIA Broadcast и NVIDIA Studio.
Напомним, что NVIDIA GeForce RTX 3090 – это флагманская видеокарта на основе графического ядра GA102-300-A1. В отличие от полноценной версии GPU GA102, которая пока не используется ни в одной видеокарте, оно получило небольшое упрощение в виде отключения двух SM-блоков. Соответственно, уменьшилось и количество других структурных модулей в составе GPU.
Еще одним важным отличием GeForce RTX 3090 от младших модификаций является подсистема видеопамяти. Текущий флагман оснащен 24 ГБ GDDR6X с 384-битной шиной и пропускной способностью 936 ГБ/с при эффективной частоте в 19500 МГц.
В целом характеристики первых видеокарт линейки NVIDIA GeForce RTX 30 выглядят следующим образом:
Модель |
GeForce RTX 3090 |
GeForce RTX 3080 |
GeForce RTX 3070 |
Техпроцесс, нм |
8 |
||
Микроархитектура |
Ampere |
||
Площадь кристалла, кв. мм |
628 |
628 |
392 |
Количество транзисторов, млн |
28 300 |
28 300 |
17 400 |
GPU |
GA102-300-A1 |
GA102-200-KD-A1 |
GA104-300-A1 |
Количество SM-блоков |
82 |
68 |
46 |
Количество ядер CUDA |
10 496 |
8704 |
5888 |
Количество текстурных блоков |
328 |
272 |
184 |
Количество растровых блоков |
112 |
96 |
96 |
Количество ядер Tensor |
328 |
272 |
184 |
Количество ядер RT |
82 |
68 |
46 |
Базовая / динамическая частота, МГц |
1395 / 1695 |
1440 / 1710 |
1500 / 1725 |
Тип памяти |
GDDR6X |
GDDR6X |
GDDR6 |
Объем памяти |
24 |
10 |
8 |
Частота памяти, МГц |
19500 |
19000 |
14 000 |
Шина памяти, бит |
384 |
320 |
256 |
Пропускная способность, ГБ/с |
936 |
760 |
448 |
Энергопотребление, Вт |
350 |
320 |
220 |
Дополнительные разъемы питания |
2 х 8-контактных |
2 х 8-контактных |
1 х 8-контактный |
Рекомендованная мощность блока питания, Вт |
750 |
750 |
650 |
Рекомендованная NVIDIA стоимость, $ / грн / руб |
1499 / 50 190 / 136 990 |
$699 / 23 490 / 63 490 |
$499 / 16 790 / 45 490 |
Ну а теперь предлагаем взглянуть на NVIDIA GeForce RTX 3090 на примере ASUS TUF Gaming GeForce RTX 3090 OC Edition.
Спецификация
Модель |
ASUS TUF Gaming GeForce RTX 3090 OC Edition (TUF-RTX3090-O24G-GAMING) |
GPU |
NVIDIA GA102-300-A1 |
Микроархитектура |
NVIDIA Ampere |
Техпроцесс, нм |
8 |
Количество ядер CUDA |
10496 |
Количество текстурных блоков |
328 |
Количество растровых блоков |
112 |
Количество тензорных ядер |
328 |
Количество ядер RT |
82 |
Номинальная / динамическая частота графического ядра, МГц |
1395 / 1740 («Silent») 1395 / 1740 («Gaming») 1395 / 1770 («OC») |
Тип памяти |
GDDR6X |
Объем памяти, ГБ |
24 |
Эффективная частота памяти, МГц |
19 500 |
Ширина шины памяти, бит |
384 |
Пропускная способность памяти, ГБ/с |
936 |
Внутренний интерфейс |
PCI Express 4.0 x16 |
Внешние интерфейсы |
2 x HDMI 2.1 3 x DisplayPort 1.4a |
Рекомендованная мощность блока питания, Вт |
850 |
Дополнительные разъемы питания PCIe |
2 х 8-контактных |
Размеры (согласно измерениям в нашей тестовой лаборатории), мм |
299,9 х 126,9 х 51,7 |
Драйверы |
Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU |
Сайт производителя |
Упаковка и комплектация
Видеокарта ASUS TUF-RTX3090-O24G-GAMING поставляется в стильно оформленной картонной коробке. На лицевой ее стороне находится изображение графического ускорителя и его наименование. На обратной описаны ключевые его преимущества.
Одна из боковых сторон содержит краткий список системных требований к компьютеру. Исходя из рекомендаций, блок питания должен поддерживать два 8-контактных кабеля PCIe. На официальном сайте рекомендуется использовать модели мощностью 850 Вт.
В комплекте мы обнаружили только стандартную документацию и коллекционную карточку.
Внешний вид
Если вы читали наш обзор ASUS TUF-RTX3080-O10G-GAMING, то дизайн и внешний вид ASUS TUF-RTX3090-O24G-GAMING не станет для вас сюрпризом. Это идентичное устройство снаружи. Подобная унификация производства – оправданный ход со стороны тайваньского производителя, поскольку экономит не только время, но и средства, ведь в разработку уникальной СО для каждой видеокарты не вкладываются деньги.
В целом обновленный дизайн линейки ASUS TUF нам понравился. Он сочетает в себе фирменный стиль и качественные материалы. Верхний кожух полностью изготовлен из металла, что является приятным бонусом.
Поклонников LED-подсветки порадует фирменная иллюминация ASUS Aura Sync. Вы сможете синхронизировать ее работу со свечением других совместимых комплектующих вашего ПК.
Среди интересных особенностей выделим использование полностью автоматического процесса производства ASUS AUTO-EXTREME Technology и надежной элементной базы TUF Components.
На обратной стороне находится металлическая опорная пластина. Она призвана защитить печатную плату от изгиба и предотвратить возможные повреждения компонентов в процессе неаккуратного монтажа и эксплуатации. В составе фильтра напряжений NVVDD/MSVDD графического процессора используются исключительно конденсаторы MLCC.
Для питания видеокарты предусмотрен слот PCI Express 4.0 х16 и два 8-контактных разъема PCIe. Благодаря их удачному расположению кулер нисколько не затрудняет отключение кабелей PCIe.
Для вывода изображения используется следующий набор интерфейсов:
- 2 х HDMI 2.1;
- 3 х DisplayPort 1.4а.
Максимальное разрешение составляет 7680 х 4320.
В основе видеоускорителя лежит 8-нм GPU NVIDIA GA102-300-A1. Тестирование проводилось в режиме «Gaming», который используется по умолчанию. Базовая его частота составляет 1395 МГц, а динамическая поднимается до 1740 МГц, что на 45 МГц выше эталонного показателя.
В фирменной утилите GPU Tweak II также заложены профили «OC» и «Silent». После активации первого динамическая частота повышается до 1770 МГц. А параметры второго соответствуют режиму «Gaming».
Видеопамять набрана из GDDR6X-микросхем компании Micron общим объемом 24 ГБ. Они работают на эталонной эффективной частоте 19 500 МГц. Обмен данными между графическим ядром и памятью осуществляется через 384-битную шину, которая способна пропускать 936 ГБ информации за секунду.
Система охлаждения
ASUS TUF Gaming GeForce RTX 3090 OC Edition с установленной системой охлаждения занимает практически три слота расширения (2,7) и имеет общую длину 300 мм.
Кулер состоит из двухсекционного алюминиевого радиатора и шести никелированных медных тепловых трубок диаметром 6 мм.
Элементы подсистемы питания и чипы видеопамяти охлаждаются при помощи отдельного радиатора.
Активная часть кулера представлена тремя вентиляторами с дизайном Axial-tech и диаметром лопастей 90 мм. Их крыльчатка закольцована по внешнему радиусу. Вместе с доработанной формой лопастей это повышает давление нисходящего воздушного потока и улучшает эффективность охлаждения.
Вентиляторы основаны на двойном шарикоподшипнике и вращаются в разном направлении для снижения турбулентности. Предусмотрен и пассивный режим работы вплоть до температуры GPU в 55°С.
При автоматическом регулировании скорости вращения лопастей вентиляторов, в режиме максимальной нагрузки, графическое ядро нагрелось до 65°С при критическом показателе в 93°С. Пропеллеры работали на скорости 1850 об/мин. По субъективным ощущениям шум практически отсутствовал.
В режиме максимальной частоты вращения лопастей вентиляторов (3000 об/мин) температура GPU опустилась до 56°С. Шум превысил средний уровень, но оставался комфортным для повседневной эксплуатации. Субъективно, новинка была чуть громче, чем ASUS TUF-RTX3080-O10G-GAMING с аналогичным кулером.
При реальной игровой нагрузке в Assassin’s Creed Odyssey в разрешении Full HD температура составила 61°С при скорости работы вертушек в 1650 об/мин. Частота графического процессора поднималась до 1980 МГц.
После перехода в разрешение 4K температура поднялась до 64°С, а частота GPU снизилась до 1950 МГц. Скорость вентиляторов при этом была 1730 об/мин.
При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU поднималась до 44°С, а пропеллеры приостанавливали свою работу.
Конструкция системы охлаждения видеокарты ASUS TUF-RTX3090-O24G-GAMING идентична таковой у ASUS TUF-RTX3080-O10G-GAMING, но это не мешает ей справляться с более высоким уровнем TDP флагмана. Помимо комфортных температур, она работает очень тихо в автоматическом режиме. В процессе тестирования ни разу не возникало посторонних шумов в виде свиста дросселей.
GeForce RTX 3080 + Ryzen 7 3800XT: сборка для игр в 4K в формате ASUS TUF Gaming
NVIDIA GeForce RTX 3080, как и RTX 3090, создана на базе 8-нм графического процессора GA102 поколения Ampere, только в менее производительной его вариации. Он имеет в своей структуре 8704 ядра CUDA, 272 тензорных ядра третьего поколения и 68 ядер RT второго поколения. В паре с GPU трудится 10 ГБ памяти GDDR6X с эффективной частотой 19 ГГц и пропускной способностью 760 ГБ/с.
GeForce RTX 3080 отлично справляется с запуском игр в 4K с трассировкой лучей и DLSS, поддерживает технологию NVIDIA Reflex для снижения задержек в шутерах, ускоряет рендеринг сложных сцен и повышает комфорт при стриминге. И при этом отрыв RTX 3090 от 3080 в большинстве рабочих задач и 4K гейминге обычно не превышает 10% – проверено на практике. Зато разница в рекомендованной цене гораздо выше - $1499 против $699. Да, проблемы с ее поставками на рынок продлятся до конца этого года, но со временем ситуация должна нормализироваться.
Знакомиться с возможностями новинки будем на примере ASUS TUF GAMING GeForce RTX 3080. Графический процессор может работать в двух режимах: по умолчанию используется Gaming с эталонными частотами, но в запасе есть OC с заводским разгоном до 1740 МГц. В играх скорость без проблем поднимается выше 1900 МГц, а температура GPU не превышает 66° при критических 93°C.
Все благодаря эффективной, почти 3-слотовой системе охлаждения. Она использует в своей структуре 6 тепловых трубок, 2-секционный радиатор и три осевых вентилятора с дизайном Axial-tech. Центральная вертушка вращается по часовой стрелке, а крайние – против, чтобы снизить турбулентность.
Также в наличии LED-подсветка, расширенный набор внешних интерфейсов, усиленная подсистема питания и два 8-контактных разъема PCIe для дополнительного питания. Длина этой прелести внутри корпуса достигает 300 мм.
Систему решили собрать на платформе Socket AM4, чтобы реализовать необходимый для RTX 3080 интерфейс PCIe 4.0. Топовый Ryzen 9 отложили в сторону, и в этот раз взяли более доступный Ryzen 7 3800XT. Он имеет в своем составе 8 ядер в 16 потоков с частотной формулой 3,9 – 4,7 ГГц при тепловом пакете 105 Вт.
Под стать видеокарте взяли материнскую плату из серии ASUS TUF. А поскольку сборка не топовая, то ограничились чипсетом B550. Вот так в системе и поселилась модель ASUS TUF GAMING B550-PLUS. Она создана в формате ATX и по своему оснащению не уступает многим топовым решениям.
Например, 8+2-фазная подсистема питания с микросхемами DrMOS поддерживает стабильную работу топовых процессоров, а кнопка BIOS FlashBack позволит легко и просто обновить прошивку, скажем, для будущей установки чипов серии Ryzen 5000.
Также она порадует двумя слотами M.2, один из которых прикрыт собственным радиатором, усиленным слотом PCIe 4.0 x16 как раз под массивную видеокарту, 2,5-гигабитным контроллером от Realtek, слотом под модуль беспроводных интерфейсов и фирменной технологией устранения шума от микрофона.
Еще один продукт серии ASUS TUF отвечал за охлаждение процессора. Речь идет о 2-секционной водянке ASUS TUF Gaming LC 240 RGB. В визуальном плане она выделяется RGB-подсветкой водоблока и 120-мм вертушек. Режим ее работы можно настроить в фирменной утилите, и даже использовать для визуального мониторинга температуры процессора.
В техническом плане она подойдет для платформ AMD и Intel. Установка простая, но кабели питания водоблока расположены не очень удачно – они мешают в полной мере поворачивать шланги. Ну и вентиляторы при высокой скорость вращения не самые тихие. Зато эффективность хорошая – температура ядер пиково не превышала 80°, хотя в большинстве проектов она находилась в пределах 60-75°С.
С оперативной памятью ничего придумывать не стали – под рукой был 2-канальный комплект ADATA XPG SPECTRIX D60G объемом 16 ГБ, его и поставили. В XMP уже заложен необходимый профиль DDR4-3600 с отличными таймингами. А еще он порадует оригинальными радиаторами с красочной подсветкой.
Для операционной системы, необходимого софта и тяжелых игр взяли терабайтный M.2 SSD ADATA XPG SX8200 Pro. Для своей работы он требует 4 линии PCIe 3.0. Взамен предлагает хорошие скорости чтения и записи – выше 3000 МБ/с.
В обычной системе можно было бы ограничиться этим твердотельником, но нам же нужно 2 десятка игр протестировать, поэтому дополнительно взяли SATA SSD ADATA SU800 на 2 ТБ для ускорения этого процесса.
ASUS рекомендует использовать в системе с установленной RTX 3080 блок питания мощностью 850 Вт. Мы решили проверить, насколько хорошо с этой задачей справится SilverStone ST85F-GS. Он порадовал компактными габаритами, как для столь большой мощности, и полностью модульной системой кабелей, а также сертификатом эффективности 80 PLUS Gold, единственной мощной линией +12В, полным перечнем защит и тихим 120-мм вентилятором.
Систему собрали в корпусе ASUS TUF GAMING GT501. Он выглядит строго, симпатично и очень презентабельно. Корпус довольно тяжелый, но для удобной транспортировки предусмотрены ручки. Внутри найдется место даже для платы формата EATX, видеокарты длиной 420 мм, процессорного кулера высотой до 180 мм и нескольких радиаторов СВО типоразмера до 360 мм. Есть даже два слота для вертикальной установки видеокарты. В комплект поставки входят четыре 120-мм вентилятора. Три из них обладают RGB-подсветкой.
Первым делом после сборки компьютера и установки ОС мы проверили стабильность работы системы при одновременном запуске стресс-тестов AIDA64 и FurMark. Температура CPU не превышала 92°С, а GPU – 64°С. Не было и намека на троттлинг.
Затем запустили ряд синтетических бенчмарков. Скриншоты с результатами оставим здесь, чтобы при желании вы могли сравнить с показателями собственной системы. А сами отправляемся к играм! Все они запущены в разрешении 4K.
Первой в бой вступает World of Tanks. На ультрах получили в среднем более 130 FPS на карте Утес. Никаких статоров, подлагиваний или проблем с управлением не было даже на легком танке. А кому надо 144 и более ФПС, то можно немножко спуститься по настройкам.
В ARK выбрали высокий пресет и подняли масштаб разрешения до 100%, чтобы убрать размытость заднего фона. В локации с обильной растительностью получили под 60 FPS в среднем, без фризов и Input lag в управлении. Ничто не мешало сконцентрироваться на игре.
Grounded можно смело запускать при эпическом пресете качества. Средняя скорость стабильно находится в районе 70 кадров/с. Показатель очень редких событий местами опускается ниже 40 FPS, однако в игре это совсем не ощущается.
С RUST решили не заморачиваться – сразу выкрутили все основные настройки на максимум и побежали любоваться красотой игрового мира со средней скоростью выше 70 кадров/с. Крайне редко проскакивали едва заметные рывки. В этот момент показатель 0,1% Low опускался в район 30 FPS. В остальном все отлично. Видеопамяти нужно более 7 ГБ. Еще около 10 взято из оперативки.
В Escape from Tarkov на ультрах полет нормальный. Средняя скорость также держится выше 70 FPS, и даже потребление памяти совпадает с результатами RUST. Но здесь уже не было никаких просадок статистики очень редких событий до 30 кадров/с. Поэтому на геймплей вообще никаких нареканий нет.
Rainbow Six Siege очень комфортно бегается с ультра пресетом и 100%-м масштабированием. На улице в среднем получаем около 115 кадров/с, а в доме – 130. Никаких проблем с управлением и удобством стрельбы не было – можно смело выходить в онлайн.
В PUBG при смеси ультра и очень низких настроек многое зависит от локации на острове. В одних местах средняя скорость просаживались до 150 FPS, а в других – поднималась до 200. В любом случае фризы и статоры отсутствовали, как и проблемы с управлением.
Читать обзор полностью >>>Проторенной дорожкой: AMD готовит открытый аналог технологии NVIDIA DLSS
Во время презентации видеокарт линейки Radeon RX 6000, AMD упомянула о новых возможностях пакета технологий FidelityFX. Среди них есть Super Resolution. Она должна повысить производительность при использовании трассировки лучей наподобие NVIDIA DLSS.
Издание The Verge получило эксклюзивную информацию от AMD по поводу этой технологии. Компания обещает сделать ее открытой и реализовать кроссплатформенную поддержку. В будущем ее наверняка получат игровые консоли нового поколения (Xbox Series S/X, PS5), графическое ядро которых также создано на архитектуре RDNA 2.
AMD привлекла к разработке технологии Super Resolution ряд партнеров, и ожидает широкой ее поддержки в индустрии. В данный момент она еще тестируется и не будет готова к старту продаж первых видеокарт линейки Radeon RX 6000, а появится позже.
Таким образом, AMD хочет повторить успех FreeSync в мониторах. NVIDIA первой разработала подобную технологию (G-SYNC), но она сделала ее закрытой и потребовала установки в монитор дополнительного модуля, что повысило их ценник. В свою очередь AMD сделала свою технологию FreeSync бесплатной и открытой, интегрировав ее в стандарт VESA Adaptive-Sync. В итоге это позволило почти полностью вытеснить G-SYNC с рынка.
https://videocardz.com
Сергей Будиловский
Новые результаты тестирования NVIDIA GeForce RTX 3080 в синтетике, Shadow Of The Tomb Raider и Far Cry New Dawn
На днях появились результаты тестирования GeForce RTX 3080 от китайского канала TecLab на сайте Bilibili. Первые полноценные обзоры выйдут 16 сентября, но портал Videocardz решил поделиться ими заранее.
Для тестов использовался процессор Intel Core i9-10900K и видеокарта GeForce RTX 3080 с эталонной частотной формулой. В синтетике новинка в среднем на 24% опередила GeForce RTX 2080 Ti, на 37% RTX 2080 SUPER, на 45% RTX 2070 SUPER и на 50% RTX 2060 SUPER.
В играх ситуация очень сильно зависит от сложности проекта и разрешения. Например, в Shadow Of The Tomb Raider в 1440p при активации рейтрейсинга и DLSS цифры получаются близкими к результатам в синтетике: 18% преимущества RTX 3080 над RTX 2080 Ti, 29% над RTX 2080 SUPER, 39% над RTX 2070 SUPER и 47% над 2060 SUPER.
А если взять менее требовательную игру в 1080p, например, Far Cry New Dawn, то результаты наверняка разочаруют геймеров. Ведь RTX 3080 всего на 2% опережает RTX 2080 Ti и лишь на 11% обходит RTX 2060 SUPER. В разрешении 4K разрыв увеличивается до 19% и 47% соответственно.
https://videocardz.com
Сергей Будиловский
Лучшие видеокарты для гейминга в FHD, QHD и 4K: лето-осень 2020
NVIDIA уже анонсировала линейку GeForce RTX 30 (Ampere), а AMD представит ответную серию Radeon RX 6000 лишь в конце октября. И пока сложно говорить об уровне их производительности и реальных ценниках. Можно лишь с уверенностью сказать, что на старте продаж они будут гораздо дороже рекомендованного уровня.
Поэтому данный материал мы посвятили имеющимся сейчас в продаже семействам NVIDIA Turing и AMD RDNA. Более старые модели в расчет не брали, хотя на барахолке можно найти интересные варианты по вкусным ценам. Кроме того, все видеокарты взяли у одного производителя, чтобы быстрее собрать все необходимые для тестов модели и избежать ненужных скандалов при сравнении.
Первым делом представим наш тестовый стенд. За основу взяли почти народный Core i5-10600K c 6 ядрами в 12 потоков. Его хватит для любых современных игр.
Под стать процессору используем не слишком дорогую материнскую плату MSI MAG Z490 Tomahawk на топовом чипсете.
Заботу о температуре CPU доверили 2-секционной водянке ENERMAX AQUAFUSION 240.
16-гигабайтного комплекта DDR4-4000 CORSAIR Vengeance RGB Pro хватит и для прожорливых игр.
2-терабайтного NVMe SSD CORSAIR Force P600 достаточно и для операционной системы и для игр.
С блоком питания Seasonic Prime Titanium на 850 Вт мы не волновались за стабильную работу компонентов.
Тестовую систему собрали в просторном, удобном и продуманном корпусе be quiet! Pure Base 500DX.
Сами геймплеи записаны внешней системой с AVerMedia Live Gamer 4K, т.е. без потери производительности.
Начинаем с игровых видеокарт для ценового диапазона до $200. Эти модели в первую очередь нацелены на запуск в Full HD онлайн-проектов, киберспортивных дисциплин и прохождение тяжелых блокбастеров при снижении настроек графики.
Позиции NVIDIA в данном сегменте представляют GTX 1650 и 1650 SUPER, а для поклонников AMD есть RX 5500 XT в 4-гигабайтном варианте. Недавно у нас вышло наглядное сравнение этих моделей.
Выводы таковы: при наличии $155 и жесткого лимита можно взять GTX 1650 с памятью GDDR5, но лучше доложить $5-10 до версии с GDDR6. Бонус производительности находится в пределах от 8 до 13%.
Оптимальной же в этом сегменте является GTX 1650 SUPER с ценником от $180. Да, дороже, зато бонус производительности составляет 18-23%, и в тяжелых блокбастерах она себя чувствует лучше. А вот 4-гигабайтная RX 5500 XT пока проигрывает 1650 SUPER в стабильности фреймрейта в отдельных играх. У 8-гигабайтной таких проблемы быть не должно, но за нее придется выложить более $220.
Давайте освежим в памяти возможности GTX 1650 SUPER на примере модели серии MSI Gaming X. Графический процессор TU116 имеет в своей структуре 1280 ядер CUDA и 80 текстурных блоков – на 43% больше, чем у GTX 1650. Сама же видеокарта получила эффективный 2-вентиляторный кулер Twin Frozr 7-го поколения, который позволяет динамической частоте в играх находиться на уровне 1900 МГц. По возможности берите именно с 2-вентиляторным кулером – они тише и держат более высокую частоту.
В играх вы получите примерно следующую картину. Dota 2 на ультрах летает без каких-либо подлагиваний или Input lag в управлении.
Танки на ультрах выдают в среднем за сотню FPS. Вы вообще забудете о таких словах как «фриз», «статор» или «желейность управления». Правда, от ВБРа и действий некоторых напарников пригорать меньше не будет.
PUBG при народном миксе низких и ультра настроек бегается плавно и приятно даже в Ясной поляне. Есть непонятные дропы по очень редким событиям с 50 в район 30 FPS, но они не ощущаются.
В Fortnite можно комфортно бегать при среднем пресете. Легкие опасения опять вызывает показатель 0,1% Low, но точность стрельбы не пострадала и подлагиваний в видеоряде нет.
Однако в играх потяжелее, например Call of Duty придется выбрать в основном средние настройки, чтобы получить на выходе сотню FPS в среднем, с отзывчивым управлением.
Но даже ААА-игры она тянет. Метро можно пройти и на высоких, но в DirectX 11, без детального PhysX, тесселяции и с упрощенной фильтрацией текстур. Да, картинка не блещет во всей красе, зато есть комфортные 60 FPS в среднем.
Теперь давайте рассмотрим ценовой диапазон от $200 до $300. Со стороны AMD тут представлена лишь 8-гигабайтная RX 5500 XT. Карта не плохая, особенно с учетом видеобуфера, но ей бы подешеветь до $185, ведь в данном сегменте у нее непреодолимые конкуренты.
GTX 1660 можно найти с ценником от $220. Добавляем $35 и получаем GTX 1660 SUPER. Разница между ними в производительности достигает в среднем 9-12%. Причем графические процессоры у них одинаковые, а тип памяти разный. Следующий конкурент, GTX 1660 Ti, находится вблизи отметки в $300, но отрыв в производительности от 1660 SUPER не превышает 5%.
Итого оптимальным выбором в данном сегменте сейчас является именно GTX 1660 SUPER. Она позволяет запускать практически все игры на высоких настройках в Full HD. И даже 6-гигабайтный видеобуфер не преграда в большинстве случаев.
Убедиться в этом нам поможет модель MSI GeForce GTX 1660 SUPER Gaming X. Она получила заводской разгон динамической частоты GPU до 1830 МГц, но в играх стабильно видим более 1900 МГц при температуре чуть выше 70°С. До критических 93°С есть еще солидный запас. За это скажем спасибо тихому и эффективному кулеру с парочкой вентиляторов и тремя тепловыми трубками.
В играх ситуация следующая. В Rainbow Six Siege выбираем ультра пресет и поднимаем масштаб прорисовки до 100%, но и в таком случае статистика 0,1% Low не падает ниже 90 FPS.
В Call of Duty можно смело ставить высокие параметры, чтобы ощутить преимущества быстрого 6-гигового видеобуфера. Плавность видеоряда и отзывчивость управления это все равно не нарушит.
В Apex Legends лишь качество текстур пришлось снизить до очень высокого уровня. Остальные параметры на максимуме, чтобы насладиться красотой виртуального мира. За комфорт геймплея переживать не придется.
В Gears 5 на ультрах полет нормальный, Хьюстон может спать спокойно. Видеопамяти нужно около 5 ГБ, а средняя скорость держится в районе сотни FPS.
Похожие показатели получаем в The Division 2 при высоком пресете: сотня FPS в среднем и более 70 в графе очень редких событий. Все плавно, быстро и комфортно.
А фанаты Metro Exodus уже могут выбрать высокий пресет в DirectX 12, с детальным PhysX, тесселяцией и нормальным сглаживанием, чтобы получше ощутить атмосферу игрового мира. В этом поможет и средний фреймрейт в районе 75 кадров/с.
Поднимаемся на шаг выше в ценовой диапазон до $400. Тут борьбу между собой ведут всего два конкурента: RTX 2060 и RX 5600 XT. И если вы не фанат рейтрейсинга, то лучше смотреть в сторону модели от AMD, особенно с обновленной прошивкой, которая поднимает частоту GPU и памяти. В ценовом плане эти видеокарты приблизительно одинаковы, а в вопросе производительности – 5600 XT лучше в среднем на 9-11%. С ней в Full HD можно играть на максималках и даже попытать счастье в QHD.
Для иллюстрации возможностей взяли модель MSI Radeon RX 5600 XT Gaming X. Ее дизайн отличается от «зеленых» собратьев данной серии, но выглядит эффектно и свежо. А наличие шести тепловых трубок и двух вентиляторов Torx Fan 3.0 гарантирует стабильную работу даже в разгоне. И еще один бонус – видеокарта сразу поставляется с обновленной прошивкой и ускоренной до 14 ГГц памятью.
Теперь к тестам! Gears 5 на ультрах бегается без проблем в 1080p. Если с 1660 SUPER мы получили около сотни FPS в среднем, то тут видим более 145 кадров/с. Есть приличный запас для перехода в Quad HD.
Желаете проходить The Division 2 на максималках – без проблем. Для оценки комфорта достаточно увидеть более 60 FPS в графе 0,1% Low. Вопросов к удобству управления у нас не возникло.
Гонять по улицам ночного города в NFS: Heat можно на ультрах. В процессе показатель очень редких событий опускается ниже 40 кадров/с, но это вообще не сказывается на качестве геймплея.
Проходить DOOM Eternal приятнее всего на ультрах – выше не пускает 6-гигабайтный видеобуфер. Однако и в данном случае мы не страдали ни от убогости картинки, ни от дискомфорта при стрельбе – все было просто отлично!
Call of Duty в меню предупреждает, что для столь высоких настроек в 2K видеобуфера не хватает. Хотя никаких негативных последствий в игре мы не ощутили при средней скорости в районе 90 FPS.
Если с теми же настройками опуститься в Full HD, то показатели вырастут максимум на 38%. Для высокочастотных мониторов придется еще немного снизить настройки, чтобы получить заветные 144 или 165 ФПС.
К тому же кривоватые игры типа ARK можно запускать в Quad HD при высоком пресете, не говоря о Full HD. Показатель 0,1% Low опускается ниже 30 FPS, но без заметных проблем в видеоряде.
NVIDIA GeForce RTX 3090 в 2 раза быстрее GeForce RTX 2080 Ti
Уже через несколько часов NVIDIA официально представит первые видеокарты линейки Ampere. Ее игровым флагманом станет модель GeForce RTX 3090, сочетающая в своей структуре графический процессор NVIDIA GA102-300 (5248 ядер CUDA) и 24 ГБ памяти GDDR6X.
В интернет просочился первый слайд с относительными показателями производительности новинки в популярных играх Minecraft, Control и Wolfenstein: Young Blood. Все они запускались в разрешении 4K Ultra HD с RTX и DLSS, а для сравнения использовались результаты GeForce RTX 2080 Ti.
В Control преимущество GeForce RTX 3090 превысило 100%, в Minecraft оно составило ровно 100%, а в Wolfenstein: Young Blood ориентировочно находится на уровне 80%. Больше подробностей узнаем в ближайшее время.
https://www.techpowerup.com
Сергей Будиловский
GeForce RTX 2080 Ti пока не хватает для стабильных 60 FPS в Watch Dogs Legion на ультрах с рейтрейсингом
На днях Ubisoft анонсировала демку Watch Dogs Legion, позволяющую оценить геймплей и возможности новой игры. Канал Digital Foundry запустил ее в разрешении 1920 х 1080 на системе с видеокартой GeForce RTX 2080 Ti, пресетом ультра и включенным рейтрейсингом.
Оказалось, что этой видеокарты недостаточно для поддержания стабильных 60 FPS в среднем. По умолчанию фреймрейт был ограничен на уровне 30 кадров/с, а потом лимит подняли до 60. Но текущая скорость почти всегда была ниже. К тому же были ощутимые просадки FPS.
Возможно, демка базируется на ранней версии игры, и до релиза (29 октября) проект хорошо оптимизируют. Также финальная версия получит поддержку технологии DLSS 2.0, которая существенно упростит жизнь видеокарте и повысит скорость видеоряда.
https://www.guru3d.com
Сергей Будиловский
Игровой тест GeForce RTX 2070 SUPER с RTX, DLSS 2.0 и не только: нейронная сеть в вашем ПК
И для начала немного теории. В конце марта 2020 года NVIDIA представила технологию DLSS 2.0. Это глубокая нейронная сеть, которая работает на тензорных ядрах видеокарт линейки RTX 20. Главная ее задача – повысить фреймрейт и сохранить достойное качество картинки.
DLSS 2.0 имеет несколько важных преимуществ над оригинальной версией:
- обеспечивает высокое качество изображения в полном разрешении при рендеринге всего половины пикселей благодаря методам временной обработки;
- эффективнее использует тензорные ядра и работает в два раза быстрее оригинальной версии;
- не требует обучения искусственного интеллекта под каждую отдельную игру, а предоставляет универсальную нейросеть, которая одинаково хорошо работает во всех играх;
- предлагает три режима качества изображения: «Качество», «Баланс», «Производительность», которые управляют внутренним разрешением рендеринга.
NVIDIA использует фреймворк NGX для обучения нейронной сети DLSS 2.0 на десятках тысяч эталонных изображений высокого разрешения, созданных с помощью оффлайн-рендеринга на суперкомпьютере с низкой частотой смены кадров в разрешении 16K.
Задача нейросети – создать кадр в разрешении 4K на основе текущего кадра в низком разрешении и предыдущего кадра в высоком разрешении. Затем результат сравнивается с оригиналом в 16K, система фиксирует свои ошибки и цикл повторяется, пока не будет достигнуто приемлемого качества.
Технология DLSS 2.0 уже доступна в Deliver Us The Moon, Wolfenstein: Youngblood, MechWarrior 5: Mercenaries и Control. Ее также могут использоваться разработчики на Unreal Engine 4 через программу DLSS Developer Program.
Она обещает отменные цифры роста производительности:
- на 60% в Deliver Us The Moon при сохранении высокого качества изображения
- на 76% в разрешении Full HD и Quad HD в Control, и в 2-3 раза в 4K в режиме «Производительность»
- в MechWarrior 5 можно рассчитывать максимум на 75% в режиме «Качество»
- в Wolfenstein: Youngblood бонус зависит от разрешения – 20-30% в Full HD и почти 100% в 4K
Но теория теорией, а игры сами себя не протестируют. Поэтому переходим к знакомству с тестовым стендом. Роль первой скрипки досталась видеокарте INNO3D GeForce RTX 2070 SUPER ICHILL BLACK. Она создана на базе связки графического процессора TU104-410 и 8 ГБ GDDR6-памяти. Базовая частота процессора соответствует эталону, а динамическая получила 2,5%-ый разгон до 1815 МГц. В играх мониторинг фиксирует 1950 – 1965 МГц.
Главной изюминкой этой модели является предустановленная СЖО с замкнутым контуром от компании ARCTIC. Водоблок с медным основанием и помпой находится на самой видеокарте, а 240-мм радиатор с двумя 120-мм вентиляторами крепится отдельно, например, на верхней стенке корпуса. С помпой их соединяет пара 36-см шлангов. В играх температура GPU не превышала 60°С при критическом показателе 88°С и практически бесшумной работе вертушек.
Одним словом, INNO3D GeForce RTX 2070 SUPER ICHILL BLACK – это настоящий подарок для всех, кто хотел тихую и мощную видеокарту этой серии, но не имел практического опыта в создании кастомных водянок. И это мы еще не рассказали о полезном экране на лицевой стороне и LED-подсветке – кому интересно – читайте в обзоре.
Кастинг на роль процессора удачно прошла 8-ядерная 16-поточная модель Ryzen 7 3700X.
В основе стенда находится красивая и функциональная материнская плата MSI MEG X570 GODLIKE.
За температурой процессора присматривала 2-секционная СЖО NZXT Kraken X53. Она получила поддержку актуальных и устаревших платформ AMD и Intel, водоблок с LED-подсветкой, 240-мм алюминиевый радиатор и пару 120-мм вентиляторов с FDB-подшипником.
Оперативная память представлена 16-гигабайтным комплектом DDR4-3600 CORSAIR VENGEANCE RGB PRO.
Для операционной системы, игр и прочих данных использовали пару твердотельников. Первый – это терабайтный ADATA XPG SX8200 Pro с интерфейсом PCIe 3.0 x4, памятью 3D TLC NAND и контроллером SMI. Максимальная последовательная скорость чтения и записи достигает 3500 и 3000 МБ/с. А еще в комплекте с ним идет радиатор.
Все остальное закинули на 2-терабайтный Seagate FireCuda 520.
Стабильное и качественное питание для всех компонентов обеспечил Seasonic PRIME TX-750. Это модель с самым высоким сертификатом эффективности 80PLUS Titanium, модульной системой кабелей и 135-мм вентилятором на FDB-подшипнике.
Вместить внутри пару 240-мм водянок сможет далеко не каждый корпус, но RIOTORO Morpheus GPX100 без проблем справляется с такой задачей. Это настоящий модульный подарок энтузиастам, ведь из формата Middle Tower он легко трансформируется в Mini Tower.
Для вывода картинки использовался монитор АОС CQ32G1 с изогнутой VA-панелью. Запись геймплеев прошла с помощью внешней системы с AVerMedia Live Gamer HD2.
Переходим к тестам. Начать хотели с бета-версии Minecraft, в которую добавили рейтрейсинг и DLSS 2.0, но подготовка материала завершалась до его выхода. Поэтому стартуем с Quake II. При максимальных настройках без рейтрейсинга средняя скорость почти достигает 1000 FPS. Включаем трассировку и получаем впечатляющий реализм игрового мира в плане визуализации света, теней и отражений. Но средняя скорость падает в район 50 кадров/с.
Технология трассировки лучей в Shadow of the Tomb Raider реализует сверхреалистичные тени, эффекты самозатенения и полупрозрачного затенения. А если ваша видеокарта не справляется, то всегда можно помочь ей с помощью технологии DLSS.
Если проходить игру без трассировки – получаем порядка 100 FPS в среднем, с отличной статистикой редких и очень редких событий. Активация лучей в ультра режиме снижает показатели максимум на 40%, но игровой процесс остается комфортным. Можно обойтись и без DLSS.
В Battlefield V с помощью трассировки лучей создаются достоверные отражения объектов в воде, стекле и на металлических поверхностях. Это действительно повышает реализм виртуального мира, но в пылу сражений эффект новизны ощущается лишь поначалу – потом привыкаешь, как и ко всему хорошему.
Для любителей онлайн-режима на больших картах лучше выбирать просто ультра настройки без рейтрейсинга. Его активация сильнее всего просаживает показатель очень редких событий и в видеоряде ощущаются микрофризы. Включение DLSS снимает этот неприятный эффект, но картинка становится слегка мыльноватой и тяжелее выцеливать противников на дальних дистанциях.
Интересные неофициальные подробности видеокарты NVIDIA GeForce RTX 3080 Ti и GPU GA102
YouTube канал «Moore's Law is Dead» со ссылкой на свой источник в компании NVIDIA поделился интересными подробности видеокарты NVIDIA GeForce RTX 3080 Ti Founders Edition (FE) с эталонным дизайном. Поскольку это неофициальная информация, то ее следует воспринимать с долей скептицизма.
Итак, система охлаждения новинки использует 3-вентиляторный дизайн и работает тише, чем кулер модели GeForce RTX 2080 Ti FE. В качестве внутреннего интерфейса используется PCIe 4.0 x16, а для дополнительного питания GeForce RTX 3080 Ti FE необходимы два 8-контактных коннектора PCIe. В наборе внешних интерфейсов есть три DisplayPort, один HDMI и один VirtualLink USB-C.
Первыми появятся три 7-нм графических процессора:
- GA102 является преемником TU102 и ляжет в основу GeForce RTX 3080 Ti. Он получил 5376 ядер CUDA, показатель IPC которых на 10% выше, чем в Turing. Тактовая частота превысит 2,2 ГГц, а пиковая производительность FP32 достигнет 21 TFLOPs. В паре с GPU работает GDDR6-память с эффективной частотой 18 ГГц и пропускной способностью 863 ГБ/с. В играх бонус производительности составит 40% (в 4K UHD) в плохо оптимизированных проектах и 50% в хорошо оптимизированных по сравнению с RTX 2080 Ti.
- GA103 не имеет аналогов в поколении Turing. Динамическая тактовая частота может превысить 2,5 ГГц.
- GA104 придет на смену TU104. Динамическая тактовая частота может превысить 2,5 ГГц.
Кроме того, вместе с поколением Ampere нам обещают более высокую производительность рейтрейсинга, что позволит разработчикам реализовать больше эффектов в играх. Также дебютирует технология DLSS 3.0 с улучшенным качеством изображения и производительностью.
Релиз Ampere для HPC состоится в мае, а геймеров порадуют в сентябре. Линейка RTX будет представлена от топовых моделей до бюджетных. Даже MX550 может получить ядра Tensor и RT.
https://www.techpowerup.com
Сергей Будиловский