up
ru ua
menu



directx 12

Выбрать из: Обзоров Новостей
Только в разделе
Искать в найденом тег:

Новые CPU и GPU замечены в базе данных Ashes of the Singularity

Игра Ashes of the Singularity уже не пользуется особой популярностью, однако ее бенчмарк остается хорошим показателем производительности комплектующих в оптимизированных под DirectX 12 проектах. Поэтому неудивительно, что о многих предстоящих новинках мы узнаем именно из его базы данных.

AMD Ryzen 7 2800H

На днях в нем было замечено несколько интересных моделей. В первую очередь отметим 35-ваттный мобильный APU AMD Ryzen 7 2800H. Он имеет в своем распоряжении 4 ядра и 8 потоков. Базовая частота AMD Ryzen 7 2800H составляет 3,4 ГГц, а встроенное видеоядро Radeon RX Vega 11 поддерживает 704 потоковых процессора.

Intel

Со стороны Intel засветился инженерный образец 8-ядерного 16-поточного процессора серии Intel Coffee Lake-S. Ранее он уже был замечен в базе данных SiSoft Sandra, но там он работал на частоте 2,6 ГГц, а здесь – на 3,0 ГГц.

Intel

Также был замечен 10-нм энергоэффективный представитель серии Intel Ice Lake-U, использующий в своей структуре 4 ядра и 8 потоков, работающих на частоте 2,1 ГГц, а также iGPU серии Intel UHD Graphics Gen11. Пока он находится на ранней стадии разработки, ведь эта серия в будущем придет на смену Intel Cannon Lake.

AMD Vega 20

AMD Vega 20

Что же касается графических адаптеров, то были замечены представители AMD Vega 20 (кодовое обозначение «66A0:00») и AMD Vega 12 («69A0:00»). Первый является 7-нм флагманским решением десктопного уровня, а второй нацелен на мобильный сегмент. Их характеристики пока держатся в секрете.

AMD Vega 12

https://wccftech.com
Сергей Будиловский

Тэги: amd   intel   amd vega   amd ryzen   apu   coffee lake   directx 12   cannon lake   ice lake   
Читать новость полностью >>>

Геймплейное тестирование видеокарты NVIDIA GeForce GTX 1050 в 2018: недорого и вполне играбельно

Тема видеоускорителя NVIDIA GeForce GTX 1050 уже давно и очень хорошо изучена, но все же думаем многим будет интересно посмотреть на то, как она справляется с самыми новыми и популярными актуальными проектами.

NVIDIA GeForce GTX 1050

Совсем недавно появились новые блокбастеры, игры из раннего доступа перешли в релизную стадию либо же просто существенно обновились, да и новые драйверы постоянно вносят свою лепту в оптимизацию производительности видеокарты. Поэтому мы посчитали, что вам будет интересно взглянуть на ее возможности в современных проектах.

NVIDIA GeForce GTX 1050

Поможет нам в этом модель ASUS Expedition GeForce GTX 1050, которая разработана с прицелом на круглосуточную работу в бюджетных игровых системах. Она выделяется небольшой длиной – всего 212 мм, простой системой охлаждения с двумя 75-мм вентиляторами и алюминиевым радиатором без тепловых трубок, а также эталонной частотной формулой. Энергопотребление не превышает 75 Вт, поэтому дополнительный коннектор PCIe подключать не нужно.

NVIDIA GeForce GTX 1050

Теперь несколько слов о тестовом стенде. Поскольку мы задались целью протестировать видеокарту, а не сборку на ее основе, то игры не должны упираться в процессор, ОЗУ или другие компоненты. Поэтому тестовый стенд достаточно мощный. В реальности вряд ли в пару к GTX 1050 будут покупаться такие компоненты. Поэтому если у вас процессор слабее или оперативной памяти меньше, то результаты наверняка будут чуть ниже.

NVIDIA GeForce GTX 1050

В основе тестового стенда находится разогнанный до 5 ГГц процессор Intel Core i7-7740X. Он установлен на плату ASUS TUF X299 MARK 1 и охлаждается СВО от Thermaltake. Оперативная память представлена 16-ГБ набором Patriot Viper 4 в двухканальном режиме на частоте 3200 МГц. Операционная система и требовательные игры установлены на SSD Apacer PANTHER AS330, а остальные – на 2-ТБ HDD от Seagate. Все это добро собрано в корпусе Thermaltake Core P3 и питается мощным блоком от Seasonic. Геймплей записан внешней системой с AVerMedia Live Gamer HD 2, т.е. без потери производительности.

NVIDIA GeForce GTX 1050

NVIDIA GeForce GTX 1050

Конфигурация тестового стенда:

NVIDIA GeForce GTX 1050

А теперь переходим к тестам в разрешении Full HD. Упор при выборе игр делали именно на проекты 2017-18 годов. По традиции начнем с игр попроще.

NVIDIA GeForce GTX 1050

Вышедшая в релиз Subnautica стала гораздо более стабильной и предсказуемой, поэтому для ее запуска выбрали средний пресет с высоким качеством воды. В таком режиме можно любоваться красотой созданного мира при сравнительно плавном видеоряде. Средняя скорость составила 71 FPS. Изредка она опускалась ниже 35 кадров/с, а фризы до 19 были очень редкими.

NVIDIA GeForce GTX 1050

Наиболее тяжелым в Battle Chasers: Nightwar является режим исследования подземелий. При высоком профиле средний фреймрейт превышает 100 FPS, а эпизодические просадки достигают 24 кадров/с, хотя в целом скорость редко опускалась ниже 70 FPS. В боях средняя частота поднималась выше 200 кадров/с.

NVIDIA GeForce GTX 1050

The Long Dark хотя и не является мегапопулярной, но имеет интересную кампанию, которую в тестовой системе можно проходить даже на ультра настройках. Лишь в начале записи загрузка видеокарты просела до 93%, что вызвало фриз до 22 FPS. В последствии средняя скорость держалась выше 100 FPS, редко снижаясь до 62.

NVIDIA GeForce GTX 1050

ARK Survival Evolved при среднем пресете использует максимальное сглаживание и высокую постобработку, поэтому картинка выглядит красочно, но фризы и очень редкие события находятся на уровне 15-17 FPS. Средняя же скорость более приятная – 57 кадров/с. 2 ГБ видеопамяти игре в таком режиме достаточно.

NVIDIA GeForce GTX 1050

Поскольку Divinity Original Sin 2 не зависит от скорости реакции и умения попадать в пиксель, то мы выбрали ультра пресет. Фреймрейт во многом определяется сложностью локации, поэтому обилие погодных эффектов просаживает скорость и делает неприятным график времени кадра. В среднем можно рассчитывать на 58 FPS с фризами до 5.

NVIDIA GeForce GTX 1050

Если вы хотите увидеть всю красоту обновленного World of Tanks, то можно выбрать даже ультра пресет, получив в среднем 49 кадров/с. Правда, изредка фризы достигают 7 FPS, из-за чего местами сложно выцеливать слабые зоны противника, что подтверждается рваным графиком времени кадра. Поэтому лучше все же опуститься к высокому пресету для более уверенного геймплея.

NVIDIA GeForce GTX 1050

В War Thunder с профилем «Кино» ситуация получше: очень редкие фризы достигают 8 FPS, но в целом скорость редко опускается ниже 48 кадров/с, а средний показатель и вовсе достиг 70 кадров/с. Управление было полностью отзывчивым и комфортным, поэтому можно не снижать настройки графики.

NVIDIA GeForce GTX 1050

Максимальные параметры в World of Warships радуют глаз качественной анимацией и вовсе не портят впечатления от игры. Средняя скорость составила 83 FPS с просадками до 27. Добавьте к этому спокойный график Frame Time и неспешность самого геймплея и сможете полностью погрузиться в морское сражение.

NVIDIA GeForce GTX 1050

В Quake Champions при средних настройках фризы до 9 FPS появились лишь в начале тестовой записи. В целом же скорость редко опускалась ниже 55 кадров/с. Средний показатель и вовсе превысил 100 FPS. На графике времени кадра проскакивали эпизодические пики, но они не сказывались на геймплее. А вот видеопамяти для таких настроек маловато, поэтому ОЗУ должно быть более 8 ГБ.

NVIDIA GeForce GTX 1050

Автоматический выбор настроек в Fortnite Battle Royale привел к активации высокого пресета. Минимальную просадку до 26 FPS мы поймали во время высадки. На земле скорости были гораздо выше, поэтому средний показатель стремится к 90 FPS, а статистика редки и очень редких событий находится в диапазоне 35-50 кадров/с. Играть очень комфортно.

NVIDIA GeForce GTX 1050

В более тяжелой PUBG пришлось опускаться к низкому профилю настроек графики, но и это не уберегло от фризов до 22 FPS. Средний же показатель находился на уровне 80 кадров/с. На графике времени кадра периодически проскакивают неприятные пики, но в управлении они особо не ощущаются. Если у вас в системе есть 8 ГБ ОЗУ или больше, то в целом вполне играбельно.

NVIDIA GeForce GTX 1050 NVIDIA GeForce GTX 1050

NVIDIA GeForce GTX 1050

В Rust пришлось помучиться с подбором настроек, но, возможно, и это не оптимальный вариант. Хотя по результатам тестовой пробежки никаких проблем со скорость видеоряда не было: средний показатель достиг 66 FPS, а остальная статистика составила 34 кадра/с. Видеобуфера не хватает, поэтому из ОЗУ взято около 10 ГБ. 

Читать обзор полностью >>>

Игровое тестирование видеоускорителя NVIDIA GeForce GT 1030: особо не разгонишься

В этом материале мы попробуем оценить возможности видеоускорителя NVIDIA GeForce GT 1030 в современных играх. Стоит ли вообще пытаться запускать их на такой видеокарте или лучше об этом даже не задумываться. Проверим это в 20 популярных играх. Также напомним, что недавно мы проверяли игровой потенциал бюджетной видеокарты NVIDIA GeForce GTX 750 Ti.

NVIDIA GeForce GT 1030

Если вы смотрели сравнения Vega 8 и Vega 11 с дискретными видеокартами, то наверняка помните принимавшую в них активное участие видеокарту ASUS Phoenix GeForce GT 1030. Она характеризуется активной системой охлаждения и 2 ГБ GDDR5-памяти, хотя на рынке начали появляться версии GeForce GT 1030 с более медленной DDR4-ой.

NVIDIA GeForce GT 1030

Из интересных особенностей этой видеокарты выделим наличие двух режимов работы GPU: в «Gaming» тактовые частоты увеличиваются на 2-3% по сравнению с эталоном, а в «OC» – на 4%. Используемый же вентилятор построен на двойном шарикоподшипнике и обладает защитой от пыли, что позволяет надеяться на длительный срок его службы.

NVIDIA GeForce GT 1030

Тестирование проводилось на базе платформы Socket LGA2066 с разогнанным до 5 ГГц 4-ядерным Intel Core i7-7740X и материнской платой ASUS TUF X299 MARK 1. За охлаждение процессора отвечала СВО Thermaltake, а подсистема ОЗУ представлена двумя 8-гигабайтными модулями серии Patriot Viper 4. Все критические к дисковой подсистеме игры установлены на быстрые SSD Apacer PANTHER AS330, а остальные − на 2-ТБ SSHD.

NVIDIA GeForce GT 1030

Такая конфигурация выбрана не случайно: поскольку это не сборка, а тест видеокарты, то все игры должны упереться именно в видеокарту и никакие другие комплектующие не должны ограничивать ее потенциал, если это слово применимо к GeForce GT 1030. Да, в связке с более медленным процессором, 4-8 ГБ ОЗУ или HDD ее показатели будут хуже, но в таком случае сложно понять – во что конкретно мы уперлись. Поэтому данным видео мы хотим показать, на что максимально способна GeForce GT 1030, и если, скажем, 20-30 FPS в Far Cry 5 вам мало, то в менее мощной связке вы и их не увидите, и в таком случае эта видеокарта вам не подойдет от слова «совсем».

NVIDIA GeForce GT 1030

При тестировании мы использовали проекты разных уровней сложности, которые вышли в релиз или получили масштабное обновление в 2017-2018 годах. Поначалу каждая игра запускалась в Full HD, а затем, при необходимости, либо переходили в HD, либо снижали настройки графики без изменения разрешения.

NVIDIA GeForce GT 1030

Для начала World of Tanks был запущен при максимальных настройках, которые обеспечили 30-40 FPS. В таких условиях можно играть даже на быстром легком танке и быть полезным на поле боя, хотя чувствовался небольшой дискомфорт от управления. Если вы любите более медленные танки, то проблем не будет вовсе.

NVIDIA GeForce GT 1030

Переход к просто высокому пресету без снижения разрешения повышает среднюю скорость до 69 FPS, а минимальную – до 45. Никаких подлагиваний и микрофризов мы не ощутили – видеоряд был плавным, а управление – отзывчивым.

NVIDIA GeForce GT 1030

В противовес World of Tanks мы запустили War Thunder. Если выбрать максимальный профиль в Full HD, то можно рассчитывать на те же 30-40 кадров/с. Субъективно, играть не очень комфортно, но тут многое зависит от вашего предыдущего опыта.

NVIDIA GeForce GT 1030

Мы же рекомендуем опуститься к высокому пресету, который обеспечивает в среднем 55 FPS с просадками до 43. В таком случае повышается плавность видеоряда, а из графика времени кадра пропадают неприятные пики и сам он становится практически ровным.

NVIDIA GeForce GT 1030

В Full HD Subnautica играбельна при низких и средних настройках графики. В первом случае картинка не блещет красотой, компенсируя это достаточно комфортной скоростью: в среднем 61 FPS с просадками до 43. Видеопамяти требуется всего гигабайт, и более 4 ГБ берется из оперативной.

NVIDIA GeForce GT 1030

Переход к средним настройкам повышает красоту картинки, но просаживает фреймрейт в район 28-33 кадров/с. График Frame Time становится более рваным и на 300-500 МБ повышается потребление видеопамяти и ОЗУ.

NVIDIA GeForce GT 1030

Поскольку Divinity: Original Sin 2 использует пошаговый боевой режим, то настройки графики особо не влияют на исход сражения. Поэтому оба запуска были в Full HD, но с разными пресетами. Хотя особой разницы в скорости мы не заметили. При среднем профиле в одних локациях получаем 30-40 FPS, а в более тяжелых, с обилием погодных эффектов, фризы достигали 18 FPS.

NVIDIA GeForce GT 1030

Та же ситуация повторяется и при низком профиле: пробежки по условно летним локациям проходят при 30-40 FPS, а если в кадре появляется лед, туман и шквальный ветер, то скорость просаживается до 18 кадров/с.

NVIDIA GeForce GT 1030

ARK: Survival Evolved оказалась очень тяжелой для GT 1030. Для начала мы выбрали Full HD и вручную выставили минимальные настройки графики. Но и этого оказалась мало: в среднем игра выдала 27 кадров/с с просадками до 10 FPS. Добавьте сюда очень бедную картинку, и вы вряд ли захотите долго бороздить просторы этого необычного мира.

NVIDIA GeForce GT 1030

Выйти из ситуации можно либо переходом в HD, либо снижением масштаба разрешения. Мы решили воспользоваться вторым путем и снизили масштаб примерно до уровня 60%. В таком случае уже можно рассчитывать на 40-50 FPS, но картинка стала более мыльной и отталкивающей.

NVIDIA GeForce GT 1030

Чтобы получить 26-37 кадров/с в Rust при народном разрешении многие настройки пришлось либо отключать, либо существенно снижать. Проблем с управлением мы не ощутили. Статоры и Input Lag также отсутствовали, поэтому Rust можно назвать условно играбельным на GT 1030.

NVIDIA GeForce GT 1030

При запуске Quake Champions мы доверились автонастройке, которая выбрала практически все низкие параметры и разрешение Full HD. Поскольку эта игра не про картинку, а про умение быстро двигаться и метко стрелять, то ключевую роль играет скорость видеоряда и отзывчивость управления. С этим проблем не было: в среднем мы получили 88 FPS с просадками до 51.

NVIDIA GeForce GT 1030

Мега-популярная Fortnite: Battle Royale по умолчанию предложила Full HD с высоким пресетом. Скоростные показатели находились на грани играбельности в зоне 26-35 кадров/с. В принципе, бегать можно, но для шутера этого маловато.

NVIDIA GeForce GT 1030

Поэтому лучше уменьшить разрешение либо настройки графики. Например, переход к среднему профилю в Full HD на 60-70% повышает частоту кадров. На выходе получаем под 60 FPS с просадками до 46. Автоматических побед это вам не принесет, но повысит шансы на выживание.

NVIDIA GeForce GT 1030

Многие пользователи запускают PUBG в Full HD при очень низких настройках графики. В домиках можно рассчитывать на 40-50 FPS, а на открытых просторах с высокой дальностью прорисовки скорость снижается в диапазон 30-40 кадров/с. График времени кадра довольно комфортный и проблем с прицельной стрельбой мы не ощутили.

NVIDIA GeForce GT 1030

Переход к HD позволяет выбрать низкий пресет и довольствоваться более высокими скоростными показателями: в среднем 54 кадра/с с просадками до 48. Но из-за размытия картинки бывает сложно вовремя заметить противника, что чревато поражением в игре.

NVIDIA GeForce GT 1030

The Evil Within 2 оказался настоящим кошмаром не только для игрока, но и для видеокарты. В Full HD пришлось выбрать минимальный профиль и вручную отключить ряд настроек, но и это не спасло от фризов до 16 FPS. Средняя же скорость составила всего 21 кадр/с. Одним словом, играть страшно.

NVIDIA GeForce GT 1030

Если же спуститься к HD, то можно выбрать низкий профиль без дальнейших ручных манипуляций. Но в таком режиме мы получили лишь консольные 26-31 FPS. Ознакомиться с игрой можно, но на всплеск гормонов удовольствия в мозгу (дофамина, эндорфина и серотонина) рассчитывать не приходится. 

Читать обзор полностью >>>

Драйвер NVIDIA GeForce 397.31 WHQL Game Ready принес поддержку NVIDIA RTX и Vulkan 1.1

Компания NVIDIA выпустила важный драйвер NVIDIA GeForce 397.31 WHQL Game Ready, который принес с собой ряд очень знаковых изменений. Поскольку это версия «Game Ready», то в первую очередь отметим добавленную поддержу оптимального игрового опыта для игр BattleTech и FrostPunk.

NVIDIA GeForce 397 31 WHQL Game Ready

Во-вторых, реализована предварительная поддержка для разработчиков технологии NVIDIA RTX под DirectX 12. Она поддерживает API Microsoft DirectX Raytracing (DXR), но для ее использования потребуются следующие компоненты:

  • GPU линейки NVIDIA Volta;
  • драйвер версии 396 или выше;
  • ОС Windows 10 RS4;
  • набор для разработчиков Microsoft DXR.

NVIDIA GeForce 397 31 WHQL Game Ready

В-третьих, в драйвере NVIDIA GeForce 397.31 WHQL Game Ready реализована полноценная поддержка API Vulkan 1.1 и обеспечивается прохождение теста Vulkan Conformance Test Suite (CTS) 1.1.0.3.

NVIDIA GeForce 397 31 WHQL Game Ready

В-четвертых, именно с этой версии драйвера прекращается поддержка GPU линейки NVIDIA Fermi и 32-битных ОС. Список других изменений выглядит следующим образом:

  • добавлена поддержка частот дискретизации 32 кГц, 88,2 кГц и 176,4 кГц для интерфейса HDMI для всех GPU;
  • улучшена работа инсталлятора (теперь он удаляет распакованные файлы после установки);
  • добавлены библиотеки nvdlist.dll и nvdlistx.dll для поддержки ноутбуков с технологиями Optimus и MSHybrid;
  • добавлено API NVDECODE, которое упрощает процесс внесение изменений в разрешение декодирования и другие параметры постобработки;
  • добавлены SLI-профили для игр Descenders, Frostpunk, Warhammer: Vermintide 2 и Far Cry 5;
  • добавлены профили 3D Vision для Descenders и EVE Valkyrie – Warzone;
  • исправлен ряд замеченных ошибок.

NVIDIA GeForce 397 31 WHQL Game Ready

В состав драйвера NVIDIA GeForce 397.31 WHQL Game Ready вошли следующие модули:

  • nView − 148.92
  • HD Audio Driver − 1.3.37.1
  • NVIDIA PhysX System Software − 9.17.0524
  • GeForce Experience − 3.13.1.30
  • CUDA − 9.2

Скачать драйвер NVIDIA GeForce 397.31 WHQL Game Ready можно на официальном сайте по этой ссылке или путем обновления в фирменном ПО GeForce Experience.

https://us.download.nvidia.com
Сергей Будиловский

Тэги: nvidia   nvidia geforce   vulkan   microsoft   windows 10   nvidia physx   directx 12   cuda   3d vision   fermi   
Читать новость полностью >>>

Сравнение: Radeon Vega 11 против GeForce GT 1030, GTX 750 Ti и Radeon RX 460 4GB

Недавно мы рассматривали игровые возможности встроенного в APU AMD Ryzen 3 2200G видеоядра Radeon Vega 8, сравнив его с бюджетными дискретными видеокартами, и теперь очередь пришла к Radeon Vega 11. В прямом сравнении с оппонентами мы рассмотрим ее возможности и оценим, насколько ее производительность отличается от недорогих видеокарт.

AMD Radeon Vega 11

AMD Radeon Vega 11

Если вы вдруг подзабыли, то напомним, что AMD Ryzen 5 2400G имеет 4 процессорных ядра с поддержкой SMT, которые работают на частотах 3,6 − 3,9 ГГц. Встроенный контроллер ОЗУ гарантированно запускает модули DDR4-2933 в двухканальном режиме, а для подключения внешней видеокарты доступно всего 8 линий PCIe. TDP составляет 65 Вт, а ориентировочный ценник уже опустился до $174.

AMD Radeon Vega 11

Встроенное ядро Radeon Vega 11 состоит из 704 вычислительных блоков, 44 текстурных и 16 растровых модулей. Его максимальная частота − 1250 МГц. Имеется поддержка DirectX 12 с уровнем функций 12_1, OpenGL 4.6, Open CL 2.0 и Vulkan 1.0 и наверняка 1.1.

AMD Radeon Vega 11

Переходим к тестовому стенду. Наконец мы можем сказать спасибо компании AMD, поскольку к нам поступил для тестирования официальный пресс-набор, включающий в себя не только сам APU, но и комплектный кулер Wraith Stealth, материнскую плату MSI B350I PRO AC и 16-гигабайтный набор оперативной памяти G.SKILL Flare X. То есть заодно проверим эффективность работы штатной системы охлаждения.

AMD Radeon Vega 11

Сама материнская плата наверняка понравится любителям собрать компактную универсальную систему в формате Mini-ITX. Два DIMM-слота подразумевают, что конфигурацию ОЗУ лучше продумать заранее. А вот с дисковой подсистемой проблем быть не должно, ведь в наличии четыре порта SATA и один Turbo M.2 на обороте. Под карту расширения есть слот PCI Express x16. Приятным бонусом является модуль беспроводных интерфейсов Wi-Fi и Bluetooth.

AMD Radeon Vega 11

Она поставлялась со специальной инженерной версией BIOS. Но поскольку мы делаем тесты ближе к реальности, то сразу обновили прошивку до последней стабильной версии. Сначала это была 13, а через день появилась 14, которая привнесла больше различных настроек в меню. К сожалению, на инженерном BIOS мы не проверили стабильность работы APU, а вот на обычных версиях наблюдались все замеченные ранее неприятности с нестабильной частотой видеоядра и фризами в играх.

AMD Radeon Vega 11

AMD Radeon Vega 11

Поэтому для повышения стабильности мы зафиксировали скорость на уровне 1240 МГц. А вот выставить напряжение SoC Voltage на уровне 1,2 В мы уже не смогли: при попытке температура ядер превысила 100°C. Поэтому оставили предложенное системой значение 1,1 В, но в тяжелых играх температура все равно достигала 100°C.

AMD Radeon Vega 11

AMD Radeon Vega 11

В свою очередь комплект оперативной памяти G.SKILL Flare X создан как раз с прицелом под платформу Socket AM4 и для лучшего охлаждения чипов оснащен низкопрофильным радиатором. Общая высота модулей составляет 40 мм, поэтому их можно использовать в паре с габаритными кулерами. Номинальная частота достигает 3200 МГц при напряжении 1,35 В. Активация осуществляется XMP-профилем, что существенно упрощает разгон. Мы же использовали частоту 2933 МГц, как номинальную для данного APU.

Остальная конфигурация стенда не изменилась:

  • AMD Ryzen 5 2400G
  • MSI B350I PRO AC
  • 2х 8GB DDR4-2933 G.SKILL Flare X
  • GOODRAM Iridium PRO 240GB | 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • Thermaltake Core P5 TGE
  • AOC U2879VF

AMD Radeon Vega 11

AMD Radeon Vega 11

Переходим к оппонентам. Первый представляет категорию игровых видеокарт начального уровня прошлых поколений. Это GeForce GTX 750 Ti в версии от ZOTAC с минимальным заводским разгоном графического процессора. Карта использует все доступные 8 линий PCIe и предлагает 128-битную шину памяти, поэтому обходит Vega 11 по пропускной способности. Зато встроенное видеоядро может похвастать более быстрой скоростью заполнения пикселей и текстур, а также поддержкой более актуальных программных интерфейсов. Поможет ли ему это в реальных игровых тестах – скоро узнаете.

AMD Radeon Vega 11

AMD Radeon Vega 11

Второй оппонент представляет актуальный бюджетный сегмент. Речь идет о GeForce GT 1030 в версии от ASUS, которая оказалась на 17-19% быстрее Vega 8. Она отличается 2%-ым заводским разгоном графического процессора. 2 ГБ GDDR5-памяти работают на стандартной эффективной частоте 6 ГГц. Слабыми сторонами всех представителей серии GeForce GT 1030 является 64-битная шина памяти и использование лишь 4 линий PCIe 3.0 для связи с процессором. Поэтому 8-ми линий APU хватит с запасом. В итоге скорость закраски пикселей у GeForce GT 1030 и Vega 11 практически одинаковая, а заполнение текстур происходит на 80% быстрее именно в iGPU.

AMD Radeon Vega 11

AMD Radeon Vega 11

Третий конкурент выбран из актуальных игровых видеокарт начального уровня. В эту категорию входят GeForce GTX 1050, Radeon RX 560 и Radeon RX 560D. Последняя является ребрендингом Radeon RX 460. Сами Radeon RX 460 почти исчезли из продажи, но нам удалось найти модель ASUS ROG Strix RX 460. Она построена на базе GPU Baffin PRO, который имеет в своей структуре 896 потоковых процессоров, 56 текстурных и 16 растровых блоков.

Эта видеокарта интересна небольшим заводским разгоном графического процессора и наличием 4 ГБ GDDR5-памяти со 128-битной шиной и эффективной скоростью 7 ГГц. Она также использует лишь 8 линий PCIe, поэтому не страдает от ограниченного их количества в составе APU. Скорость заполнения текстур у нее выше, зато расширения DirectX 12 поддерживаются в меньшем объеме.

AMD Radeon Vega 11

Вот мы и подошли к самому тестированию. Выбор игр осуществлялся на основе результатов опроса среди зрителей YouTube-канала, а настройки подбирались таким образом, чтобы получить играбельный FPS в системе с Vega 11.

AMD Radeon Vega 11

AMD Radeon Vega 11

Первый на очереди − сетевой режим Battlefield 1 в Full HD при низком пресете графики. Невозможность синхронизации геймплеев не позволяет говорить о повторяемости результатов, но в целом Vega 11 смогла обеспечить играбельные 30-40 FPS при не слишком рваном графике времени кадра. Температура достигала 100°С, но частоты оставались стабильными. Остальные оппоненты отрываются минимум на 12%, и лишь по минимальной скорости GeForce GT 1030 слегка проигрывает.

AMD Radeon Vega 11

AMD Radeon Vega 11

В Третьем ведьмаке при HD-разрешении и средних профилях температура APU находится на уровне 70-80°C, поэтому мы уже не волновались за стабильность работы, но все равно показатели высокие. Пробежка по городу дается в среднем при 38 кадрах/с с просадками до 35. Кому-то этого будет достаточно, остальным же рекомендуем установить дискретную видеокарту. Даже с GeForce GT 1030 получаем на 3-8% больше, а с GeForce GTX 750 Ti бонус превышает 22%.

AMD Radeon Vega 11

AMD Radeon Vega 11

В GTA V мы выбрали почти минимальные настройки в Full HD и получили достойные результаты – в среднем 57 FPS с просадками до 40. Правда, график времени кадра был достаточно рваным, особенно на фоне оппонентов. Скорость видеоряда у них также была выше минимум на 38%.

AMD Radeon Vega 11

AMD Radeon Vega 11

При желании на Vega 11 можно побегать даже в PUBG при HD и очень низких настройках. Средняя частота составила 56 кадров/с, а минимальная – 45. Фризов и подлагиваний мы не ощутили, несмотря на не самый ровный график Frame Time. В связке с GeForce GT 1030 APU выдает на 9-13% больше, а с GeForce GTX 750 Ti бонус увеличивается до 29%. 

Читать обзор полностью >>>

Сравнение: Radeon Vega 8 против GeForce GT 1030, GTX 750 Ti и GT 730

Radeon Vega 8 является частью APU Ryzen 3 2200G, который также включает в себя 4 процессорных ядра без SMT на частотах 3,5-3,7 ГГц, имеет 4 МБ кэш-памяти L3, двухканальный контроллер оперативной памяти с гарантированной поддержкой модулей DDR4 до 2933 МГц и 16 линий PCIe 3.0, из которых лишь 8 выделены для связи с внешней дискретной видеокартой. TDP новинки составляет 65 Вт, а средний ценник на рынке уже опустился до $115.

AMD Radeon Vega 8

В структуре видеоядра Radeon Vega 8 имеется 512 блоков ALU, 32 текстурных и 16 растровых модулей. Номинальная частота его работы составляет 1100 МГц, а пиковая производительность достигает 1126 GFLOPS. Также оно гарантированно поддерживает DirectX 12 с уровнем функций 12_1, OpenGL 4.6, Open CL 2.0 и Vulkan 1.0. В марте вышла версия Vulkan 1.1, которая также должна поддерживаться.

AMD Radeon Vega 8

В роли основы тестового стенда используется материнская плата ASUS PRIME B350-PLUS, которая здорово помогла нам при тестировании AMD Ryzen 5 2400G. Она является хорошим выбором для построения домашней системы и предлагает поддержку 64 ГБ ОЗУ, интерфейсы SATA 3.0 и M.2 для организации дисковой подсистемы, 6 слотов расширения, достойный набор внешних портов и ряд других преимуществ.

AMD Radeon Vega 8

Для охлаждения мы использовали башенный кулер PСCOOLER S1215 X6 с двумя 120-мм вентиляторами.

Тестовый стенд:

  • AMD Ryzen 3 2200G
  • ASUS PRIME B350-PLUS
  • PСCOOLER S1215 X6
  • 2х 8GB DDR4-2933 Patriot Viper 4
  • GOODRAM Iridium PRO 240GB | 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • Thermaltake Core P5 TGE
  • AOC U2879VF

AMD Radeon Vega 8

Теперь пора познакомиться с оппонентами. Первым и наиболее актуальным является GeForce GT 1030, который представлен видеокартой серии ASUS Phoenix с небольшим заводским разгоном GPU до 1252 / 1506 МГц, что на 2% выше эталонных показателей. Конфигурация графического процессора включает в себя 384 CUDA-ядер, 24 текстурных и 16 растровых блоков. А 2 ГБ GDDR5-памяти от Micron работают на эффективной скорости 6 ГГц. При 64-битной шине это обеспечивает пропускную способность на уровне 48 ГБ/с. У Vega 8 это показатель составляет почти 47 ГБ/с благодаря 2-канальному режиму работы ОЗУ.

AMD Radeon Vega 8

Скорость заполнения текстур у Vega 8 выше на 17% - сказывается большее количество соответствующих блоков, зато с закраской пикселей быстрее на 14% справляется GeForce GT 1030 благодаря более высокой тактовой частоте. Пиковой уровень ее производительности достигает 1127 GLOPS, и она поддерживает аналогичные версии программных интерфейсов DirectX, OpenGL и других. То есть по характеристикам они находится приблизительно на одном уровне. Средняя стоимость этой видеокарты составляет $96.

AMD Radeon Vega 8

Вторым оппонентом является GeForce GTX 750 Ti в версии от Zotac. Пускай в продаже ее можно встретить все реже, зато на руках ее очень много: кто-то задумывается о покупке б/у версии, а кто-то оценивает возможность продажи и перехода на APU. Одним словом, нам сравнение кажется актуальным.

AMD Radeon Vega 8

В ее основе находится процессор с поддержкой 640 CUDA-ядер, 40 текстурных и 16 растровых блоков. Его базовая частота составляет 1033 МГц, а динамическая – 1111 МГц, что на несколько процентов выше эталонных показателей. Видеопамять представлена 2 ГБ GDDR5 от Samsung с эффективной скоростью 5400 МГц. Благодаря 128-битной шине пропускная способность превышает 86 ГБ/с.

Также эта модель на 17% быстрее закрашивает текстуры, а вот скорость заполнения пикселей на 7% выше у Vega 8. В дополнение GM107 имеет ограниченную поддержку DirectX 12 с уровнем функций 11_0 и OpenCL версии 1.2. NVIDIA заявляет о полноценной поддержке Vulkan, что мы обязательно проверим в Вольфенштейне. Пиковая производительность достигает 1372 GFLOPS, что на 22% выше, чем у iGPU. То есть потенциально это фаворит сравнения. В продаже именно этой видеокарты мы не нашли, но другие версии GeForce GTX 750 Ti стоят в среднем от $132.

AMD Radeon Vega 8

Последним и наиболее доступным оппонентом выступает GeForce GT 730 в исполнении компании GIGABYTE. В комментариях звучали пожелания увидеть еще более дешевую GeForce GT 710, но у нее в 2 раза меньше CUDA-ядер: 192 против 384. И забегая вперед можем сразу сказать, что этого не хватило бы для конкуренции с Vega 8.

AMD Radeon Vega 8

Тестовая GeForce GT 730 построена на чипе NVIDIA GK208 поколения Kepler. В продаже есть варианты с более древним GF108 серии Fermi, которые комплектуются DDR3-памятью. У нас же версия с 2 ГБ GDDR5 от Samsung, хотя практически по всем характеристикам эта видеокарта уступает iGPU: частота процессора у нее ниже, скорости заполнения текстур и пикселей также ниже, и даже пропускная способность памяти меньше из-за 64-битной шины.

AMD Radeon Vega 8

Уровень поддерживаемых API у нее практически соответствует GeForce GTX 750 Ti, за исключением Vulkan: если верить официальной странице, то это единственный представитель 700-й серии, у которого отсутствует поддержка данного программного интерфейса. Даже для мобильной версии она заявлена. В итоге пиковая производительность GeForce GT 730 составляет 693 GFLOPS, что на 38% ниже, чем у Vega 8, а ценник достигает $80.

AMD Radeon Vega 8

Пора переходить к самому тестированию. Выбор игр осуществлялся на основе результатов опроса среди зрителей YouTube-канала, а настройки подбирались таким образом, чтобы получить играбельный FPS в системе с Vega 8.

AMD Radeon Vega 8

AMD Radeon Vega 8

Начнем с сетевого режима Battlefield 1 в Full HD при низком пресете графики. Геймплеи невозможно синхронизировать, поэтому сложно гарантировать повторяемость результатов. К тому же игра требовательна к процессору, поэтому в связке с более мощным CPU видеокарты могут выдать лучшие результаты. Тем не менее в лидерах оказалась GeForce GTX 750 Ti. Она минимум на 15% опередила GeForce GT 1030 и на 38% была быстрее, чем Radeon Vega 8. В сторону GeForce GT 730 лучше вообще не смотреть – там слайд-шоу со страшным графиком Frame Time.

AMD Radeon Vega 8

AMD Radeon Vega 8

В Третьем ведьмаке при HD-разрешении и средних профилях графики мы смогли синхронизировать пробежку Геральта на всех системах. Распределение получилось аналогичным, лишь разрыв повыше: добавление в систему с Radeon Ryzen 3 2200G видеокарты GeForce GTX 750 Ti увеличивает результат минимум на 47%. В свою очередь iGPU обходит GeForce GT 730 на 87-100%.

AMD Radeon Vega 8

AMD Radeon Vega 8

В GTA V при народном разрешении все настройки находятся на минимуме, лишь качество текстур поднято до высокого уровня. В таком режиме даже GeForce GT 730 показывает играбельный уровень, хотя переход исключительно на APU повышает FPS на 38%. По среднему показателю в лидеры вышла GeForce GTX 750 Ti, а по минимальному неожиданно победила GeForce GT 1030.

AMD Radeon Vega 8

AMD Radeon Vega 8

Удачно поиграть в PUBG при HD и очень низких настройках на GeForce GT 730 у вас вряд ли получится из-за фризов до 23 FPS. Встроенное графическое ядро обеспечивает приемлемый уровень в 40-50 кадров/с, но если хотите получить комфортный геймплей, тогда лучше поставить GeForce GTX 750 Ti, которая не только выдает 60-70 FPS, но и обеспечивает самый спокойный график времени кадра. 

Читать обзор полностью >>>

Microsoft DirectX Raytracing и NVIDIA RTX добавляют возможность трассировки лучей в режиме реального времени

Компания Microsoft анонсировала расширение API DirectX 12 с помощью технологии DirectX Raytracing. Она предоставляет компоненты для упрощения трассировки лучей в режиме реального времени. Реализацию этой возможности Microsoft возлагает на вычислительные шейдерные блоки, что обеспечивает широкую совместимость с различными видеокартами.

NVIDIA RTX

Отметим, что технология трассировки лучей в режиме реального времени годами активно используется в архитектуре для создания фотореалистичных интерактивных проектов зданий либо интерьеров и в киноиндустрии, где для рендеринга каждого кадра используются мощные вычислительные системы и это занимает много времени. А вот разработчики игр пока обходили эту технологию стороной из-за высокой вариативности геймплея и большого количества объектов в кадре, что на данном этапе потребовало бы гигантских вычислительных ресурсов. Только представьте: каждый пиксель изображения требует просчета сотен лучей и все это на скорости от 30 FPS и выше для комфортного геймплея.

NVIDIA RTX

Но с появлением Microsoft DirectX Raytracing и NVIDIA RTX все меняется в лучшую сторону. Поскольку Microsoft DirectX Raytracing является частью API DirectX 12, то в теории она будет совместима и с присутствующими на рынке моделями от AMD и NVIDIA, для которых заявлена поддержка данного API. А вот технология NVIDIA RTX создается исключительно под NVIDIA Volta и последующие поколения. То есть обладателей NVIDIA Pascal и более ранних поколений она обходит стороной.

NVIDIA RTX

NVIDIA RTX состоит из двух компонентов: специальных аппаратных блоков (предположительно ядра Tensor) и эффектов NVIDIA GameWorks Ray Tracing (Area Shadows, Glossy Reflections, Ambient Occlusion), стандартизованных посредством API Microsoft DirectX Raytracing (DXR). То есть видеокарты линейки NVIDIA Volta будут поддерживать два режима трассировки лучей в реальном времени: посредством Microsoft DirectX Raytracing или NVIDIA GameWorks Ray Tracing (если разработчики использовали ее в процессе создания своих проектов).

NVIDIA RTX

Разработчики игровых движков Unreal Engine (Epic Games), Unity, Frostbite (EA DICE) и Allegorithmic уже заинтересовались технологией NVIDIA RTX. Также интерес к ней проявляют компании EA, Remedy Entertainment и 4A Games. Если технология трассировки лучей в режиме реального времени будет успешно и в полном объеме интегрирована в игры, то нам обещают новый уровень качества картинки с еще более реалистичными объектами, тенями и отражениями.

NVIDIA RTX

https://www.techpowerup.com
Сергей Будиловский

Тэги: nvidia   microsoft   directx 12   nvidia gameworks   
Читать новость полностью >>>

Тестирование Intel UHD Graphics 630 в современных играх: есть ли жизнь на «встройке»?

У многих геймеров бывают в жизни черные дни, когда либо видеокарта приказывает долго жить, либо система покупается без дискретного адаптера, чтобы поднакопить и чуть позже взять более мощный вариант. В такие моменты рассчитывать можно лишь на встроенное графическое ядро. Вот мы и решили проверить, на что способно Intel UHD Graphics 630 в игровом плане.

Intel UHD Graphics 630

Для начала кратко и наглядно напомним об эволюции iGPU процессоров компании Intel.

Год выпуска

2013

2014

2015

2017

2017

Микроархитектура CPU / техпроцесс, нм

Intel Haswell / 22

Intel Broadwell / 14

Intel Skylake / 14

Intel Kaby Lake / 14

Intel Coffee Lake / 14

Встроенное графическое ядро

Intel HD Graphics 4600

Intel Iris Pro Graphics 6200

Intel HD Graphics 530

Intel HD Graphics 630

Intel UHD Graphics 630

Количество исполнительных блоков

20

48

24

24

24

Модули растеризации

4

8

8

8

8

Текстурные блоки

8

16

16

16

16

Тактовая частота GPU (номинальная / в турборежиме), МГц

350 / 1250

300 / 1150

350 / 1200

Максимальное количество поддерживаемых дисплеев

3

Поддержка инструкций и технологий

DirectX 11.2, OpenGL 4.3, OpenCL 1.2, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 11.2, OpenGL 4.3, OpenCL 2.0, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 12, OpenGL 4.4, OpenCL 2.0, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 12, OpenGL 4.4, Intel Quick Sync Video, InTru 3D, Intel Clear Video, Intel Clear Video HD

DirectX 12, OpenGL 4.5, Intel Quick Sync Video, Intel InTru 3D, Intel Clear Video HD, Intel Clear Video

Не лишним будет отметить, что Intel в процессорах, которые ориентированы на использование в настольных системах, не применяет свои лучшие графические ядра, а бережет их для мобильного сегмента. Единственным исключением является Intel Iris Pro 6200 класса GT3 для семейства Intel Broadwell. В остальных случаях десктопные «камни» могут рассчитывать на графику уровня GT2, тогда как младшие модели чипов и вовсе довольствуются упрощенной конфигурацией GT1. Если не заходить в микроархитектурные дебри, то Intel использует модульный дизайн и благодаря комбинированию строительных блоков может собирать iGPU разного уровня. Поэтому начиная с поколения Intel Skylake большинство десктопных iGPU имеют в своем распоряжении 24 исполнительных блока (EU, Execution Unit).

В свою очередь мобильный CPU Intel Core i7-6770HQ может похвастать интегрированной графикой Intel Iris Pro Graphics 580 (GT4e), которая включает в свой состав сразу 72 исполнительных блоков и память eDRAM. Замена Intel HD Graphics 530 на Intel HD Graphics 630 вызвана внедрением новых аппаратных возможностей медиадвижка, который научился кодировать / декодировать видео в форматах VP9 и H.265, а также получил полную поддержку контента в 4K-разрешении. В свою очередь в Intel Coffee Lake маркетинговый отдел решил изменить название встроенной графики с Intel HD Graphics 630 на более солидное Intel UHD Graphics 630, которое как бы намекает, что ему по силам совладать даже с 4K Ultra HD разрешением. Но по сути они не отличаются, если не считать добавление поддержки OpenGL версии 4.5 вместо 4.4 у предшественника.  

Intel UHD Graphics 630

Для практических испытаний Intel UHD Graphics 630 будем использовать наименее производительную его версию, которая находится в составе процессора Intel Core i3-8100. Лишь коротко напомним, что его встроенное видеоядро включает 23 исполнительных блока с базовой частотой 350 МГц и динамической до 1100 МГц. Другие варианты UHD Graphics 630 в старших процессорах могут комплектоваться 24 блоками или поддерживать ускорение до 1200 МГц, что чуточку добавляет им производительности.

Intel UHD Graphics 630

Тестирование проходило на материнской плате GIGABYTE Z370 AORUS Ultra Gaming, а за охлаждение процессора отвечал кулер Thermalright Archon SB-E X2. Оперативная память представлена 2-канальным комплектом Patriot Viper 4 в режиме DDR4-2400. Операционная система и многие игры были установлены на SSD серии GOODRAM Iridium PRO.

Intel UHD Graphics 630

Тестовый стенд:

  • Intel Core i3-8100
  • GIGABYTE Z370 AORUS Ultra Gaming
  • Thermalright Archon SB-E X2
  • 2x8GB DDR4-3200 Patriot Viper 4
  • GOODRAM Iridium PRO 240GB
  • GOODRAM Iridium PRO 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • AOC U2879VF

Intel UHD Graphics 630

Переходим к играм. Dota 2 при разрешении Full HD лучше запустить с минимальными настройками. Получаемый фреймрейт довольно высокий: в среднем 103 кадра/с с просадками до 76, поэтому может возникнуть желание поднять качество. Но при столкновении нескольких прокаченных героев частота может существенно упасть, поэтому лучше не рисковать.

Intel UHD Graphics 630

В Rocket League также пришлось спуститься к минимальным настройкам, чтобы оставить разрешение Full HD. В таком режиме все вполне играбельно: средняя скорость видеоряда стремится к 60 FPS, а минимальная не опускается ниже 45. Проблем с управлением нет, что подтверждает достаточно плавный и ровный график времени кадра.

Intel UHD Graphics 630

Intel UHD Graphics 630

Кампанию в The Long Dark можно проходить в HD-разрешении и с низким пресетом графики. В домике получаем в районе 60 FPS. На природе средний фреймрейт проседает до 56 кадров/с, а минимальный не опускается ниже 43. В управлении слегка ощущается Input Lag, но в целом играть можно.

Intel UHD Graphics 630

В Cuphead можно выбрать лишь разрешение. В данном случае это HD. К тому же по умолчанию используется вертикальная синхронизация, поэтому средняя скорость не поднимается выше 60 FPS. Минимальный показатель составил 30 кадров/с. График времени кадра достаточно ровный и плавный, поэтому к отзывчивости управления вопросов не возникло. А вот само управление с клавиатуры – отдельная история.

Intel UHD Graphics 630

В Dungeons 3 из настроек есть лишь управление разрешением рендеринга. Понизив его до 50%, мы не испытали никаких проблем в первой миссии. Хотя скорость видеоряда была невысока: в среднем 33 FPS с просадками до 30. Если вы прошли дальше, то поделитесь в комментариях, существенно ли возрастает нагрузка на систему?

Intel UHD Graphics 630

Тепло принятую геймерами и критиками игру Hob можно проходить и на встроенной графике. Правда, придется снизить разрешение до HD, а настройки – до минимального уровня. Качество картинки особо не радует, зато проблем с видеорядом или отзывчивостью управления нет. В среднем мы получили 41 FPS с просадками до 33.

Intel UHD Graphics 630

В 2D-платформере Inside можно выбрать лишь разрешение. При Full HD вы вправе рассчитывать в среднем на 37 кадров/с с просадками до 31. График времени кадра наводит тоску своим видом, но поскольку попадать в пиксель не придется, то проблем с прохождением не предвидится.

Intel UHD Graphics 630

В начале игры What Remains of Edith Finch необходимо дойти до дома Финчей. И на этом отрезке даже при HD-разрешении и низком разрешении рендеринга просадки достигают 20 FPS. Но уже в самом доме средняя скорость поднимается до 46 кадров/с, а минимальная не опускается ниже 28. Игра не требует высокой скорости реакции, поэтому характер графика Frame Time особой роли не играет. 

Тэги: intel   full hd   intel hd graphics   intel core   directx 12   gigabyte   core i3   4k ultra hd   
Читать обзор полностью >>>

Сравнение GeForce GTX 1070 vs GeForce GTX 1080 11Gbps для игр в Full HD и Quad HD

После выхода видеокарты GTX 1070 Ti цены на GTX 1070 пошли на убыль в зарубежных онлайн-магазинах (надеемся, вскоре этот тренд будет наблюдаться и на отечественном рынке), поэтому мы решили вспомнить об актуальных возможностях ее близких внутренних конкурентов при запуске требовательных игр в разрешениях Full HD и Quad HD.

gtx 1070 vs gtx 1080

Кратко напомним, что в апреле компания NVIDIA выпустила новую версию видеокарты GeForce GTX 1080 с ускоренной до 11 ГГц видеопамятью в качестве превентивного ответа на адаптеры серии AMD Radeon RX Vega. Именно одну из таких моделей нам удалось недавно и ненадолго заполучить в свое распоряжение.

gtx 1070 vs gtx 1080

Речь идет о ROG Strix GeForce GTX 1080 OC. Она может похвастать 10-фазной подсистемой питания с элементной базой Super Alloy Power II, массивным, тихим и эффективным 3-вентиляторным кулером, автоматическим процессом сборки, поддержкой фирменных технологий Aura Sync и FanConnect II и рядом других преимуществ.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Ее тестирование проводилось в режиме «Gaming», при котором динамическая частота GPU заявлена на уровне 1835 МГц, а эффективная скорость видеопамяти составляет эталонные 11 ГГц. Но есть и профиль «OC» с еще большим разгоном частоты графического процессора и даже чуть ускоренной видеопамятью.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

В роли ее оппонента выступает видеокарта GIGABYTE GeForce GTX 1070 G1 Gaming 8G. К списку ключевых ее преимуществ можно отнести 8-фазную подсистему питания с элементной базой Ultra Durable VGA, эффективную 3-вентиляторную систему охлаждения WINDFORCE 3X, заводской разгон GPU и LED-подсветку RGB Fusion.

gtx 1070 vs gtx 1080

Для тестирования использовался наш основной стенд на базе разогнанного процессора Intel Core i7-6700K. Запись в разрешении Full HD осуществлялась с помощью внешней карты захвата, то есть без потери производительности, а в Quad HD – с помощью инструмента NVIDIA ShadowPlay.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Начнем с разрешения Full HD. И первой игрой, а точнее бенчмарком, выступает Rise of the Tomb Raider в режиме DX12 при очень высоком пресете. По среднему показателю вполне ожидаемо вперед вышла система с GeForce GTX 1080: 149,5 против 115 FPS, что эквивалентно 30%. Зато по минимальному неожиданно фиксируем лидерство оппонента: 66,5 против 63 кадров/с.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080 

Ультра профиль в Far Cry Primal по максимуму загрузил один поток процессора в системе с GeForce GTX 1080, а у конкурента местами нагрузка была не такой высокой. В итоге чистое лидерство у более мощной связки: 115 против 94 FPS по средней частоте и 87 против 75 по минимальной. Разрыв составил 16-22%.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Rainbow Six Siege при ультра пресете полностью солидарен с предыдущим бенчмарком в вопросе выбора лидера. Разница заключается лишь в итоговых показателях: 210 против 168 кадров/с по среднему фреймрейту и 69 против 55 по минимальному. Прирост составил 25% в обоих случаях.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Более требовательный Ghost Recon Wildlands при том же ультра пресете не позволяет системам выйти за границы 70 FPS, тем не менее пальму первенства удерживает конфигурации с GeForce GTX 1080. По средней частоте имеем 65 против 53 кадров/с, а по минимальной – 56 против 46, что эквивалентно 22-23%.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Еще один проект в режиме DirectX 12, Deus Ex Mankind Divided при ультра пресете, оказался весьма сложным для тестовых связок. GeForce GTX 1070 смогла обеспечить в нем в среднем 63 кадра/с с просадками до 50. В свою очередь GeForce GTX 1080 выдала 83 и 64 FPS соответственно. Бонус производительности составил 28-31%. 

gtx 1070 vs gtx 1080

Battlefield 1 не очень хорошо оптимизирован под DX12, поэтому тестировали его в 11-й версии. А выбор сюжетной кампании вместо сетевого мультиплеера объясняется лучшей повторяемостью результатов. При ультра пресете , естественно, быстрее была связка с GeForce GTX 1080 на борту: 145 против 114 FPS по среднему показателю и 126 против 105 по минимальному.

gtx 1070 vs gtx 1080

Открытый мир WATCH_DOGS 2 при ультра профиле является очень серьезным испытанием для любой системы даже в Full HD. GeForce GTX 1070 смогла поддерживать среднюю скорость видеоряда на уровне 61 FPS. Минимальный же показатель снизился до 46 кадров/с. А GeForce GTX 1080 выдала 69 и 53 FPS соответственно, обогнав младшую версию на 13-15%.

gtx 1070 vs gtx 1080 

И в 2017 году Третий Ведьмак при максимальных настройках графики не теряет своей красоты и привлекательности для геймеров. Обе тестовые конфигурации смогли обеспечить комфортный фреймрейт при пробежке по городу, но закономерно лучше это получилось у системы с GeForce GTX 1080: 97 против 74 FPS по среднему показателю и 85 против 68 по минимальному. Разрыв составил 25-31%.

gtx 1070 vs gtx 1080

Завершаем первую тестовую сессию в сетевом проекте PLAYERUNKNOWN'S BATTLEGROUNDS при ультра настройках. Покатавшись на природе и исследовав домики, на GTX 1070 мы получили в среднем 66 FPS с просадками до 48. Система с GTX 1080 выдала заметно больше: 93 и 61 кадр/с соответственно. Но о повторении результатов в сетевых играх говорить сложно.  

Сравнение двух видеокарт в разрешение Full HD:

 

GTX 1080 11Gbps vs GTX 1070, avg, %

GTX 1080 11Gbps vs GTX 1070, min, %

PLAYERUNKNOWN'S BATTLEGROUNDS, Ultra

40,91

27,08

The Witcher 3, Max

31,08

25,00

WATCH_DOGS 2, Ultra

13,11

15,22

Battlefield 1, Ultra

27,19

20,00

Deus Ex Mankind Divided, DX12, Ultra

31,22

28,29

Tom Clancy's Ghost Recon Wildlands, Ultra

22,58

21,91

Tom Clancy's Rainbow Six Siege, Ultra

25,21

25,05

Far Cry Primal, Ultra

22,34

16,00

Rise of the Tomb Raider, DX12, Very High

30,34

-5,26

Average Full HD

27,11

19,25

Читать обзор полностью >>>

Дебют мобильных видеокарт NVIDIA GeForce MX130 и GeForce MX110

Без красноречивых пресс-релизов и масштабных презентаций, компания NVIDIA добавила на официальный сайт странички двух новых мобильных адаптеров – NVIDIA GeForce MX130 и NVIDIA GeForce MX110, что можно считать официальным их анонсом.

NVIDIA GeForce MX130

NVIDIA традиционно не стала разглашать подробности их технических характеристик. Известно лишь то, что они построены на базе микроархитектуры NVIDIA Maxwell, могут работать в паре с видеопамятью DDR3 или GDDR5, а также поддерживают ряд актуальных технологий и API: NVIDIA Optimus, NVIDIA GPU Boost 2.0, NVIDIA GameWorks, DirectX 12 и OpenGL 4.5.

NVIDIA GeForce MX110

Сводная игровая производительность NVIDIA GeForce MX110 в 1,5 раза выше, чем у встроенного графического ядра Intel UHD Graphics 620 (используется в процессорах Intel Core 8-ого поколения). В свою очередь NVIDIA GeForce MX130 в 2,5 раза лучше этого же конкурента. Для сравнения напомним, что топовый представитель этой серии, NVIDIA GeForce MX150, в 4 раза превосходит Intel UHD Graphics 620.

https://www.techpowerup.com
https://www.geforce.com
Сергей Будиловский

Читать новость полностью >>>

Новый драйвер для встроенной графики Intel HD v15.60 WHQL

Состоялся релиз драйвера для встроенной графики Intel HD v15.60 WHQL, который совместим с большинством процессоров Intel Core 6-го, 7-го и 8-го поколения (Skylake, Kaby Lake и Coffee Lake). В первую очередь он предназначен для использования возможностей последнего обновления ОС Windows 10 – Fall Creators Update.

Intel HD v15.60 WHQL

Также драйвер добавляет поддержку 10-битных дисплеев с подключением по интерфейсу HDMI, отображающих 1,07 млрд. цветов, возможность аппаратного декодирования видео нескольких форматов, представленных после релиза DirectX 12, поддержку Netflix HDR и YouTube HDR. Помимо этого, оптимизирована работа встроенного видеоядра Intel HD Graphics в игровых проектах Middle-earth: Shadow of War, Call of Duty: WWII, Destiny 2 и Divinity: Original Sin.

Загрузить драйвер Intel HD v15.60 WHQL можно по этой ссылке.

guru3d.com
Юрий Коваль

Тэги: intel   windows 10   youtube   directx 12   call of duty   intel core   
Читать новость полностью >>>

Сравнение видеокарт Radeon RX Vega 64 vs GeForce GTX 1080 в Full HD играх: Volta может подождать

Недавно мы познакомились с возможностями видеокарты AMD Radeon RX Vega 64 в 25 актуальных играх, а теперь пришло время сравнить ее в наиболее популярном разрешении Full HD с одним из главных конкурентов в лице NVIDIA GeForce GTX 1080, против которого она изначально и позиционировалась.

Radeon RX Vega 64 vs GeForce GTX 1080

Кратко напомним, что при тестировании использовалась эталонная версия RX Vega 64 с поддержкой 4096 потоковых процессоров, динамической частотой вплоть до 1630 МГц, 8 ГБ HBM2-памяти и турбинной системой охлаждения. Отметим, что официальная динамическая частота для референсной модели составляет 1546 МГц.

Radeon RX Vega 64 vs GeForce GTX 1080

Противостоять ей будет хорошо знакомая по предыдущим нашим видео модель Inno3D iChill GeForce GTX 1080 X3 с заводским разгоном графического процессора и памяти, а также тихой и эффективной 3-вентиляторной системой охлаждения. Тактовые частоты мы не стали уменьшать до эталонного уровня, поскольку они обеспечивают лишь порядка 3% прироста в разрешении Full HD. К тому же в продаже очень много версий именно с заводским разгоном, поэтому подобное сравнение будет не редкостью.

Radeon RX Vega 64 vs GeForce GTX 1080

А поскольку была просьба сравнить топовые видеокарты на платформе AMD, то в роли тестового стенда используется конфигурация с Ryzen 7 1700X во главе. Ассистирует ему материнская плата MSI X370 SLI PLUS, водяное охлаждение be quiet! Silent Loop, пара 8-гигабайтных 2-ранговых модулей Patriot Viper 4 на частоте DDR4-3200 и другие, знакомые вам компоненты.

Radeon RX Vega 64 vs GeForce GTX 1080

От разгона процессора мы также умышленно отказались, поскольку хотели увидеть, не будет ли он ограничивать производительность столь мощных видеокарт в играх, а если будет, то как это отразится на комфортности геймплея. К тому же оверклокинг топовых AMD Ryzen − довольно спорный вопрос: незначительное ускорение заметно влияет на энергопотребление и тепловыделение, требуя более дорогих и надежных комплектующих.

Radeon RX Vega 64 vs GeForce GTX 1080

Тестовый стенд:

  • AMD Ryzen 7 1700X
  • MSI X370 SLI PLUS
  • be quiet! Silent Loop 240mm
  • 2 х 8 ГБ DDR4-3400 Patriot Viper 4
  • Inno3D iChill GeForce GTX 1080 X3
  • AMD Radeon RX Vega 64
  • Kingston SSDNow KC400 (SKC400S37/256G)
  • Seagate IronWolf ST2000VN004 2 ТБ
  • be quiet! Dark Power Pro 11 850W
  • be Quiet! Pure Base 600 Window Orange
  • AOC U2879VF

Radeon RX Vega 64 vs GeForce GTX 1080

При тестировании мы постарались использовать новые API DirectX 12 и Vulkan, а запись осуществлялась на внешнюю систему, то есть без потери производительности.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

Начнем с Rise of the Tomb Raider при очень высоком пресете графики. Обратите внимание, что в системе с GeForce GTX 1080 часть процессорных потоков может не использоваться, но их частота не снижается. Тем не менее обе видеокарты загружены достаточно высоко, хотя и не на максимум. В лидеры вырывается GeForce GTX 1080: 141 против 126 FPS по среднему показателю и 55 против 46 по минимальному.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

А вот Far Cry Primal при ультра пресете требует от процессора высокой производительности в однопоточном режиме, что не позволяет на полную задействовать ресурсы видеокарты. Более остро это ощущается в связке с GeForce GTX 1080 на ранних этапах бенчмарка. Но это не мешает ей опять выйти в лидеры, хотя и с минимальным преимуществом: 87 FPS против 84 по средней частоте и 60 против 59 по минимальной.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

До масштабного сентябрьского обновления Rainbow Six Siege была лучше оптимизирована под видеокарты AMD. Давайте посмотрим, поменялось ли что-то после него? Ультра пресет довольно хорошо раскидывает нагрузку по потокам CPU и высоко загружает обе видеокарты. Но финальный итог все же за Veg’ой: 208 кадров/с против 202 по среднему фреймрейту и 75 против 53 по минимальному. Разница составила 3 и 40% соответственно.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

А вот более новый представитель игр серии Tom Clancy’s, Ghost Recon Wildlands при ультра профиле, возвращает на Олимп связку с GeForce GTX 1080 на борту. В среднем она выдала 61,5 FPS с просадками до 53,5. У конкурента в активе в среднем 52 кадра/с с просадками до 42. Бонус производительности составляет 18 и 28% соответственно. 

Читать обзор полностью >>>

Драйвер NVIDIA GeForce Game Ready 387.92 WHQL с поддержкой Middle-earth: Shadow of War, The Evil Within 2 и Forza Motorsport 7

Компания NVIDIA выпустила новую версию игрового драйвера – NVIDIA GeForce Game Ready 387.92 WHQL, который добавляет поддержку свежих игр: Middle-earth: Shadow of War, The Evil Within 2 и Forza Motorsport 7, а также исправляет ряд ранее замеченных ошибок.

NVIDIA GeForce Game Ready 387.92 WHQL

Среди других изменений драйвера можно выделить следующие:

  • добавлено поддержку спецификации OpenGL 4.61;
  • добавлена возможность использования технологии Fast Sync для мультиграфических связок NVIDIA SLI, состоящих из видеокарт на основе GPU NVIDIA Maxwell, NVIDIA Pascal и более новых;
  • добавлено полную поддержку DirectX 12 Shader Model 6.0;
  • исправлено проблему низкой загрузки GPU в мультиграфических связках на системах, основанных на чипсете Intel X299;
  • исправлено подергивание картинки при просмотре видео на YouTube в полноэкранном режиме при активном Fast Sync;
  • исправлена проблема с невозможностью сохранить пользовательское разрешение в NVIDIA Control Panel после обновления драйвера и другие.

NVIDIA GeForce Game Ready 387.92 WHQL

Скачать драйвер NVIDIA GeForce Game Ready 387.92 WHQL можно с официального сайта по этой ссылке или путем обновления в ПО NVIDIA GeForce Experience.

videocardz.com
Юрий Коваль

Тэги: nvidia   nvidia geforce   youtube   directx 12   nvidia sli   maxwell   
Читать новость полностью >>>

Обзор и тестирование видеокарты ROG STRIX RX VEGA 64 OC Edition: возвращение в высшую лигу

Все откровенно заждались возвращения компании AMD в сегмент Hi-End игровых настольных видеокарт. Шутка ли, еще летом 2016 года была представлена серия AMD Polaris. Но, как и ее прямое усиление в виде линейки AMD Radeon RX 500, она нацелена исключительно на категорию Middle-End и Performance, где ее модели вполне успешно составили конкуренцию младшим представителям NVIDIA Pascal. А вот старшие NVIDIA GeForce GTX 1070 и GeForce GTX 1080 попросту оставались без достойного соперника, поскольку модели AMD Radeon R9 FURY и AMD Radeon R9 FURY X быстро сошли с дистанции, а дебют их преемников на базе микроархитектуры AMD Vega был запланирован лишь на 2017 год. Хотя еще в декабре прошлого года состоялся анонс специализированных ускорителей AMD Radeon Instinct, флагман которых, AMD Radeon Instinct MI25, получил в свое распоряжение полностью функционирующий графический процессор AMD Vega 10.  

Объясняется все весьма просто. Во-первых, AMD пришлось «воевать» сразу на два фронта – CPU и GPU, что требует немалых ресурсов и расставления приоритетов. И надо сказать, что ставка сыграла вполне удачно, ведь выпуск процессоров AMD Ryzen на микроархитектуре AMD Zen позволил «красным» ударить по нерушимым позициям компании Intel в массовом сегменте и отвоевать давно утерянные рубежи. Во-вторых, в новых видеокартах компания AMD снова сделала ставку на быструю память HBM, только уже второго поколения, массовое производство которой удалось наладить лишь сравнительно недавно.

ROG STRIX RX VEGA 64 OC Edition

Тем не менее в процессе ожидания новых карт отдел маркетинга AMD постоянно подогревал интерес к готовящимся продуктам при помощи ряда анонсов и презентаций, которые постарались убедить всех в конкурентоспособности «Веги». А уже в начале лета были представлены не только серверные процессоры AMD EPYC, но и профессиональная видеокарта Radeon RX Vega 64 Frontier Edition, которая призвана составить конкуренцию NVIDIA TITAN Xp.

И только совсем недавно, в рамках SIGGRAHP 2017, компания AMD порадовала энтузиастов и официально представила HEDT-платформу со своими «потоковыми потрошителями» из линейки AMD Ryzen Threadripper и массовые видеокарты AMD Radeon RX Vega 64 и Radeon RX Vega 56. 

Топовая модель, причем в нереференсном исполнении, попала в нашу тестовую лабораторию, и мы можем поделиться впечатлениями от знакомства. Итак, приступим.

Общие сведенья о новых видеокартах

ROG STRIX RX VEGA 64 OC Edition

На данный момент доступны две игровые видеокарты линейки AMD Radeon RX Vega: AMD Radeon RX Vega 64 и Radeon RX Vega 56. В отличие от прошлого поколения AMD Radeon R9 FURY, несколько изменилась схема обозначения: «R9» заменили на «RX», но при этом новинки также получили свое собственное имя «Vega», которое гармонично вписывается в звездную терминологию, выбранную компанией в последние годы. Числовой индекс в конце обозначает количество активных вычислительных блоков в графическом чипе – 64 или 56. Старшая модель не только располагает максимальной конфигурацией GPU и более высокими частотами, но и выпускается сразу в трех модификациях. Кроме черной эталонной версии с пластиковым кожухом и воздушной системой охлаждения, AMD представила версию с приставкой «Limited Edition», которая имеет идентичные частоты, но может похвастать металлическим кожухом СО и наличием подсветки. Топовый вариант «Liquid Cooled Edition» получил повышенные частоты и СВО.

Младшая модель AMD Radeon RX Vega 56 довольствуется меньшим набором вычислительных блоков и доступна только с простым воздушным охлаждением. Для удобства восприятия предлагаем взглянуть на сводную таблицу, где представлены графические адаптеры прошлого и текущего поколения компании AMD:

Модель

AMD Radeon R9 Fury X

AMD Radeon RX 580

AMD Radeon RX Vega 64 Frontier Edition

AMD Radeon RX Vega 64 Liquid Cooled Edition

AMD Radeon RX Vega 64

AMD Radeon RX Vega 56

GPU

AMD Fiji XT 

AMD Polaris 20 XTX 

AMD Vega 10 XT

AMD Vega 10 XT

AMD Vega 10 XT

AMD Vega 10 XL

Микроархитектура

3-е поколение AMD GCN

4-е поколение AMD GCN

5-е поколение AMD GCN

5-е поколение AMD GCN

5-е поколение AMD GCN

5-е поколение AMD GCN

Число транзисторов, млн

8900

5700

12500

12500

12500

12500

Площадь кристалла, мм2

596

232 

486

486

486

486

Техпроцесс, нм

28

14

14

14

14

14

Количество вычислительных блоков

64

36

64

64

64

56

Количество потоковых процессоров (ALU)

4096

2304

4096

4096

4096

3584

Количество текстурных блоков (TMU)

256

144

256

256

256

224

Количество растровых блоков (ROP)

64

32

64

64

64

64

Тактовая частота GPU, МГц

1050

1257 / 1340

1382 / 1600

1406 / 1677

1247 / 1546

1156 / 1471

Тип видеопамяти

HBM

GDDR5

HBM2

HBM2

HBM2

HBM2

Объем, ГБ

4

4 / 8

8 / 16

8

8

8

Эффективная частота памяти, МГц

1000

7000 / 8000

1890

1890

1890

1600

Ширина шины памяти, бит

4096

256

2048

2048

2048

2048

Пропускная способность, ГБ/с

512

224 / 256

484

484

484

410

Уровень производительности одиночной точности, TFLOPS

8,6

6,2

13,1

13,7

12,7

10,5

Показатель TDP, Вт

275

185

300

345

295

210

Рекомендованная стоимость на старте продаж, $

649

199 / 229

1199 / 1799

699

499

399

Как видите, в основе всех новинок используется GPU AMD Vega 10, на одной подложке с которым находится с 8 ГБ HBM2-памяти. В своей максимальной конфигурации GPU получил 4096 потоковых процессоров, 256 текстурных блоков и 64 блока растеризации, что полностью совпадает с предшественником AMD Fiji. Но при этом переход на более прогрессивный 14-нм техпроцесс FinFET позволил добиться более компактных размеров кристалла (486 против 596 мм2). А благодаря архитектурным нововведениям удалось значительно поднять тактовые частоты, которые в некоторых случаях перешагнули порог в 1,6 ГГц, что было просто недоступно прошлым чипам даже в максимальном разгоне. Кстати, плавающая Boost-частота теперь не является максимальной, а ее следует воспринимать как некое среднее значение под игровой нагрузкой, но если температура и энергопотребление позволяют, то скорости могут быть куда выше. В свою очередь базовое значение частоты можно увидеть только при условии максимальной нагрузки на GPU. Общая схема работы напоминает таковую у видеокарт линейки NVIDIA GeForce GTX.

Вполне естественно, что рост тактовых частот привел к увеличению TDP. Для AMD Radeon RX Vega 64 с воздушным охлаждением оно заявлено на уровне 295 Вт, а для AMD Radeon RX Vega 64 Liquid Cooled Edition с СВО − уже равно внушительным 345 Вт. Если сравнить это с 275-ватным предшественником AMD R9 Fury X, то рост TDP можно считать не таким и большим, особенно учитывая, что AMD Vega 10 имеет в своем составе на 40% больше транзисторов, чем AMD Fiji (12,5 млрд. против 8,9 млрд.). При этом вычислительная мощность одинарной точности возросла с 8,6 терафлопс до 12,7 и 13,7 терафлопс или на 48% и 59% для моделей с воздушным и водным охлаждением соответственно. Но если взглянуть на конкурентные решения NVIDIA GeForce GTX 1080 и GeForce GTX 1080 Ti, TDP которых заявлено на уровне 180 и 250 Вт соответственно, то картина становится не такой уж оптимистичной. То же самое касается сравнения AMD Radeon RX Vega 56 с GeForce GTX 1070 – 210 Вт против 150 Вт, хотя и разрыв куда скромнее. Но это все мы проверим на практике, а пока более подробно остановимся на нововведениях микроархитектуры AMD Vega.

Особенности графического ядра AMD Vega 10

ROG STRIX RX VEGA 64 OC Edition

Как уже упоминалось выше, графический процессор AMD Vega 10 производится по 14-нм FinFET-техпроцессу и содержит 12,5 миллиардов транзисторов. На сегодняшний день он является самым масштабным изменением в микроархитектуре Graphics Core Next (GCN) и относится к ее пятому поколению. Тем не менее в концептуальном плане ничего не поменялось.

ROG STRIX RX VEGA 64 OC Edition

Как и раньше основным вычислительным блоком в GPU выступает Compute Unit, который в данной итерации именуется как NCU (Next-Generation Compute Unit), а вот он уже претерпел целый ряд усовершенствований, как заявляет сама AMD. Всего насчитывается четыре больших массива из вычислительных блоков (NCU), в каждом из которых есть свой движок асинхронного исполнения команд (Asynchronous Compute Engines) и геометрический процессор (Next-Gen Geometry Engines). По сути, перед нами тот же шейдерный движок (Shader Engine, SE), как и в AMD Fiji. В каждом шейдерном движке (SE) насчитывается 16 вычислительных блоков (NCU), в каждом из которых работают 64 потоковых процессора (ALU) и 4 текстурных блока (TMU). В итоге общая конфигурация вычислительных блоков AMD Vega 10 идентичная AMD Fiji и насчитывает 4096 потоковых процессора (ALU), 256 текстурных блоков (TMU) и 64 блока растеризации (ROP). Но что же изменилось?

ROG STRIX RX VEGA 64 OC Edition

Чип AMD Vega 10 располагает 45 МБ SRAM. Причем регистры внутренней памяти построены с применением статической памяти, дизайн которой изначально был создан для процессоров на микроархитектуре AMD Zen. По заявлению самой AMD, это позволило на 8% сократить внутренние задержки, сэкономить 18% площади и на 43% уменьшить потребление энергии в сравнении со стандартными решениями. Также были внедрены четыре стадии конвейера, укорочены все внутренние линии прохождения сигналов, проведена оптимизация утечек, что позволило поднять рабочие частоты.

Вдвое был увеличен объем кэш-памяти второго уровня (L2), который теперь равен 4 МБ. Причем модуль рендеринга (ROP) стал клиентом кэша второго уровня, а не контроллера памяти. В теории это сулит увеличение скорости рендера за счет уменьшения необходимости GPU обращаться к видеопамяти за необходимыми данными.

Для коммуникации графического ядра с обвязкой (контроллером памяти, шиной PCI Express, мультимедийным блоком и так далее) используется скоростная шина Infinity Fabric, которая также применяется в процессорах AMD Ryzen. Такая унификация позволит в будущем легко интегрировать GPU в новые APU.

Next-Generation Compute Unit 

ROG STRIX RX VEGA 64 OC Edition

Новое поколение вычислительных блоков (NCU) научилось работать с новыми типами данных и получило наибольшее обновление набора инструкций ISA (Instruction Set Architecture) за всю историю микроархитектуры GCN. Поскольку в AMD Vega 10 насчитывается 64 вычислительных блока (NCU), которые способны выполнять две операции с плавающей запятой, то в итоге мы получаем 128 операций со стандартной 32-битной точностью (FP32) за один такт, упор на которые сделали еще в далеких 2007/8-годах, когда графические процессоры сделали переход к унифицированным шейдерам.

ROG STRIX RX VEGA 64 OC Edition

Но теперь появилась поддержка 8- и 16-битных данных с удвоенным темпом выполнения при каждом снижении разрядности. То есть вместо 128 операций с 32-битной точностью (FP32), мы получаем 256 операций с 16-битной (FP16) или целых 512 операций над 8-битными данными (FP8). Аналогичная ситуация с целочисленными вычислениями (INT8, INT16 и INT32).

Если сказать более простым языком, то «Вега» отлично подходит для научных расчетов и моделирования, кроме операций с двойной точностью (FP64), где наблюдается низкая производительность (1/16 от FP32). Присутствует возможность комбинировать разные типы вычислений. Аналогичной функциональностью обладает чип NVIDIA GP100. Но конкурент старается разграничивать решения для игровых и профессиональных задач, тогда как AMD в новом чипе сделала ставку на универсальность.

ROG STRIX RX VEGA 64 OC Edition

Стоит отметить, что удвоенный темп выполнения операций с половинчатой точностью пригодится и для улучшения энергоэффективности и увеличения игровой производительности, поскольку уже применяется в консоли Sony PS4 Pro, которая основана на аппаратной начинке AMD. Данная технология носит название Rapid Packed Math (RPM). Причем с ее реализацией в декстопном сегменте не должно возникнуть проблем, поскольку в DirectX 11, DirectX 12 и Vulkan предусмотрена поддержка операций FP16. Как пример эффективности ее работы, сама компания наводит бенчмарк 3DMark Serra, где наблюдается профит в диапазоне от 20% до 25%.

ROG STRIX RX VEGA 64 OC Edition

Вторым примером служит просчет физики поведения волос на базе технологии TressFX: активация RPM позволяет системе просчитать вдвое большее количество волосков (1 200 000 против 550 000) без снижения производительности.

Примечательно, что поддержку данной технологии уже заявлено в самых свежих проектах. Речь идет об Wolfenstein II: The New Colossus и Far Cry 5, которые должны появиться уже этой осенью. Будем надеяться о последующем ее развитии и внедрении во все большее количество игр.

Программируемый геометрический конвейер

ROG STRIX RX VEGA 64 OC Edition

Стоит напомнить, что в AMD Fiji обрабатывалось максимум 4 примитива за такт. Но улучшенный геометрический движок AMD Vega 10 увеличивает этот предел до 17 примитивов за такт. Для этого разработчики предлагают ввести «шейдеры примитивов» (Primitive Shaders), которые являются частично программируемыми и позволяют объединить некоторые стадии конвейера, а также отсекать невидимые примитивы на ранних стадиях, что позитивно сказывается на общей производительности. Дополнительно внедрен специальный блок Intelligent Workload Distributor (IWD), который призван максимально эффективно использовать ресурсы нескольких геометрических процессоров.

Новый пиксельный движок

ROG STRIX RX VEGA 64 OC Edition

Не остался без улучшений и пиксельный движок, который получил механизм Draw-Stream Binning Rasterizer (DSBR). По аналогии с микроархитектурами NVIDIA Maxwell и Pascal, в нем реализован тайловый рендеринг или растеризация (Tile Based Rendering или Tile Based Rasterization, TBR). А еще раньше он появился в мобильной графике IT PowerVR и ARM Mali. При классической схеме (Immediate Mode Rendering) процесс рендеринга выполняется постепенно для всего кадра. В случае с TBR драйвер разделяет кадр на прямоугольные тайлы (размером 16 х 16 или 32 х 32 пикселя) и растеризация проходит отдельно для каждого кусочка, а уже в конце все тайлы сшиваются в одну картинку. Это позволяет сократить необходимость обращения к внешней, более медленной видеопамяти, используя для этих целей начиповый кэш, но при этом требуется два прохода для обработки геометрии сцены. В свою очередь технология DSBR оценивает какие полигоны видны в кадре, а какие – перекрываются другими полигонами. Отбраковка перекрытых объектов позволяет более эффективно использовать имеющиеся ресурсы для обработки сцены и повышения производительности.

ROG STRIX RX VEGA 64 OC Edition

Среди всех современных GPU только AMD Vega 10 предусматривает наиболее полную поддержку функций DirectX 12 (Direct3D на уровне 12_1) и Vulkan 1.0.

HBM2 и иерархия взаимодействия с ней

ROG STRIX RX VEGA 64 OC Edition

Также микроархитектура AMD Vega принесла в массы High Bandwidth Memory второго поколения (HBM2). Новая память доступна в стеках на 2 ГБ (2Hi HBM2), 4 ГБ (4Hi HBM2), 8 ГБ (8Hi HBM2) и 16 ГБ (16Hi HBM2). Для AMD Radeon RX Vega 64 используются два стека по 4 ГБ, что дает нам 8 ГБ видеопамяти. Шина данных между GPU и VRAM – 2048-битная, что при эффективной частоте памяти в 1890 МГц дает пропускную способность на уровне 484 ГБ/с. Напомним, что AMD Radeon R9 FURY X оперировала только 4 ГБ HBM первого поколения. Такого объема уже сейчас впритык хватает даже для массового Full HD-разрешения, не говоря про постепенно наступающие сверхразрешения (4K, 5K и даже 8K). Но через более широкую шину данных она имела немного лучший показатель пропускной способности – 512 ГБ/с. Для сравнения: в NVIDIA GeForce GTX 1080 Ti с GDDR5X данный показатель находится на уровне 484 ГБ/с благодаря повышенной рабочей частоте. Критикам сразу стоит напомнить о традиционных преимуществах HBM над GDDR5-памятью: более скромные габариты и энергопотребление. Именно за ней будущее.

ROG STRIX RX VEGA 64 OC Edition

По словам Раджа Кодури (Raja Koduri), существующие на рынке микроархитектуры не обеспечивают необходимую гибкость при использовании играми видеопамяти. Например, если мониторинг показывает потребление игрой 4 ГБ, то в реальности ей необходимо не более 2 ГБ. Остальные 2 ГБ частично задействованы из-за невозможности разделения видеопамяти на более мелкие фрагменты для эффективного использования, а частично − из-за желания разработчиков перестраховаться.

ROG STRIX RX VEGA 64 OC Edition

В AMD считают, что простое наращивание видеопамяти является малоэффективным (растет площадь PCB и заметно увеличивается энергопотребление). Как альтернативу они предлагают использовать гетерогенную структуру памяти. Для этого был разработан и внедрен контроллер HBCC (High-Bandwidth Cache Controller), способный работать с разными типами памяти (оперативной, накопителями и даже сетевыми хранилищами).

ROG STRIX RX VEGA 64 OC Edition

Теперь HBM2-память можно использовать как скоростной кэш, в который «постранично» (Page Based Memory Management) будут подгружаться данные разных размеров. Проще говоря, HBCC оптимизирует использование видеопамяти и определяет место хранения тех или иных данных, что позволяет по максимуму использовать доступные ресурсы. Кстати, HBCC может обеспечивать до 512 ТБ виртуального адресного пространства.

Стоит напомнить, что использование ОЗУ для нужд видеокарты − идея не новая, но AMD ее переосмыслила и сделала куда интересней.

Улучшенные возможности по выводу изображения и мультимедиа

AMD Vega 10 максимально хорошо подходит для современных развлечений, включая VR, благодаря поддержке всех актуальных стандартов вывода изображения на дисплей, превосходя по данному параметру решения AMD Polaris. Новый GPU обзавелся поддержкой стандарта DisplayPort 1.4 с HBR3, MST и HDR, а также HDMI 2.0 с возможностью вывода 4K @ 60 Гц с 12-битным HDR и кодированием 4:2:0. Для упомянутых выше видеовыходов присутствует поддержка стандарта защиты HDCP, а также технологий FreeSync и FreeSync2 для мониторов с HDR и низкими задержками.

ROG STRIX RX VEGA 64 OC Edition

Как и AMD Polaris, AMD Vega 10 поддерживает до шести одновременно подключенных дисплеев (4K при 60 Гц), но в новом чипе эту возможность расширили в сторону сверхвысоких разрешений, частот и форматов. В обычном формате поддерживается подключение до трех 8K-экранов при 30 Гц или одного 8K при 60 Гц. В 64-битном HDR-формате вывод изображения возможен вплоть до 5K при 60 Гц.

Естественно, AMD Vega 10 включает в себя самые последние процессоры кодирования и декодирования видео. Как и AMD Polaris, поддерживает декодирование видео форматов HEVC / H.265 с разрешением до 3840 x 2160 при 60 Гц, с 10-битным цветом для HDR-контента. Выделенное декодирование формата H.264 также поддерживается при разрешении до 4K и частоте 60 Гц. Для VP9 предусмотрен комбинированный метод декодирования совместно с CPU. Новый блок кодирования научился записывать видео в формате H.264 и 4K-разрешении при 60 Гц, тогда как AMD Polaris ограничивался частотой 30 Гц.

Практическое знакомство с AMD Radeon RX Vega 64

ROG STRIX RX VEGA 64 OC Edition

Знакомиться с AMD Radeon RX Vega 64 будем на примере оригинальной модели от ASUS – ROG STRIX RX VEGA 64 OC Edition (ROG-STRIX-RXVEGA64-O8G-GAMING). К ее преимуществам следует отнести полностью переработанную печатную плату, заводской разгон, фирменную систему охлаждения с подсветкой, расширенный набор интерфейсов и многое другое. Обо всем этом поговорим немного позже, а пока предлагаем взглянуть на детальные характеристики новинки.

Спецификация

Модель

ROG STRIX RX VEGA 64 OC Edition (ROG-STRIX-RXVEGA64-O8G-GAMING)

GPU

AMD Vega 10 XT

Микроархитектура

5-е поколение AMD GCN

Техпроцесс, нм

14 (FinFET)

Количество вычислительных блоков

64

Количество потоковых процессоров

4096

Базовая / динамическая частота GPU, МГц

1298 / 1590 МГц

Тип видеопамяти

HBM2

Объем, ГБ

8

Номинальная / эффективная частота памяти, МГц

945 / 1890

Ширина шины памяти, бит

2048

Пропускная способность памяти, ГБ/с

484

Внешние интерфейсы

1 x DVI-D
2 x HDMI 2.0b
2 x DisplayPort 1.4

Дополнительный разъем питания PCIe

2 x 8-контактных

Внутренний интерфейс

PCI Express 3.0 x16

Минимальная рекомендованная мощность блока питания, Вт

750

Размеры с официального сайта (согласно измерениям в нашей тестовой лаборатории), мм

298 x 134 x 52,5 (315 х 140)

Драйверы

Свежие драйверы можно скачать с сайта компании ASUS или сайта производителя GPU

Сайт производителя

ASUSTeK Computer Inc.

Упаковка и комплект поставки

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Видеокарта ROG STRIX RX VEGA 64 OC Edition поставляется в габаритной коробке из плотного картона. Упаковка оформлена в черно-красных тонах, а на передней части красуется изображение ускорителя, большая красочная надпись «STRIX», крупный логотип AMD Vega и привлекающее внимание название серии «Radeon RX Vega 64». На ее гранях можно заметить яркие вставки, хорошо иллюстрирующие основные преимущества новинки. В дополнение к этому присутствуют рекомендации производителя к блоку питания: минимум 750 Вт и желательно два 8-контактных разъема PCIe.

ROG STRIX RX VEGA 64 OC Edition

В комплекте с адаптером предлагается диск с драйверами и ПО, краткое руководство пользователя, переходник питания с двух 6-контактных на один 8-контактный коннектор PCIe и парочка фирменных многоразовых стяжек для укладки силовых кабелей.

Внешний вид

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Как и подобает решениям топового уровня, видеокарта ROG-STRIX-RXVEGA64-O8G-GAMING достаточно крупная и занимается больше двух слотов расширения. С визуальной точки зрения выглядит очень эстетично и полностью отвечает всем канонам современной линейки ROG STRIX: кулер на три вентилятора с графитовым кожухом и сложными геометрическими формами. Обратная сторона прикрыта металлической опорной пластиной с узором и вырезами под компоненты платы, а над графическим процессором присутствует дополнительная крестообразная прижимная пластина. На месте настраиваемая LED-подсветка.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

После демонтажа системы охлаждения можно детально рассмотреть строение печатной платы. Инженеры использовали собственный дизайн PCB. Но если на тыльной стороне все вполне привычно, то спереди как-то пустовато. В глаза бросается отсутствие привычных чипов GDDR5(X)-памяти.

ROG STRIX RX VEGA 64 OC Edition

Но это вполне логично, ведь во всех представителях линейки AMD Radeon RX Vega на одной подложке скомпонованы GPU и VRAM. Но при этом само расположение элементов на печатной плате вполне привычное: большой графический процессор ближе к центру, а в хвостовой части находятся силовые элементы подсистемы питания.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Последняя насчитывает целых 13 фаз (12 для GPU и 1 для памяти), что соответствует эталонному дизайну. В качестве ШИМ-контроллера выступает микросхема IR35217 производства International Rectifier. Поскольку контроллер 8-канальный, то на самом деле мы имеем шесть каналов с удвоенным количеством фаз. Ускоритель поддерживает функции мониторинга и управления питанием, за которые отвечает чип ITE 8915FN. Электронные компоненты соответствуют фирменной концепции Super Alloy Power II, а видеоускоритель собирается на полностью автоматизированной линии производства ASUS AUTO-Extreme Technology.

ROG STRIX RX VEGA 64 OC Edition

Помимо слота PCI Express 3.0 х16, для питания ROG STRIX RX VEGA 64 OC Edition используется два 8-контактных разъема PCIe. Суммарно может подаваться до 375 Вт мощности, чего должно хватить для работы карты во внештатном режиме. Напомним, что TDP эталонной AMD Radeon RX Vega 64 с воздушным охлаждением заявлен на уровне 295 Вт. Система охлаждения слегка препятствует подключению и отключению дополнительных проводов питания. Рядом находится пара светодиодов для индикации состояния питания (белый свет − если силовой кабель подключен, тогда как красный сигнализирует о его отсутствии) и площадка для мониторинга и изменения ключевых напряжений.

Кстати, совсем недавно AMD отказалась от давно всем известной технологии построения мультиграфических связок AMD CrossFire. Теперь ее принято называть просто режим «Multi-GPU» или «mGPU». Вполне естественно, что ROG STRIX RX VEGA 64 OC Edition поддерживает данный режим, причем не нужно никаких дополнительных мостиков, ведь для его реализации используется интерфейс PCI Express 3.0 x16.

ROG STRIX RX VEGA 64 OC Edition

В хвостовой части расположены два 4-контактных разъема для подключения корпусных вентиляторов (технология ASUS FanConnect II), скорость которых можно привязать к температуре графического или центрального процессора.

ROG STRIX RX VEGA 64 OC Edition

Набор внешних интерфейсов включает в себя:

  • 1 x DVI-D;
  • 2 x HDMI 2.0b;
  • 2 x DisplayPort 1.4.

Эталонная версия предполагает использование одного порта HDMI, но трех DisplayPort. Модифицированный набор видеоинтерфейсов компания ASUS называет VR-Friendly, поскольку два порта HDMI упростят подключение шлема виртуальной реальности.

ROG STRIX RX VEGA 64 OC Edition

Утилита GPU-Z отрапортовала, что «сердцем» тестовой модели выступает графический процессор AMD Vega 10 XT. Тестирование проводилось в режиме «Gaming», в котором базовая частота составляет 1298 МГц, а динамическая достигает 1590 МГц. Предельная тактовая частота GPU может подниматься до 1630 МГц. Напомним, что эталонные показатели составляют 1247 / 1546 МГц соответственно. В свою очередь 8 ГБ HBM2-памяти от компании Samsung работают на эффективной эталонной частоте 1890 МГц с пропускной способностью 484 ГБ/с при 2048-битной шине.

При желании в утилите ASUS GPU Tweak II можно активировать режимы «OC» и «Silent» или создать профили с собственными настройками.

ROG STRIX RX VEGA 64 OC Edition

Как уже упоминалось выше, ROG-STRIX-RXVEGA64-O8G-GAMING оборудована RGB-иллюминацией ASUS Aura Sync, как и все видеокарты линейки ROG STRIX. Она состоит из ряда светодиодов, расположенных вдоль (снизу и сбоку) кожуха системы охлаждения и большого логотипа Republic of Gamers на обратной стороне устройства. Пользователь может выбрать один из миллионов цветов и один из шести режимов работы. Если у вас имеются другие комплектующие и периферия с поддержкой ASUS Aura Sync, то все это добро можно заставить мигать в унисон для получения более значимого эффекта. Для примера можно взглянуть на корпус Deepcool Genome ROG Certified Edition. 

Система охлаждения 

ROG STRIX RX VEGA 64 OC Edition получила в свое распоряжение обновленную с недавних пор систему охлаждения, которая применяется для всех последних поколений видеокарт. Она состоит из массивного двухсекционного алюминиевого радиатора, пластины которого пронизаны шестью 6-мм медными тепловыми трубками с никелированным покрытием.

Примечательно, что главная часть радиатора стала толще на 40% в сравнении с ROG STRIX Radeon RX 480 GAMING OC, что позволило повысить площадь рассеивания. А благодаря отказу от прямого контакта тепловых трубок с графическим процессором в пользу дополнительной теплосъемной пластины, увеличивается общая эффективность использования конструкции. Естественно, все места контакта пропаяны для улучшения теплообмена. Для установки радиатора и создания максимальной прижимной силы используются специальные автоматы (технология ASUS MaxContact).

Большинство элементов подсистемы питания контактируют с основным радиатором через теплосменную пластину и термопрокладку. Для придания надлежащей жесткости и накрытия остальных фаз VRM используется большая толстая пластина, которая накрывает значительную часть текстолита.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Сверху все это добро закрывает пластиковый кожух с тремя 88-мм осевыми вентиляторами производства Power Logic с дизайном Wing-Blade. При этом производитель заявляет о защите от пыли при полном соответствии стандарту IP5X. А благодаря технологии 0dB кулер переходит в пассивный режим при низкой нагрузке на GPU.

ROG STRIX RX VEGA 64 OC Edition

В автоматическом режиме работы системы охлаждения, при максимальной нагрузке температура графического процессора достигала 78°С. Вентиляторы вращались на 63% от своей максимальной скорости, создавая слабый фоновый шум, ниже среднего уровня, который абсолютно не мешал. Большую часть времени GPU работает на частоте 1536 МГц, но случаются и подъемы до 1630 МГц. Для наглядного сравнения можете взглянуть на геймплейное видео на нашем YouTube-канале, где не так давно тестировалась референсная AMD Radeon RX Vega 64, которая под игровой нагрузкой прогревалась до 86°С при более низком диапазоне частот.

ROG STRIX RX VEGA 64 OC Edition

В режиме максимальной скорости вращения вентиляторов температура GPU опустилась до 64°С, что говорит о хорошем запасе прочности для оверклокерских экспериментов. Но при этом шум повысился до некомфортного уровня для постоянного использования.

ROG STRIX RX VEGA 64 OC Edition

При отсутствии нагрузки частоты работы графического ядра и памяти автоматически понижались, позволяя снизить энергопотребление и тепловыделение видеоускорителя в целом. В таком режиме температура GPU не превышала 50°С, а кулер переходил в пассивный режим. Вентиляторы запускались только после достижения температурой GPU отметки 54-55°С. Поэтому в моменты простоя видеокарта абсолютно бесшумная. Кстати, при частичной нагрузке может вращаться только один из трех пропеллеров, что позволяет минимизировать уровень шума.

Подытоживая все вышесказанное, отметим, что система охлаждения модели ROG-STRIX-RXVEGA64-O8G-GAMING достаточно хорошо справляется со своими прямыми задачами, обеспечивая отличные температурные показатели и акустический комфорт при полностью автоматической работе. Никаких посторонних звуков в виде раздражающего писка дросселей замечено не было. 

Читать обзор полностью >>>

AMD Radeon RX Vega 64 превзошла NVIDIA GeForce GTX 1080 Ti в игре Forza 7 в режиме DX12

Наши коллеги из немецкого IT-портала ComputerBase.de провели сравнительное тестирование видеокарт NVIDIA GeForce GTX 1080 Ti и AMD Radeon RX Vega 64 в игре Forza 7 в режиме DirectX 12. Тестовый стенд включал в себя процессор Intel Core i7-6850K (6 / 12 х 3,6 – 3,8 ГГц), разогнанный до 4,3 ГГц, и 16 ГБ оперативной памяти DDR4-3000 в четырехканальном режиме. Также использовались самые свежие драйверы – NVIDIA GeForce 385.69 и AMD Radeon Software Crimson ReLive Edition 17.9.3.

AMD Radeon RX Vega 64

В самом популярном на данный момент разрешении 1920 х 1080 видеокарта AMD Radeon RX Vega 64 превзошла своего конкурента на 23% со средним показателем 136,9 против 111,2 FPS. В разрешении 2560 x 1440 NVIDIA GeForce GTX 1080 Ti отстает уже с меньшим разрывом – 115,0 против 102,8 кадров/с (10,6%).

AMD Radeon RX Vega 64

Однако в 4K (3840 x 2160) AMD RX Vega 64 уже сдает позиции, и «зеленая» карта выходит вперед – средний ее показатель FPS составил 90,8 кадров/с против 83,7.

AMD Radeon RX Vega 64

Получив такие результаты, редакция ComputerBase.de связалась с NVIDIA, чтобы уточнить, не допустили ли они где-то ошибку во время тестирования. В свою очередь те подтвердили правильность результатов, так что видеокарта AMD RX Vega 64 действительно может похвастать отличной производительностью в данной игре при переходе к DirectX 12.

eteknix.com
Юрий Коваль

Читать новость полностью >>>

Cравнение поколений игровой мобильной графики NVIDIA GeForce GTX 960M 2GB vs NVIDIA GeForce GTX 1050 Ti

Мы стараемся радовать вас сравнениями не только десктопных, но и мобильных видеокарт. В данном случае сопоставим именно мобильных представителей серий NVIDIA Maxwell и Pascal, чтобы ответить на вопрос: «Как широко шагнул прогресс при переходе к новому поколению?»

geforce gtx 960m vs geforce gtx 1050 ti

Главная проблема для нас при сравнении мобильной графики заключается в сложности достижения чистоты эксперимента, поскольку используются разные ноутбуки с разными аппаратными платформами. Просто у нас нет собственного склада, где можно было бы выбрать лэптопы с максимально похожими комплектующими. Поэтому сразу же просим не судить строго данное сравнение, а воспринимать его как комплексную оценку двух вычислительных систем в современных реалиях.

Оба ноутбука были предоставлены на тест компанией ASUS. Уходящее поколение представлено моделью ZenBook UX510UW. В ее основе находится 15-ваттный 2-ядерный, 4-поточный процессор Intel Core i5-7200U с динамической частотой до 3,1 ГГц. Объем ОЗУ стандарта DDR4-2133 МГц составляет 12 ГБ. Она работает в двухканальном режиме. А за обработку графики отвечает мобильная видеокарта NVIDIA GeForce GTX 960M на базе GPU GM107 с поддержкой 640 CUDA-ядер. Объем GDDR5-памяти составляет 2 ГБ, а внутренний интерфейс использует лишь 4 линии PCIe.

Противостоит ей новый ZenBook Pro UX550VE, который построен на базе 45-ваттного 4-ядерного, 8-поточного CPU Intel Core i7-7700HQ. Его динамическая скорость может достигать 3,8 ГГц. В паре с ним функционирует 16 ГБ оперативной памяти DDR4-2400 в двухканальном режиме и видеокарта GTX 1050 Ti с 4 ГБ собственной памяти. При этом она использует уже не 4, а 8 линий PCIe, хотя у десктопного варианта задействованы все 16.

С тестовыми системами познакомились, поэтому можем смело приступать к изучению уровня их производительности в играх при разрешении Full HD. Да, запись производилась внешней системой, т.е. без потери производительности.

geforce gtx 960m vs geforce gtx 1050 ti

geforce gtx 960m vs geforce gtx 1050 ti

Начнем с Rise of the Tomb Raider в режиме DirectX 12 при низком пресете качества. Кстати, тут и далее настройки подбирались больше под GTX 960М, чтобы тесты динамичнее были. С первых кадров заметно существенное преимущество более мощного ноутбука по среднему показателю, которое осталось неизменным во всех трех сценах. В итоге получаем 61 против 41 кадра/с в пользу GTX 1050 Ti. А вот по минимальному неожиданно вперед вырвалась GTX 960M: 24 против 20 FPS.

geforce gtx 960m vs geforce gtx 1050 ti

geforce gtx 960m vs geforce gtx 1050 ti

В Far Cry Primal при высоком профиле настроек графики куда комфортнее будет играть на GTX 1050 Ti из-за гораздо более высокого фреймрейта. К тому же бенчмарк требует более 3 ГБ видеопамяти, поэтому лэптоп с GTX 960M использует на 1 ГБ больше ОЗУ. Финальный итог: 45 против 28 FPS по средней частоте и 42 против 24 по минимальной. Разница превышает 60%.

geforce gtx 960m vs geforce gtx 1050 ti

geforce gtx 960m vs geforce gtx 1050 ti

Уже при среднем пресете Ghost Recon Wildlands превращается в слайд-шоу на менее мощном ноутбуке, ведь средний показатель составляет 21 кадр/с, а минимальный просаживается до 18. В свою очередь система с GTX 1050 Ti смогла обеспечить в среднем 39 кадров/с с просадками до 31. Разрыв превышает 75%. 

Тэги: nvidia   nvidia geforce   geforce gtx 960   geforce gtx 1050 ti   pascal   intel core   ddr4   gm107   full hd   directx 12   maxwell   cuda   asus   
Читать обзор полностью >>>

Сравнение DDR4-2400 vs DDR4-3200 на Ryzen 7 1700X: каково будет ускорение?

Еще в момент анонса линейки AMD Ryzen звучали официальные призывы использовать новинки в паре с более быстрой памятью, но изначально был ряд ограничений и нюансов, которые удалось побороть лишь с выходом микрокода AGESA 1.0.0.6 и BIOS’ов на его основе.

AMD Ryzen 7 1700X

AMD Ryzen 7 1700X

Начнем сравнение с почти самого производительного AMD Ryzen 7 1700X. Во время первых тестов системы на его основе мы использовали память в режиме DDR4-2400, поскольку имеющиеся модули не удалось запустить на более высокой частоте, да и на 2400 МГц они работали только в определенных слотах. Теперь же проверим, какого прироста стоит ожидать при переходе к DDR4-3200, ведь так ускоряется еще и обмен данными между модулями процессора, поскольку частота шины Infinity Fabric равна скорости оперативной памяти.

AMD Ryzen 7 1700X

AMD Ryzen 7 1700X

Кратко напомним, что тестовая конфигурация также включает в себя материнскую плату MSI X370 SLI PLUS, водяное охлаждение Be quiet! Silent Loop, пару 8-гигабайтных модулей DDR4-3400 Patriot Viper 4 и видеокарту Inno3D iChill GeForce GTX 1080 X3.

AMD Ryzen 7 1700X

Поднять скорость работы ОЗУ с 2400 до 3200 МГц удалось без изменения основных таймингов, которые остались на уровне 16-18-18-36. Для начала давайте оценим, какой прирост мы получим в синтетических бенчмарках.

AMD Ryzen 7 1700X

AIDA64 говорит, что скорость чтения, записи и копирования при работе с ОЗУ поднимется на 25-38%, а задержка доступа к данным уменьшится на 16%: с 93 до 78 нс.

AMD Ryzen 7 1700X

Зато заметного прироста от шифрования данных с помощью 256-битного AES-алгоритма или алгоритма хэширования информации ждать не приходится: прирост скорости составил менее 1%.

AMD Ryzen 7 1700X

Бенчмарк WinRAR позитивно оценивает изменения в работе ОЗУ и повышает свою производительность на 14%.

AMD Ryzen 7 1700X

А вот на скорости рендеренга сцены в бенчмарке Corona повышение частоты памяти особо не отразилось: время уменьшилось со 143 до 136 секунд, то есть на 5%.

AMD Ryzen 7 1700X

Не вселяют большого энтузиазма и результаты в комплексном тесте RealBench: прирост показателей составил от 1 до 5%.

AMD Ryzen 7 1700X

И, наконец, в CineBench R15 режим OpenGL показал 17%-ый рост результатов, а количество набранных баллов в тесте CPU возросло лишь на 1,5%.

А теперь давайте посмотрим, чего можно ожидать от популярных игр в разрешении Full HD.

AMD Ryzen 7 1700X

AMD Ryzen 7 1700X

В Rise of the Tomb Raider при высоком пресете графики в режиме DirectX 12 можно заметить более высокую загрузку видеокарты в сценах «Сирия» и «Геотермальная долина». На выходе мы получили 7%-ый прирост по среднему показателю и 11%-ый по минимальному в пользу системы с более быстрой памятью. 

AMD Ryzen 7 1700X

AMD Ryzen 7 1700X

Far Cry Primal при ультра пресете также отдает предпочтение конфигурации с ОЗУ DDR4-3200: по среднему фреймрейту имеем 87 FPS против 79, что эквивалентно 10%, а по минимальному – 61 против 56 или 9% бонуса. 

Тэги: ddr4   amd   amd ryzen   patriot   directx 12   full hd   
Читать обзор полностью >>>

Сравнение AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 и AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

Не так давно у нас было сравнение 4-гигабайтной RX 560 с GTX 1050 и RX 460. Но в комментариях вы просили добавить еще и 2-гигабайтную RX 560, да и вообще, исходя из цены, надо было сравнивать с NVIDIA GeForce 1050 Ti. По возможности мы всегда стараемся идти на встречу вашим пожеланиям. Так что вот новое сравнение.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

Лагерь AMD представили 4-гигабайтная ROG STRIX Radeon RX 560 GAMING OC и 2-гигабайтная ASUS Radeon RX 560 OC. Обе характеризуются 2-вентиляторной системой охлаждения и заводским разгоном графического процессора. Правда, у первой модели он достигает 1326 МГц, а у второй – всего 1210 МГц. Более того, отсутствие дополнительного разъема питания у 2-гигабайтной RX 560 повлекло за собой нестабильность частоты GPU при нагрузке.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

Защищать лагерь NVIDIA будут модели ASUS Expedition GeForce GTX 1050 и Colorful iGame GTX 1050 Ti U-4G. Первая характеризуется компактными размерами и эталонной частотной формулой, а вторая может похвастать заводским разгоном графического процессора с 1290 / 1392 МГц до 1380 / 1493 МГц, когда активирована соответствующая кнопка.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

Поскольку мы не хотели, чтобы процессор ограничивал производительность графических адаптеров, то тестирование проходило на нашем топовом стенде с разогнанным до 4,5 ГГц Intel Core i7-6700K. А вот частота 16 ГБ оперативной DDR4-памяти была умышлено снижена с 3200 до 2400 МГц, вдруг это заметнее разделит 2 и 4-гигабайтные карты.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

С участниками разобрались, переходим к самой тестовой сессии в разрешении Full HD.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

For Honor при высоком пресете требует почти 2 ГБ видеопамяти, поэтому больший видеобуфер особо не повлиял на результаты. Также обратите внимание, что частоты графических процессоров видеокарт AMD ниже заявленных, а у NVIDIA – выше. В итоге именно они вырвались в лидеры по среднему показателю: 69 FPS у GTX 1050 Ti и 58 у GTX 1050. Старшая RX 560 отстала от первого места на 21%, а младшая оказалась позади 2-гигабайтного конкурента на 13%. По минимальной скорости результаты у всех почти одинаковые.

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

AMD Radeon RX 560 2GB vs NVIDIA GeForce GTX 1050 vs AMD Radeon RX 560 4GB vs NVIDIA GeForce GTX 1050 Ti

Очень высокий пресет графики в Far Cry Primal требует более 2 ГБ видеопамяти, поэтому младшие модели активнее обращались к ОЗУ. При этом разница по средней и минимальной скорости между моделями AMD составила всего 1 FPS или около 3%, а у NVIDIA – уже 7 FPS или 18-20%. Кстати, представители «зеленого» лагеря опять заняли первое и второе место. 

Читать обзор полностью >>>

GeForce GT 1030 vs Radeon RX 550 2GB: лучшей бюджетной игровой видеокартой становится...

В связи с существенным ростом цен на игровые видеокарты многие нетребовательные геймеры пристально следят за рынком моделей начального уровня, где между собой конкурируют AMD Radeon RX 550 и NVIDIA GeForce GT 1030. Поэтому мы решили сопоставить их в прямом тестировании, чтобы определить лучшего кандидата на покупку.

GeForce GT 1030 vs Radeon RX 550

Для начала давайте познакомимся с претендентами. В зеленом углу находится модель ASUS Phoenix GeForce GT 1030 OC с активной системой охлаждения и 2 ГБ GDDR5-памяти. Частотная формула ее графического процессора улучшена в заводских условиях с номинальных 1227 / 1468 МГц до 1253 / 1506 МГц.

GeForce GT 1030 vs Radeon RX 550

В красном углу ей противостоит модель ASUS Radeon RX 550 2GB с одновентиляторным кулером и эталонными тактовыми частотами GPU и 2 ГБ GDDR5-памяти. Обратите внимание, что GT 1030 использует 64-битную шину памяти, что обеспечивает пропускную способность на уровне 48 ГБ/с. А у RX 550 она 128-битная, поэтому пропускная способность достигает 112 ГБ/с.

GeForce GT 1030 vs Radeon RX 550

Для сравнения видеокарт мы использовали наш топовый стенд на базе разогнанного процессора Intel Core i7-6700K, чтобы остальные компоненты не стали узким местом при тестировании. А для записи геймплея был собран каскад устройств видеозахвата от AverMedia, который позволил сохранить видео без потери производительности, что очень важно при рассмотрении бюджетных видеокарт.

GeForce GT 1030 vs Radeon RX 550

Тестовый стенд:

  • Intel Core i7-6700K (OC 4.5 GHz)
  • Thermaltake Water 3.0 Riing RGB 240
  • ASUS MAXIMUS VIII RANGER
  • 2x8 GB DDR4-3200 G.SKILL Trident Z
  • SSHD Seagate ST2000DX001 2TB
  • HDD WD WD1000DHTZ 1TB
  • Seasonic Snow Silent 1050 1050W
  • Thermaltake Core P3
  • ASUS VH228H
  • AVerMedia Live Gamer HD
  • AVerMedia Live Gamer Portable 2

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Начнем с DiRT Rally при среднем пресете качества в разрешении Full HD. Уже с первых кадров хорошо видно, что AMD Radeon RX 550 заметно превосходит своего оппонента. Финальный результат: 95 против 80 FPS по среднему показателю и 84 против 66 по минимальному. Перевес составляет 19-27%.

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Rise of the Tomb Raider в режиме DirectX 12 при Full HD-разрешении и низком пресете графики также отдает предпочтение AMD Radeon RX 550. При этом потребление видеопамяти у NVIDIA GeForce GT 1030 ориентировочно на 500 МБ выше, хотя ОЗУ им требуется приблизительно одинаково. По среднему показателю перевес карты от AMD составил почти 9 FPS или около 22%, по минимальному – 7 FPS или 30%.

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Для Deus Ex: Mankind Divided также был использован режим DirectX 12 и низкий профиль графики, но уже при HD-разрешении. Система с графическим адаптером от AMD использовала меньше видеопамяти, но больше ОЗУ, чем ее конкурент. В итоге GT 1030 проиграла по среднему показателю: 63 против 51 кадров/с, зато выиграла по минимальному: 39 против 21 FPS.

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Бенчмарк Far Cry Primal традиционно более благосклонен к видеокартам NVIDIA. При этом в пресете Normal с разрешением 1080p он почему-то потреблял на 700 МБ больше видеопамяти и на 1 ГБ больше ОЗУ именно в системе с GT 1030. Однако этот раунд остался за RX 550: 35 против 30 по среднему и 33 против 28 FPS по минимальному фреймрейту. Разрыв составил 17-18%.

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Тест For Honor при среднем пресете в Full HD оказался довольно тяжелым для обеих систем. В итоге GT 1030 не хватило самой малости, чтобы догнать оппонента: 33 против 35 кадров/с по среднему показателю и 26 против 28 по минимальному. То есть она отстала на 6-7%.

GeForce GT 1030 vs Radeon RX 550

GeForce GT 1030 vs Radeon RX 550

Далее на очереди не менее сложный Ghost Recon Wildlands в разрешении 1080p при низком пресете качества. Однозначного победителя бенчмарк не определил. По среднему показателю RX 550 вырвался вперед почти на 12%, выдав 39 FPS против 35. Однако по минимальному уже GT 1030 оказывается впереди на 13% с результатом 25 кадров/с против 22. 

Тэги: full hd   amd   radeon rx 550   geforce gt 1030   nvidia   asus   gddr5   directx 12   nvidia geforce   amd polaris   intel core   
Читать обзор полностью >>>

Первые результаты тестирования процессора AMD Ryzen Threadripper 1950X

Популярному YouTube-каналу LinusTechTips удалось заполучить в свое распоряжение готовый игровой компьютер Alienware Area-51, который построен на базе флагманского 16-ядерного процессора AMD Ryzen Threadripper 1950X. И его специалисты поспешили протестировать возможности новинки, сопоставив полученные результаты с другими актуальными десктопными платформами: Socket LGA1151 (Intel Core i7-7700K + Intel Z270), Socket AM4 (AMD Ryzen 7 1800X + AMD X370) и Socket LGA2066 (Intel Core i9-7900X + Intel X299). Все процессоры работали при рекомендованных тактовых частотах. В паре с ними функционировало 32 ГБ DDR4-памяти и видеокарта серии NVIDIA GeForce GTX 1080 Ti Founders Edition.

Поскольку все еще действует эмбарго на публикацию игровых результатов процессоров серии AMD Ryzen Threadripper, то можно увидеть лишь показатели Rise of the Tomb Raider: в режиме DirectX 11 платформы AMD практически не уступают Intel, а после перехода к DirectX 12 их отставание не превышает 7,5%.

В 3DMark лучше всего проявила себя конфигурация на базе 10-ядерного процессора Intel Core i9-7900X, а ее преследователями выступили обе связки на основе CPU от AMD. А вот в Cinebench R15 и Blender 2.78c в лидеры вышла система Alienware Area-51.

https://videocardz.com
Сергей Будиловский

Читать новость полностью >>>

directx 12

Выбрать из: Обзоров Новостей
Только в разделе
Искать в найденом тег:

Поиск по сайту
Почтовая рассылка

top10

vote

Голосование