Обзор и тестирование бесшумной видеокарты ASUS GeForce GT 610 1 ГБ DDR3
02-06-2012
При тестировании использовался Стенд для тестирования Видеокарт №3
Процессор | Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц |
Материнская плата | MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX) |
Кулер | Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ) |
Оперативная память | 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX) |
Жесткие диски | 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB) |
Блок питания | Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ) |
Корпус | Antec LanВoy Air Yellow (MidiTower, Transformer) |
Монитор | ASUS VG236H (Full HD, 1920x1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit |
Операционная система | Microsoft Windows 7 64-bit |
За счет оптимизации драйверов, в некоторых игровых приложениях и популярных бенчмарках видеокарта ASUS GeForce GT 610 продемонстрировала немного более высокие результаты в сравнении с продуктами на базе NVIDIA GeForce GT 520, которые также основаны графическом чипе GF119, однако в целом уровень производительности этих решений идентичный. «Новинка» не может обеспечить комфортную частоту смены кадров в современных играх даже при средних настройках качества изображения и поэтому вряд ли найдет свое место в компьютере экономного любителя компьютерных баталий. В то же время для декодирования видео и запуска простых игр (что является первостепенными задачами для графических адаптеров начального уровня) производительности видеокарты ASUS GeForce GT 610 будет вполне достаточно, а низкий уровень энергопотребления позволит не задумываться о совместимости с имеющимся блоком питания.
Разгон
В процессе нашего знакомства с особенностями безвентиляторной системы охлаждения видеокарты ASUS GeForce GT 610, температура графического ядра даже при максимальной нагрузке была далека от критической. Это свидетельствует о том, что применяемый кулер не только справляется с поставленной перед ним задачей, но и имеет некоторый запас прочности, которым мы воспользовались в процессе ручного разгона. По традиции, чтобы не допустить перегрева какого-либо элемента печатной платы, лишенного охлаждения, мы проводили наши эксперименты с оверклокингом только при установленном в соседний слот расширения дополнительном кулере VIZO Propeller.
К сожалению, фирменная утилита ASUS GPU Tweak не позволила осуществить разгон графического ускорителя. При ручном поднятии частот с помощью этой программы, попытка применить новые параметры неизбежно приводила к возврату к стандартным значениям. Однако с помощью утилиты MSI Afterburner 2.2.0 нам удалось разогнать графическое ядро видеокарты до частоты 1 ГГц (прирост 23%), а память — до эффективной частоты 1360 МГц (прирост 13%), что для бюджетного решения является весьма неплохим результатом. В таблице ниже вы можете оценить прирост производительности, который мы получили после ручного разгона.
Тестовый пакет |
Стандартные частоты |
Разогнанная видеокарта |
Прирост производительности, % | |
Futuremark 3DMark Vantage |
PerformanceScore |
2432 |
2891 |
18,87 |
GPU Score |
1850 |
2203 |
19,08 | |
Futuremark 3DMark 11 |
PerformanceScore |
668 |
794 |
18,86 |
CrysisWarhead, DirectX 10, MaximumQuality, fps |
1680x1050 |
7,19 |
8,30 |
15,44 |
1920x1080 |
6,46 |
7,45 |
15,33 | |
CrysisWarhead, DirectX 10, MaximumQuality, AA4x/AF16x, fps |
1680x1050 |
6,46 |
7,46 |
15,48 |
1920x1080 |
5,76 |
6,66 |
15,63 | |
FarCry 2, DirectX 10, UltraQuality, NO AA/AF, fps |
1680x1050 |
15,49 |
18,27 |
17,95 |
1920x1080 |
14,12 |
16,70 |
18,27 | |
FarCry 2, DirectX 10, UltraQuality, fps |
1680x1050 |
9,61 |
11,12 |
15,71 |
1920x1080 |
8,63 |
10,04 |
16,34 | |
Aliensvs. Predator DX11 Benchmark, MaximumQuality, NO AA/AF, fps |
1680x1050 |
6,9 |
8,0 |
15,94 |
1920x1080 |
6,9 |
7,3 |
5,80 | |
Aliensvs. Predator DX11 Benchmark, MaximumQuality, AA4x/AF16x, fps |
1680x1050 |
6,5 |
7,5 |
15,38 |
1920x1080 |
6,0 |
6,9 |
15,00 | |
ColinMcRae: DiRT 2, DirectX 11, MaximumQuality, NO AA/AF, fps |
1680x1050 |
17,16 |
20,18 |
17,60 |
1920x1080 |
15,69 |
18,21 |
16,06 | |
ColinMcRae: DiRT 2, DirectX 10, MaximumQuality, AA4x/AF16x, fps |
1680x1050 |
16,10 |
18,84 |
17,02 |
Metro 2033 Benchmark, DirectX 11, MaximumQuality, NO AA / AF4x, fps |
1680x1050 |
5,0 |
6,0 |
20,00 |
1920x1080 |
4,5 |
5,5 |
22,22 | |
Metro 2033 Benchmark, DirectX 11, MaximumQuality, AA4x/AF16x, fps |
1680x1050 |
4,0 |
5,0 |
25,00 |
1920x1080 |
4,0 |
4,0 |
0,00 |
В среднем после ручного поднятия частот видеокарты ASUS GT610-SL-1GD3-L, уровень её производительности вырос на 16%, что является хорошим результатом для бюджетного решения. Впрочем, даже, несмотря на ручной разгон, игровое применение продуктов на базе GeForce GT 610 / GT 520 возможно только в простых или устаревших играх при невысоких настройках качества изображения.
Выводы
Несмотря на то, что графический процессор NVIDIA GeForce GT 610, особенности которого мы изучили на примере видеокарты ASUS GeForce GT 610 (ASUS GT610-SL-1GD3-L), не предлагает никаких нововведений в сравнении с low-end продуктами предыдущих поколений на базе GPU серий GeForce GT 400/500 и, по сути, является «переименованным» GeForce GT 520 (GF119). Несмотря на это, на наш взгляд, в своем сегменте данное решение остается актуальным и сегодня, оно способно занять место там, где по каким-то причинам нет возможности использовать новые процессоры со встроенным видеоядром. Базовая функциональность и минимальный уровень производительности в современных игровых приложениях нельзя назвать серьезными недостатками рассмотренного графического ускорителя, ввиду того, что его основными задачами является декодирование видео, а также вывод 2D изображения на монитор, проектор или LCD-панель. Стоимость ASUS GeForce GT 610 (GT610-SL-1GD3-L) на момент написания обзора составляет в среднем $45, что несколько выше в сравнении с аналогичными продуктами. Тем не менее, эта переплата выглядит вполне оправданной, принимая во внимание использование полностью пассивной системы охлаждения, качественной элементной базы, наличие в комплекте поставки двух низкопрофильных заглушек, а также 3-летний гарантийный срок.
Достоинства:
-
Поддержка Microsoft DirectX 11, OpenGL 4.2, NVIDIA CUDA и наличие аппаратного декодера видео высокого разрешения;
-
Полностью бесшумная система охлаждения, обладающая достойной эффективностью;
-
Низкопрофильное исполнение и наличие низкопрофильных заглушек в комплекте;
-
Применение качественной элементной базы;
-
Низкое энергопотребление;
-
Удобный набор интерфейсов для вывода изображения.
Недостатки:
-
Крайне низкая производительность в современных играх;
-
Система охлаждения занимает два слота расширения;
-
Применение замедленной видеопамяти стандарта DDR3;
-
Более высокая стоимость в сравнении с аналогичными продуктами.
Автор: Михаил Шульга
Выражаем благодарность украинскому представительству компании ASUS за предоставленную для тестирования видеокарту.
Выражаем благодарность компаниям Antec, ASUS, Cooler Master, Intel, Kingston, MSI и SeaSonic за предоставленное для тестового стенда оборудование.
Опубликовано : 02-06-2012
Подписаться на наши каналы | |||||