Компьютерные новости
Все разделы
Оптимизирована видеокарта GIGABYTE GV-N520TC-1GI
Компания GIGABYTE представила версию графического адаптера NVIDIA GeForce GT 520, который получил название GV-N520TC-1GI. В отличие от некоторых производителей, которые пошли путем снижения тактовых частот работы, инженеры компании GIGABYTE наоборот – повысили их. Уровень оптимизации составляет лишь 2,5%, однако желающие попрактиковаться в процедуре «оверклокинга» модели GIGABYTE GV-N520TC-1GI могут воспользоваться фирменной утилитой Easy Boost. Она позволяет не только поднять тактовые частоты работы видеокарты, но и обеспечивает процедуру резервного копирования BIOS и его перезапись.
Видеокарта GIGABYTE GV-N520TC-1GI обладает микросхемами памяти стандарта DDR3 общим объемом 512 МБ. Дополнительно новинка поддерживает фирменную технологию TurboСache, которая позволяет ей автоматически использовать еще 512 МБ из системной памяти на собственные нужды. Таким образом, общий объем доступной видеопамяти составляет 1 ГБ.
Активная однослотовая система охлаждения графического адаптера GIGABYTE GV-N520TC-1GI по своему дизайну напоминает эталонное решение и состоит из базы, радиатора и компактного вентилятора.
Набор внешних интерфейсов модели GIGABYTE GV-N520TC-1GI соответствует стандартному, но отметим, что порт HDMI использует золотое покрытие. Это гарантирует оптимальное качество передачи сигнала с помощью данного интерфейса.
Сравнительная таблица технической спецификации новой видеокарты GIGABYTE GV-N520TC-1GI с эталонным аналогом:
Модель |
GIGABYTE GV-N520TC-1GI |
NVIDIA GeForce GT 520 | |
Графический процессор |
Тип |
NVIDIA GF119 | |
Тактовая частота, МГц |
830 |
810 | |
Унифицированные шейдерные процессоры |
Количество |
48 | |
Тактовая частота, МГц |
1660 |
1620 | |
Видеопамять |
Тип |
DDR3 | |
Объем, МБ |
512 + 512 (системной) |
1024 | |
Эффективная тактовая частота, МГц |
1800 | ||
Разрядность шины, бит |
64 | ||
Внешние интерфейсы |
1 x DVI | ||
Поддерживаемые инструкции и технологии |
DirectX 11, Shader Model 5.0, OpenGL 4.1, Blu-ray 3D, NVIDIA 3D Vision |