Поиск по сайту

up
::>Видеокарты >2008 > ASUS ENGTX280/HTDP/1G

Обзор новой топовой видеокарты ASUS GeForce GTX 280 c 1 ГБ видеопамяти

20-07-2008

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

Предыстория

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» - конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты - неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

GeForce GTX 280

Технические подробности

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

  • кодовое имя чипа GT200;
  • технология 65 нм;
  • 1,4 миллиарда (!) транзисторов;
  • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
  • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
  • частота ядра 602 МГц (GeForce GTX 280);
  • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
  • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
  • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
  • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
  • запись результатов до 8 буферов кадра одновременно (MRT);
  • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

  • частота ядра 602 МГц;
  • частота универсальных процессоров 1296 МГц;
  • количество универсальных процессоров 240;
  • количество текстурных блоков – 80, блоков блендинга — 32;
  • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
  • тип памяти GDDR3;
  • объем памяти 1024 МБ;
  • пропускная способность памяти 141,7 ГБ/с;
  • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
  • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
  • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • двойной SLI разъем;
  • шина PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (опционально);
  • энергопотребление до 236 Вт;
  • двухслотовое исполнение;
  • изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

  • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
  • В 2,5 раза увеличено число одновременно исполняемых потоков.
  • Вдвое увеличена максимальная длина сложного шейдерного кода.
  • Вдвое увеличена точность расчетов с плавающей запятой.
  • Намного быстрее исполняются геометрические расчеты.
  • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
  • Увеличена скорость доступа к буферу памяти.
  • Улучшены внутренние связи чипа между различными блоками.
  • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
  • Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

GeForce GTX 280

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

GeForce GTX 280

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

GeForce GTX 280

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

NVIDIA PhysX

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

  • режим простоя или 2D (около 25 ватт);
  • режим просмотра HD/DVD видео (около 35 ватт);
  • полноценный 3D режим (до 236 ватт);
  • режим HybridPower (около 0 ватт);

Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280

ASUS ENGTX280/HTDP/1G

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Производитель

ASUS

Название

ENGTX280/HTDP/1G/A

Графическое ядро

NVIDIA GeForce GTX 280 (G200-300-A2)

Конвейера

240 унифицированных потоковых

Поддерживаемые API

DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1

Частота ядра (шейдерного домена), МГц

602 (1296)

Объем (тип) памяти, МБ

1024 (GDDR3)

Частота (эффективная) памяти, МГц

1107 (2214)

Шина памяти

512-разрядная

Стандарт шины

PCI Express 2.0 x16

Максимальное разрешение

До 2560 x 1600 в режиме Dual-Link DVI
До 2048 х 1536 при 85 Гц по аналоговому VGA
До 1080i через HDTV-Out

Выходы

2x DVI-I (2x VGA через переходники)
TV-Out (HDTV, S-Video и Composite)

Поддержка HDCP
Декодирование HD-видео

Есть
H.264, VC-1, MPEG2 и WMV9

Драйверы

Свежие драйверы можно скачать с:
- сайта поддержки;
- сайта производителя GPU.

Сайт производителя

http://www.asus.com/

Все цены на ASUS ENGTX280/HTDP/1G

ASUS ENGTX280/HTDP/1G

ASUS ENGTX280/HTDP/1G

Поставляется видеокарта в достаточно габаритной двойной картонной коробке. Но, в отличие от упаковки предыдущих топовых ускорителей, эта чуть меньше по размерам и лишена пластиковой ручки, видимо ASUS начала экономить картон.

ASUS ENGTX280/HTDP/1G

Но одна из боковых сторон упаковки все же раскрывается в виде книжки, рассказывая покупателю об экстремальных возможностях графического ускорителя и фирменных технологий.

ASUS ENGTX280/HTDP/1G

На обратной стороне упаковки, кроме перечисления общих возможностей видеокарты и фирменного программного обеспечения, заботливо указана информация о минимальных требованиях к система, в которую будет установлена ASUS ENGTX280/HTDP/1G/A. Наиболее интересной и критичной частью является рекомендация использовать минимум 550 Вт блок питания, который способен выдать до 40 А по линии 12V. Также БП должен обеспечить необходимое число выходов питания, к которым и будут подключаться переходники питания.

ASUS ENGTX280/HTDP/1G

Рядом указана и верная схема подачи питания на видеокарту. Обращаем внимания, что для 8-контактного разъема используется переходник с двух 6-контактных PCI Express, а не с пары периферийных, как это можно было увидеть ранее при установке ускорителей AMD/ATI. Учитывая энергопотребление GeForce GTX 280, к питанию придется подойти более тщательно.

Внутри красочной и информативной обложки, т.е. внешней коробки, находится полностью черная внутренняя, которая в свою очередь поделена на еще несколько отдельных боксов и ниш, вмещающих всю комплектацию.

ASUS ENGTX280/HTDP/1G

Комплект поставки является более чем достаточным для полноценного использования ускорителя и помимо самого видеоадаптера включает в себя:

  • два диска с драйверами, утилитами и электронной версией руководства пользователя;
  • бумажное руководство по быстрой установке видеокарты;
  • фирменный «кожаный» коврик для мыши;
  • фирменную папку для дисков;

ASUS ENGTX280/HTDP/1G

  • переходник с 2-x Molex (питания периферийных устройств) на 6-pin питание PCI-Express;
  • переходник с 2-х 6-контактных PCI Express на 8-контактный разъем питания;
  • удлинитель 8-контактного разъема питания;
  • переходник с 8-контактного разъема на 6-контактный PCI Express;
  • переходник c S-Video TV-Out на покомпонентный HDTV-Out;
  • переходник с DVI на VGA.

ASUS ENGTX280/HTDP/1G

Видеокарта на GeForce GTX 280 имеет такие же габариты, как ускорители на NVIDIA GeForce 9800 GX2, а с NVIDIA GeForce 9800 GTX она даже сходна внешне, при взгляде на фронтальную часть, которая полностью скрыта под «примелькавшейся» системой охлаждения. В общем, разработкой всех этих ускорителей и их кулеров занимались примерно одни и те же инженеры, поэтому внешнее сходство не удивительно.

Сразу же отметим, что совершенно не важно кто является конечным продавцом ускорителя, выпуском топовых видеокарт занимается непосредственно сама NVIDIA на производственных мощностях партнеров. Конечные реализаторы занимаются только упаковкой готовых ускорителей и вправе рассчитывать только на возможность прошить свой фирменный BIOS, немного разогнать видеокарту или заменить кулер на альтернативный.

ASUS ENGTX280/HTDP/1G

Обратная сторона видеокарты теперь скрыта за металлической пластиной, которая, как выяснилось в процессе разборки, играет роль радиатора для чипов памяти, располагающихся теперь с обеих сторон печатной платы.

ASUS ENGTX280/HTDP/1G

Сверху видеокарты, почти у самого края, находятся разъемы подключения дополнительного питания. Имея энергопотребление до 236 Вт, ускорителю необходимо надежное питания, которое обеспечивается одним 6-контактным разъемом PCI Express и одним 8-контактным, как и на двухчиповом GeForce 9800 GX2.

Рядом с разъемами питания под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании выхода HDMI.

ASUS ENGTX280/HTDP/1G

С другой стороны тоже под заглушкой находится двойной разъем SLI, что обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с невероятно производительной видеосистемой.

ASUS ENGTX280/HTDP/1G

За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле отверстий вывода нагретого воздуха, расположен индикатор питания видеокарты, отображающий его статус в данный момент.

ASUS ENGTX280/HTDP/1G

ASUS ENGTX280/HTDP/1G

Под системой охлаждения находится печатная плата, которая во многом напоминает предыдущие топовые решения на G80 (например GeForce 8800 Ultra), только теперь, вследствие доведения объема видеопамяти до 1 ГБ, чипы располагаются с обеих сторон печатной платы и не так плотно. Плюс усилена система питания, чтобы обеспечить работу столь мощного ускорителя.

GeForce GTX 280

gpu-z GeForce GTX 280

Основным потребителем электроэнергии является чип NVIDIA G200-300 второй ревизии, который и именуют GeForce GTX 280. Именно он содержит 240 унифицированных потоковых процессоров, которые работают на тактовой частоте 1296 МГц при работе остального ядра на частоте 602 МГц. Обмен данными с видеопамятью производится по 512-битной шине. Этот графический процессор способен обеспечить невероятную производительность при обработке графических данных, но узлы работы с внешними интерфейсами в него не поместились.

NVIO2

За все входы и выходы отвечает отдельный чип NVIO2, причем расположение его «вдали» от основного процессора позволяет говорить об отсутствии различных наводок и помех, что должно обеспечить отличное изображение даже на аналоговых мониторах.

H5RS5223CFR-N2C

В качестве микросхем памяти используется продукция Hynix. Микросхемы H5RS5223CFR-N2C при рабочем напряжении 2,05 В имеют время отклика 0,8 мс, т.е. обеспечивают работу видеопамяти на эффективной частоте до 2200 МГц. На этой же тактовой частоте микросхемы памяти и функционируют.

ASUS GeForce GTX 280

Отдельно расскажем о кулере. Система охлаждения имеет привычную для NVIDIA конструкцию и занимает соседний с видеокартой слот расширения, обеспечивая отвод нагретого воздуха за пределы корпуса.

ASUS GeForce GTX 280

Интересно отметить, что за отвод тепла отвечают не только алюминиевые пластины радиатора, но и весь корпус кулера, что хорошо видно по соединению тепловых трубок с ним. Поэтому проветривание видеокарты любым удобным способом может обеспечить заметное улучшение ее температурного режима. А мыслей об улучшении охлаждения мало кому из владельцев этого «горячего монстра» удастся избежать. Уже непродолжительная серьезная нагрузка на видеокарту заставляет турбину раскручиваться до максимальных 1500 об/мин, что заметно нарушает акустический комфорт. Но даже это не избавляет ускоритель от значительного нагрева.

В закрытом хорошо вентилируемом корпусе температура графического процессора перевалила за отметку 100°C, а воздух, выдуваемый системой охлаждения, навел на мысль, что зря NVIDIA представила этот графический процессор к лету – надо было к зиме, чтобы пользователь, купивший очень дорогой ускоритель, мог экономить на отоплении.

Чтобы видеокарта не перегрелась, пришлось открыть корпус и направить в его сторону бытовой вентилятор – это обеспечило снижение на 14 градусов температуры GPU и на 9 градусов всей видеокарты. Именно в таком положении производились все тесты и последующий разгон. Но при открытом корпусе штатный кулер показался еще немного громче.

А вот при отсутствии 3D нагрузки температура видеокарты значительно снижается, что достигается еще и дополнительным снижением рабочих частот и уменьшением напряжения – в режиме 2D видеокарта потребляет на 200 Вт меньше. Этот же факт позволяет медленнее вращаться и турбине кулера, что делает его практически беззвучным.

При тестировании использовался Стенд для тестирования Видеокарт №1

Процессор Intel Core 2 Duo E6300 (LGA775, 1,86 ГГц, L2 2 Мб) @2,8 ГГц
Материнская плата (PCI Express) GIGABYTE GA-965P-DS4 на Intel P965 Express (LGA 775, DDR2, ATX)
Материнские платы (Multi-GPU) ASUS Striker II Formula на nForce 780i SLI (LGA 775, DDR2, ATX)GIGABYTE GA-X48-DQ6 на Intel X48 (LGA 775, DDR2, ATX)
Кулер Thermaltake Sonic Tower (CL-P0071) + akasa AK-183-L2B 120 мм
Оперативная память 2 х DDR2-800 1024 Мб Apacer PC6400
Жесткий диск Samsung HD080HJ, 80 Гб, SATA-300
Блоки питания Chieftec CFT-500-A12S 500W, 120 мм вентиляторChieftec CFT-850G-DF 850W 140+80 мм вентиляторы (Multi-GPU)
Корпус CODEGEN M603 MidiTower, 2х 120 мм вентилятора на вдув/выдув
Сравнить GeForce GTX280 1GB ASUS с
Обзор GeForce 9800GX2 1GB GIGABYTE
Обзор Radeon HD3870X2 1GB MSI OC
Futuremark PCMark'05 Futuremark 3DMark'05 Futuremark 3DMark'06 Serious Sam 2, Maximum Quality, NO AA/AF, fps (SmartFPS.com) Serious Sam 2, Maximum Quality, AA4x/AF16x, fps (SmartFPS.com) Call Of Juarez, Maximum Quality, NO AA/AF, fps (SmartFPS.com) Call Of Juarez, Maximum Quality, AA4x/AF16x, fps (SmartFPS.com) Prey, Maximum Quality, NO AA/AF, fps (SmartFPS.com) Prey, Maximum Quality, AA4x/AF16x, fps (SmartFPS.com) Call Of Juarez DirectX 10 Benchmark, 1280x1024, fps Crysis, DirectX 10, Maximum Quality, NO AA/AF, fps (SmartFPS.com) Crysis, DirectX 10, Maximum Quality, AA4x/AF16x, fps (SmartFPS.com) Company of Heroes, DirectX 10, Maximum Quality, 4xAA, fps

Среди одночиповых ускорителей решение на NVIDIA GeForce GTX 280, несомненно, занимает лидирующее положение, но вот у двухчиповых ускорителей и multi-GPU конфигураций из карт предыдущего поколения ASUS ENGTX280/HTDP/1G/A выигрывает не всегда, особенно в условиях использования не самого производительного процессора.

2-ядерный процессор против 4-ядерного

А что даст использование более производительного процессора, например четырехъядерного? Именно такие процессоры сейчас часто советуют владельцам высокопроизводительных видеокарт.

Для того чтобы проверить на сколько четырехъядерный процессор окажется предпочтительнее, мы заменили Intel Core 2 Duo E6300 @2800 на Intel Core 2 Quad Q9450 @2800.

Тестовый пакет

Intel Core 2 Duo E6300 @2800

Intel Core 2 Quad Q9450 @2800

Прирост производительности, %

Futuremark 3DMark'05

16778

17798

6,08

Futuremark 3DMark'06

3DMark Score

11925

14721

23,45

SM2.0 Score

5243

5827

11,14

HDR/SM3.0 Score

6378

6879

7,86

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024x768

134,8

177,8

31,90

1280x1024

133,6

173,1

29,57

1600x1200

131,6

165,6

25,84

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1024x768

110,90

122,34

10,32

1280x1024

97,88

103,28

5,52

1600x1200

83,72

87,30

4,28

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1024x768

93,80

100,41

7,05

1280x1024

77,95

84,21

8,03

1600x1200

64,98

66,75

2,72

Prey, Maximum Quality, AA4x/AF16x, fps

1024x768

179,4

225,9

25,92

1280x1024

174,3

213,2

22,32

1600x1200

162,9

188,4

15,65

Crysis, Maximum Quality, NO AA/AF, fps

1024x768

51,32

56,28

9,66

1280x1024

46,76

50,42

7,83

1600x1200

38,94

39,56

1,59

Crysis, Maximum Quality, AA4x/AF16x, fps

1024x768

46,03

50,92

10,62

1280x1024

40,00

44,05

10,13

1600x1200

31,30

31,66

1,15

Как видите, прирост производительности на четырехъядерном процессоре действительно есть, и порою немалый, но именно в высоких разрешениях, для работы в которых и покупают дорогие видеокарты, ускорение наименьшее.

Intel Core 2 Quad против AMD Phenom X4

Еще одной часто озвучиваемой рекомендацией относительно комплектации производительной игровой системы является предпочтение процессорам Intel, как более быстрым. Что ж, попробуем проверить на практике, насколько игровая система на базе процессора AMD Phenom X4 окажется медленнее, если такой факт будет иметь место.

Для «забега» в равных условиях мы разогнали процессор AMD Phenom X4 9850 Black Edition до частоты 2,8 ГГц, что достаточно легко делается только изменением множителя, и провели серию тестов на новой платформе ASUS M3A32-MVP DELUXE/WIFI-AP. При этом оперативная память работала в режиме DDR2-800 с такими же таймингами, как и на системе с процессором Intel Core 2 Quad Q9450.

Тестовый пакет

AMD Phenom X4 9850 @2800

Intel Core 2 Quad Q9450 @2800

Разность производительности, %

Futuremark 3DMark'05

17194

17798

3,51

Futuremark 3DMark'06

3DMark Score

13695

14721

7,49

SM2.0 Score

5413

5827

7,65

HDR/SM3.0 Score

6488

6879

6,03

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1280x1024

135,4

173,1

27,84

1600x1200

133,3

165,6

24,23

2048x1536

125,1

140,7

12,47

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1280x1024

92,83

103,28

11,26

1600x1200

79,81

87,30

9,38

2048x1536

62,12

65,77

5,88

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1280x1024

76,16

84,21

10,57

1600x1200

62,94

66,75

6,05

2048x1536

46,86

49,92

6,53

Prey, Maximum Quality, AA4x/AF16x, fps

1280x1024

182,8

213,2

16,63

1600x1200

170,1

188,4

10,76

2048x1536

138,1

141,4

2,39

Crysis, Maximum Quality, NO AA/AF, fps

1280x1024

44,49

50,42

13,33

1600x1200

38,17

39,56

3,64

2048x1536

27,39

27,93

1,97

Crysis, Maximum Quality, AA4x/AF16x, fps

1280x1024

39,35

44,05

11,94

1600x1200

30,90

31,66

2,46

2048x1536

22,06

22,46

1,81

Итак, при работе на одинаковых тактовых частотах действительно система с процессором Intel Core 2 Quad оказывается немного быстрее аналогичной с процессором AMD Phenom X4. При этом, чем выше разрешение и больше требований к качеству изображения, тем меньше превосходство процессоров Intel. Конечно, используя самую дорогую и производительную видеокарту, маловероятно, что покупатель будет экономить на процессоре и материнской плате, но в других условиях мы бы не рекомендовали «однозначно Intel Core 2 Quad», а предложили бы хорошенько взвесить варианты систем с процессорами от AMD и Intel.

Разгон

Для разгона видеокарты мы использовали утилиту RivaTuner, при этом, как было отмечено выше, корпус был открыт, а дополнительный приток свежего воздуха к видеокарте обеспечивался бытовым вентилятором.

Частота растрового домена в результате разгона поднялась до отметки в 670 МГц, что на 70 МГц (+11,67%) выше значения по умолчанию. Разгон шейдерного домена оказался чуть лучше и частотные показатели, в отличие от значений по умолчанию, возросли на 162 МГц (+12,5%). А вот разгон памяти превзошёл все ожидания. Стабильная работа была отмечена на эффективной частоте почти 2650 МГц, что на 430 МГц (+19,5%) выше номинальной. Отмечаем отменный разгонный потенциал тестируемого ускорителя, особенно видеопамяти.

Теперь посмотрим, как разгон одиночной видеокарты сказывается на производительности:

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Futuremark 3DMark'05

16778

17061

1,69

Futuremark 3DMark'06

3DMark Score

11925

12158

1,95

SM2.0 Score

5243

5265

0,42

HDR/SM3.0 Score

6378

6669

4,56

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024x768

134,8

135,2

0,30

1280x1024

133,6

135,4

1,35

1600x1200

131,6

133,2

1,22

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1024x768

93,80

104,42

11,32

1280x1024

77,95

85,38

9,53

1600x1200

64,98

71,64

10,25

Prey, Maximum Quality, AA4x/AF16x, fps

1024x768

179,4

180,1

0,39

1280x1024

174,3

178,6

2,47

1600x1200

162,9

169,6

4,11

Crysis, Maximum Quality, AA4x/AF16x, fps

1024x768

46,03

49,34

7,19

1280x1024

40,00

43,82

9,55

1600x1200

31,30

34,98

11,76

Только в наиболее тяжелых видеорежимах можно будет увидеть прирост производительности от разгона. Такой результат был достаточно предсказуем. При этом, вполне резонно будет заметить, что ограничивающим фактором почти во всех тестах стал процессор. Но настоятельно рекомендовать владельцам ускорителей на NVIDIA GeForce GTX 280 только самые быстрые процессоры мы не будем, т.к. даже с двухъядерным процессором, который работает на частоте 2,8 ГГц, а может и меньше, можно будет совершенно комфортно играть в практически любые игры на самых максимальных настройках в высоких разрешениях. В таких условиях можно будет увидеть даже прирост от разгона. Но, конечно же, при возможности, на процессоре экономить не стоит, раз не экономили на видеокарте и блоке питания.

Выводы

Вынуждены признать, что все видеокарты на основе GeForce GTX 280 сегодня являются самыми производительными одночиповыми графическими ускорителями, которые способны обеспечить достаточную производительность в любой современной игре. Но, с другой стороны, это и самые дорогие современные видеокарты и самые требовательные к энергообеспечению и, в общем-то, самые «прожорливые» и горячие. То есть GeForce GTX 280 получился во всех отношениях самый-самый, и в плохих и хороших.

Мы говорим обобщенно об ускорителях на GeForce GTX 280, хотя героем обзора является ASUS ENGTX280/HTDP/1G/A, поскольку  большинство из них являются точно такими же референсными образцами, отличающимися друг от друга только наклейками, комплектацией и упаковкой. Поэтому выбирая GeForce GTX 280 от ASUS, покупатель получает расширенную комплектацию с парой фирменных бонусов и широкую сеть сервисных центров, а в остальном превосходства над предложениями конкурентов нет.

Достоинства:

  • очень высокая производительность в игровых приложениях;
  • поддержка DirectX 10.0 (Shader Model 4.0) и OpenGL 2.1;
  • поддержка технологий NVIDIA CUDA и NVIDIA PhysX;
  • поддержка технологии 3-Way SLI;
  • хороший разгонный потенциал.

Недостатки:

  • система охлаждения занимает 2 слота, не отличается высокой эффективностью и комфортной тишиной работы;
  • довольно высокая стоимость графического ускорителя.

Авторы: Петр Носик, Александр Черноиван

Выражаем благодарность фирме ООО ПФ Сервис (г. Днепропетровск) за предоставленную для тестирования видеокарту.

При написании статьи были использованы материалы с сайта http://www.ixbt.com/.

-->
Статья прочитана раз(а)
Опубликовано : 20-07-2008
Подписаться на наши каналы
telegram YouTube facebook Instagram