Тестирование gtx 680. Внешний вид и размеры

реклама

Fermi – архитектура компании NVIDIA, названная так в честь итальянского ученого-атомщика Энрико Ферми. Видеокарты, основанные на ней, были представлены 30 сентября 2009 года и обладали поддержкой DirectX 11. В продаже они появились чуть позже, после 26 марта 2010 года, а в качестве причины была названа ставшая уже привычной в то время проблема производства графических процессоров на мощностях TSMC.

На текущий момент прошло порядка трех месяцев с момента анонса и поступления в продажу новых графических ускорителей основного конкурента и, пожалуй что, единственного. Фора, предоставленная им NVIDIA, позволила разработчикам компании учесть просчеты Tahiti и в полной мере реализовать свои задумки. Остается выяснить, что же представляет собой новая архитектура Kepler, и стала ли она вообще новой.

Краткий список изменений в архитектуре

Несмотря на широко устоявшееся в компьютерных кругах мнение, что выпуск Windows 8 принесёт новую версию API (Direct X), эта теория полностью провалилась, и пользователей, скорее всего, ждёт тотальное доминирование DirectX 11. К слову, определенная часть игровых приложений, если не большая их половина, до сих пор ориентируется на старый-добрый DirectX 9 в угоду «приставочным» покупателям. Поэтому нам, обладателям сверхсовременных и сверхпроизводительных видеокарт, приходится довольствоваться играми, в которых производительность даже младших решений находится на очень высоком уровне.

Тем не менее, прогресс не стоит на месте, и смена техпроцесса производства с 40 нм на 28 нм позволяет компаниям оптимизировать и улучшать физические показатели своих GPU. Именно это перевоплощение и произошло с основной архитектурой NVIDIA Fermi.

Здесь необходимо совершить небольшой экскурс в историю. Наиболее производительным графическим ядром NVIDIA до недавнего времени было GF100, которое впоследствии модернизировалось до GF110.

Оно сочетает в себе хороший баланс между производительностью и GPGPU-вычислениями, поскольку изначально разрабатывалось для DirectX 11 и GPGPU. Но и у такого решения нашлась «ахилессова пята». В условиях жёсткой конкуренции по уровню энергопотребления GF110 в сравнении с Cayman выглядел, мягко говоря, слабо.

Чуть позже инженеры пересмотрели количество ALU в GPC и вывели в свет GF104, оптимизировав ядро под текущие игровые требования.

Ухудшившаяся производительность GPGPU мало волновала покупателей, им гораздо важнее было соотношение «цена-производительность». С этим спорить не приходилось, для своего времени GTX 560 и GTX 560 Ti стали удачным решением.

Посмотрим на архитектуру подробнее.

В основе всех видеопроцессоров лежит простой блок из вычислительных ядер (CUDA Cores). В GF110, GF114 и Kepler его упрощенную схему можно представить следующим образом:

реклама

Kepler

Так, за обработку геометрии отвечает PolyMorph Engine 2.0. В нём находятся исполнительные блоки Tesselation, Vertex Fetch, Viewport Transform, Attribute setup, Steam output. Немаловажный факт - производительность PolyMorph Engine 2.0 выросла в два раза по сравнению с архитектурой Fermi. Заметно, что разработчики NVIDIA работают в сторону увеличения исполнительных устройств в одном SMX блоке. А там, где количественного изменения не произошло, компания рассказывает о качественном. Обратимся к сухим цифрам. В одном SM/SMX:

Да, действительно, нас ждут укрупнённые массивы SM/SMX, без неприятных неожиданностей. Вкупе с возросшим числом транзисторов NVIDIA добавила в SM все необходимые вспомогательные блоки: загрузки и хранения, специальной функциональности, объёма регистров и прочие. Налицо количественный рост без ухудшения прочих характеристик.

реклама

В финальном варианте GPU выглядит следующим образом:

реклама

Kepler

Несложно подсчитать изменившееся соотношение загрузки между планировщиками/диспетчерами/ CUDA-ядрами. В GF110 оно составляло 2/2:32, в GF114 - 2/4:48, в Kepler - 4/8:192. Если абстрактно, планировщик готовит очередь команд, которая в свою очередь делится диспетчерами и направляется на исполнение к ядрам. Ещё одно интересное изменение связано с адресацией блока растеризации. Так, в прошлых поколениях к нему было подключено 128 и 192 CUDA-ядер у GF110 и GF114 соответственно, в Kepler этот показатель равен 384. Видимо, инженеры посчитали, что блок растеризации еще не исчерпал свой лимит производительности.

Что касается системы адресации памяти, то здесь причин идти на серьёзные изменения нет. Для Kepler приготовили 256-битную память (четыре 64-битных канала) и 32 блока ROP. Но штатная частота памяти составила 6000 МГц, что является рекордом среди всех референсных видеокарт на данный момент.

Субъективно, мне видится направление движения развития графических процессоров (что NVIDIA, что AMD) в одну сторону. Первая постепенно увеличивает соотношение CUDA-ядер в одном объединённом блоке (SMX), не забывая при этом про уровень быстродействия блока тесселяции, которым снабжён каждый SMX! А так же про размер кэшей и регистров. AMD, наоборот, всеми силами пыталась уйти от непомерной загрузки блоков растеризации/тесселяции, которые были выделены в отдельные устройства в GPU. Причем, блокам растеризации, а раньше он и вовсе был один, приходилось снабжать данными уж слишком большое количество исполнительных ядер.

реклама

Естественно, что блоки растеризации AMD, скорее всего, мощнее, иначе бы им не хватило производительности. Но модульная структура Fermi/Kepler выглядит разумнее, как для этапа разработки, так и последующей модернизации. Поэтому новую архитектуру NVIDIA нельзя назвать новой в полном смысле этого слова, она скорее представляет собой реорганизованный и пересмотренный вариант Fermi.

Технические характеристики

Наименование HD 6970 HD 6990 HD 7950 HD 7970 GTX 580 GTX 590 GTX 680
Кодовое имя Cayman XT Antilles Tahiti Pro Tahiti XT GF110 GF110 GK104
Техпроцесс, нм 40 40 28 28 40 40 28
Размер ядра/ядер, мм 2 389 389 x2 365 365 ~530 ~530 x2 294
Количество транзисторов, млн 2640 2640 x2 4300 4300 3300 3300 x2 3540
Частота ядра, МГц 880 830/ 880 800 925 772/ 1544 608/ 1216 1006
Число шейдеров (PS), шт. 1536 1536x2 1792 2048 512 512 x2 1536
Число блоков растеризации (ROP), шт. 32 32 x2 32 32 48 48 x2 32
Число текстурных блоков (TMU), шт. 96 96 x2 112 128 64 64 x2 128
Макс. скорость закраски, Гпикс/с 28.2 53.1/ 56.3 25.6 29.6 37.1 58.4 32
Макс. скорость выборки текстур, Гтекс/с 84.5 159.4/ 169 89.6 118,5 49.4 77.8 128
Версия пиксельных/вертексных шейдеров 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Эффективная частота памяти, МГц 5500 5000 5000 5500 4008 3420 6000
Объём памяти, Мбайт 2048 2048 x2 3072 3072 1536 1536 x2 2048
Шина памяти, бит 256 256 x2 384 384 384 384 x2 256
Пропускная способность памяти, Гбайт/с 176 160 x2 240 264 192.4 164 х2 192
Потребляемая мощность 2D/3D, Ватт 20/ 250 37/ 375; 450 3/ 200 3/ 250 нд/ 244 нд/ 365 нд/ 195
Crossfire/Sli да да да да да да да
Размер карты (ДхШхВ), мм 275x100x37 340x100x38 275x100x37 275x100x37 270x100x38 280x100x38 260x100x38
Рекомендованная цена, $ 369 699 450 550 499 699 500

Новые возможности

реклама

С анонсом новой архитектуры NVIDIA внедрила в GTX 680 дополнительные возможности, часть которых будет доступна на всех ранее выпущенных видеокартах. В частности, появилась возможность задействовать адаптивный VSync.

Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.

После активации адаптивного VSync максимальное число кадров не превышает частоту развёртки монитора, но здесь важнее другое - цикл падения производительности становится плавным, что позволяет избежать «дерганья» картинки. На мой взгляд, эта технология оптимальна для очень больших разрешений, особенно тогда, когда задействуется несколько игровых мониторов. Поскольку даже в 2560х1440 GTX 680 чувствует себя более чем уверенно. Адаптивный VSync активируется через контрольную панель драйверов, но, возможно, в будущем будет доступен непосредственно из меню игр.

реклама

ТХАА – новый метод сглаживания. Не секрет, что современные методы сглаживания порядком нагружают графические возможности GPU. И чем выше степень, тем меньше производительность. На другой чаше весов лежит качество сглаживания, ведь нельзя, улучшая его, не терять в скорости. Поэтому каждый год разрабатываются новые механизмы, позволяющие сочетать как скорость, так и качество.

Без сглаживания

реклама

TXAA

TXAA как раз является тем методом, который позволяет насладиться степенью сглаживания MSAA 4x-8x по половинчатой цене. Доступно два режима: TXAA 1– аналогично качеству MSAA 8x, но с производительностью MSAA 2x, и TXAA 2 – с качеством выше MSAA 8x и производительностью MSAA 4x. Описываемые методы буквально в ближайшее время будут интегрированы в новые игры: MechWarrior Online, Secret World, Eve Online, Borderlands 2, Unreal 4 Engine и другие.

GTX 680 и последующие преемники архитектуры Kepler получат поддержку 4К-разрешений и 3 ГГц HDMI мониторов. Саму видеокарту уже сейчас можно подключить к четырем дисплеям.

Внутри микросхемы GK104 встроен аппаратный блок с поддержкой кодека H.264. NVENC до четырех раз быстрее справляется с задачами кодирования, нежели предыдущие варианты, основанные на языке CUDA. И опять же речь идёт о разрешениях вплоть до 4096х4096 и H.264 Base, Main, and High Profile Level 4.1.

Наконец по многочисленным просьбам реализовано удобное размещение панели «Пуск». Теперь она располагается на центральном дисплее. Естественно, что появилась возможность настраивать пересекающиеся меню в играх так, чтобы не разрывать и не скрывать содержимое окна между мониторами.

И, пожалуй, ещё одно очень интересное нововведение. Отныне нет понятия 3D частоты. У GK104 появились базовая частота, равная 1006 МГц, и частота GPU Boost. А также максимальный уровень энергопотребления.

Говоря проще, в зависимости от загрузки графического процессора и запаса до пика энергопотребления GPU Boost автоматически подстраивает эффективную частоту GPU.

Внешний вид и размеры

Модель A, мм B, мм C, мм D, мм A1, мм B1, мм C1, мм
AMD HD 6970 266 95 34 65 273 97 39
AMD HD 7970 266 98 34 71 277 98 39
NVIDIA GTX 580 268 98 36 68 268 98 38
NVIDIA GTX 680 254 98 34 63 254 98 38

А - длина печатной платы, без учёта системы охлаждения и планки портов видеовыходов.
В - ширина печатной платы, без учёта контактов PCI-E и системы охлаждения.
С - высота от горизонтальной плоскости печатной платы до уровня верхней поверхности системы охлаждения.
D - диаметр крыльчатки вентилятора/ов.

А1 - длина печатной платы, с учётом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 - ширина печатной платы, без учёта контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 - высота, с учётом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.

На самом деле, нестандартный разъём питания (с защелками, повёрнутыми внутрь) оказался не таким уж неудобным. Конечно, я допускаю, что некоторые блоки питания оснащаются массивными 6/8 pin разъёмами, и только тогда, вынимая их из видеокарты, вы вспомните инженеров нехорошим словом.

Количество видеопортов изменилось, теперь пользователю доступны следующие разъемы: два DVI, по одному HDMI и DP. Из-за вертикального расположения DVI конструкторам пришлось соразмерно уменьшить вентиляционную решётку.

Печатная плата

Как обычно, сразу после анонса первыми начинают продаваться видеокарты, основанные на эталонном дизайне. К счастью, он достаточно прост и не требует дорогостоящих комплектующих.

На NVIDIA GTX 680 две фазы питания памяти расположены в верхней части печатной платы. Вопреки привычному разделению питания на MEM и PLL, инженеры NVIDIA не выделяют отдельный ШИМ-контроллер, используя комбинированное питание. Совсем необычно размещены фазы питания GPU. Если раньше они вытягивались вертикально в ряд, то сейчас их расположили горизонтально. Чем обусловлено такое расположение, сказать сложно, но разработчикам и инженерам должно быть виднее. Из пяти доступных фаз распаяно лишь четыре. А поскольку максимальное потребление карты ограничено, то этого должно хватить. Можно выдвинуть предположение, что если AMD соизволит выпустить разогнанную версию AMD Radeon HD 7970, то свет увидит и NVIDIA GTX 680 Ti. Тогда-то и потребуется пятая фаза.

Температурный режим, уровень шума и потребляемого электричества

Рабочие температуры

Градусы, °C

#1 и #2 – соответственно температуры первого и второго графических ядер.
HD 6990* - видеокарта AMD с частотой GPU 880 МГц.

NVIDIA GTX 680 находится приблизительно на одном уровне по нагреву с AMD Radeon HD 7970. Разницей в 1°C можно пренебречь.

В тесте принимают участие видеокарты, выполненные на основе референсного дизайна.

Уровень шума


Включите JavaScript, чтобы видеть графики

Но про уровень шума, издаваемого системой охлаждения, этого уже не скажешь. При одинаковом уровне нагрева NVIDIA GTX 680 на 7.5 дБА тише основного конкурента AMD Radeon HD 7970.

Послушать систему охлаждения:

И сравнить:

Энергопотребление видеокарт*


Включите JavaScript, чтобы видеть графики

*

AMD Radeon HD 6990 и NVIDIA GTX 590 естественным образом занимают верхние строчки рейтинга. Далее за ними следует пара ускорителей, основанных на 40 нм техпроцессе, AMD Radeon HD 6970 и NVIDIA GTX 580. Большой транзисторный бюджет накладывает определенные требования к питанию и для новой видеокарты AMD – Radeon HD 7970, которая стоит на одной ступени с NVIDIA GTX 580. А NVIDIA GTX 680 удобно разместилась между AMD Radeon HD 7970 и 7950.

Энергопотребление видеокарт* в разгоне


Включите JavaScript, чтобы видеть графики

* - Тестовый стенд целиком, без учёта монитора.

После разгона позиции всех участников претерпевают изменения, за исключением пары двухпроцессорных видеокарт. На этом фоне за счет старого техпроцесса и высоких частот выделяется NVIDIA GTX 580. Практически недалеко от неё ушла и AMD Radeon HD 7970, уверенно обгоняя AMD Radeon HD 6970.

А первенец на Kepler, NVIDIA GTX 680, благодаря новым алгоритмам энергосбережения и управления частотами не только неплохо разгоняется, но и потребляет мало. По последнему показателю его обходят даже NVIDIA GTX 570 и 560 448 Core.

13.04.2012 | wolfsanek | (98)

1 - Немного об архитектуре Kepler 2 - Zotac GeForce GTX 680 (ZT-60601-10P) 3 - Методика тестирования 4 - Результаты тестирования. Ч.1 5 - Результаты тестирования. Ч.2. Выводы Отобразить одной страницей

В бесконечной гонке за первенство на рынке графических ускорителей AMD удалось одержать очередную победу, выпустив Radeon HD 7970 на базе чипа, изготовленного по нормам 28-нм технологического процесса. За новоявленным одночиповым королем графики последовал младший брат в лице Radeon HD 7950 и видеокарты среднего ценового диапазона. Ситуация напоминает стремительную экспансию AMD во времена Radeon HD 5000. Пока NVIDIA рассказывала про чудесную архитектуру Fermi, конкуренты уже успешно продавали реальные видеокарты нового поколения. GeForce GTX 480 появился лишь спустя полгода после Radeon HD 5870 и вышел не только быстрее, но и значительно горячее и шумнее. В этот раз переход на новую архитектуру Kepler и новый техпроцесс у NVIDIA снова затянулся. Премьера флагмана опять грозила припоздниться на немалый срок, поэтому компания вначале даже планировала запуск новых продуктов в среднем ценовом сегменте. Однако после релиза старшего Radeon стратегия была изменена. Представители компании снисходительно заявили, что от Radeon HD 7900 они ожидали большего , а их новинка теперь уж точно будет супер-пупер и просто вне конкуренции. После этого начали появляться слухи о преобразовании продукта, который мог стать GeForce GTX 660, в ускоритель уровнем повыше — GeForce GTX 680.

Все в итоге так и оказалось. Новый флагман NVIDIA базируется на графическом процессоре GK104. Сам индекс, оканчивающийся на 4, намекает на родство с GF114 и GF104 , давших жизнь многочисленным модификациям GeForce GTX 560/460.

Архитектура Kepler напоминает Fermi. В основе графического процессора — независимые кластеры GPC (Graphics Processing Cluster). У GK104 их 4, как и у GF100/GF110. Но если старые процессоры содержали по четыре мультипроцессора (Streaming Multiprocessor) на один кластер, то у Kepler их два. Зато мультипроцессоры (которые теперь обозначены аббревиатурой SMX) значительно изменились.


SMX намного производительнее старых SM. Один мультипроцессор теперь состоит из 192 стрим-процессоров (CUDA cores в интерпретации NVIDIA), 16 текстурных блоков, 32 блоков специальных фукций SFU и 32 LD/ST для загрузки и хранения данных. Один SM у старых GPU имел в своем активе лишь 32 потоковых процессора, четыре текстурных блока, четыре SFU и 16 LD/ST. Разница огромная. Связана она и с тем, что у Kepler все блоки работают на одной частоте. Удвоенная частота вычислительных блоков Fermi позволяла за один такт 16 ядрам выполнять 32 инструкции, т.е. обрабатывать так называемый warp, который распределяет между мультипроцессорами GigaThread Engine. Каждое CUDA ядро состоит из FPU и ALU. Даже с учетом удвоенной частоты вычислительных ядер у предшественников можно говорить о трехкратном росте вычислительной мощности мультипроцессора благодаря большему числу ядер. А 32 SFU обеспечивают четырехкратное преимущество в скорости выполнения сложных математических операций. Не изменился объем кэш-памяти L1, которыйпо прежнему 64 КБ у каждого мультипроцессора.


Вместо единого блока обработки геометрии у AMD графические процессоры NVIDIA имеют специальный блок PolyMorph Engine в каждом мультипроцессоре, которых у GK104 в два раза меньше чем у GF110, а значит и движков PolyMorph меньше. Компенсируется это их возросшей производительностью. PolyMorph Engine версии 2.0 обрабатывает за такт вдвое больше данных. Так что в итоге должен выйти паритет. Но в запасе у новичка большие частоты, поэтому новая видеокарта все равно окажется быстрее предшественника.

Увеличение количества вычислительных блоков потребовало удвоения числа планировщиков (Warp Scheduler), каждый из которых связан с двумя диспетчерами (Dispatch Unit). Но при этом логика управления была упрощена, что сделано в угоду экономии площади чипа и общего снижения энергопотребления. В Fermi планировщик полностью отслеживал зависимости внутри исполняемого кода и перераспределял потоки, теперь часть этих функций выполняется на этапе компиляции кода. Порядок выполнения предопределяется заранее, а планировщик лишь распределяет потоки.


Интересно, что AMD в последних продуктах пошла по пути Fermi и усложнила управляющая логику, чтобы добиться большей гибкости при использовании ресурсов. В последовательных графических расчетах небольшие упрощения Kepler не должны сыграть существенной роли, но эффективность неграфических вычислений в сравнении с Fermi может снизиться. В этот раз NVIDIA вообще не акцентирует внимание на неграфических возможностях процессора GK104, что намекает на отсутствие прогресса в этой области. По некоторым данным есть даже регресс, в вычислениях двойной точности GeForce GTX 680 слабее GeForce GTX 580. Главным приоритетом перед компанией была высокая энергоэффективность в сочетании с высокой игровой производительностью, для этого чем-то пришлось пожертвовать.

Еще один неприятный момент — уменьшение кэш-памяти L2. Топовый процессор прошлого поколения нес на борту 768 КБ, а у нынешнего флагмана лишь 512 КБ. Но выросла его пропускная способность, озвучиваемая разница составляет 73%. Скорость атомарных операций выше в несколько раз. Вышло меньше, но значительно быстрее.

Изменилось соотношение движков растеризации и ROP. Одному Raster Engine теперь соответствует один большой ROP, который обрабатывает 8 пикселов за такт (поэтому говорят о 32 ROP). У GF110 соотношение было 4:6, т.е. в целом обрабатывалось 48 пикселей за такт. Новое соотношение NVIDIA считает более оптимальным.

Четыре мультипроцессора и 32 ROP роднят новичка с GeForce GTX 560/460. Усиливает сходство и 256-битная шина памяти, которой в топовых видеоадаптерах NVIDIA не было уже много лет. Графический процессор GK104 оснащен лишь четырьмя 64-битными контроллерами. Пропускная способность памяти должна компенсироваться высокой частотой микросхем GDDR5, что стало возможно благодаря переработанным контроллерам. Не секрет, что первые видеокарты Fermi не радовали высокими частотами памяти. Представители пятисотой серии в этом плане стали получше. У GeForce GTX 680 еще больший прогресс. Это первая видеокарта, память которой функционирует на эффективной частоте 6008 МГц, что позволяет достичь идентичной пропускной способности с 384-битным GeForce GTX 580. Но вот у Radeon HD 7970 с 512-битной шиной ПСП выше почти на 38%.

Объем памяти GeForce GTX 680 тоже меньше, чем у флагмана AMD — 2 ГБ против 3 ГБ. Но реально три гигабайта востребованы сейчас разве что в мультимониторных конфигурациях. Даже в 2560x1440 третий гигабайт будет актуален в редких играх. В Full HD двух гигабайт пока хватает с лихвой. К примеру, из всех наших тестов в 1920x1080 даже полтора гигабайта смог загрузить только Crysis 2 с улучшенными текстурами.

Как уже говорилось выше, основной задачей инженеров NVIDIA было достигнуть наилучшего соотношения производительности и энергоэффективности. Значительный прогресс по этому показателю иллюстрирует следующий слайд.


В сравнении с Radeon HD 7970 нам обещают меньшее энергопотребление при большей производительности. Это стало возможным благодаря различным оптимизациям и небольшим упрощениям в сочетании с увеличившимся количеством вычислительных блоков плюс новый 28-нм техпроцесс. Площадь графического процессора GK104 меньше площади Tahiti, что и неудивительно, ведь состоит он из 3,5 млрд. транзисторов против 4,3 млрд. у старшего GPU от AMD. В нагрузке GeForce GTX 680 потребляет до 195 Вт и обходится двумя шестиконтактными разъемами питания. Для Radeon HD 7970 заявлен предел в 250 Вт. Разница впечатляющая, но, как покажет наше тестирование, в жизни все не так радужно.

Высокая производительность GeForce GTX 680 обеспечивается и высокой частотой GPU. В придачу новинка обзавелась еще автоматическим разгоном GPU Boost. Эта технология является аналогом Turbo-технологий у CPU. GK104 может поднимать свою частоту в моменты не максимальной загрузки, когда TDP ниже предела 195 Вт. На аппаратном уровне отслеживается загрузка графического процессора и памяти, осуществляется контроль мощности и температуры. На основании всех этих данных GPU ускоряется до определенного уровня и работает на этой частоте, пока не превысит порог TDP.


Есть базовая частота в 1006 МГц, на которой видеокарта гарантированно работает при любой нагрузке даже в самых тяжелых приложениях. Кроме базовой частоты имеется Boost Clock — частота в ускоренном режиме. Для GeForce GTX 680 она указывается как 1058 МГц, но это среднее значение, ведь GPU может разгоняться вплоть до 1110 МГц, если остается в границах дозволенного TDP. То есть итоговая прибавка может достигать 10%, что весьма неплохо. Правда максимальный прирост будет в самых легких приложениях, где и без GPU Boost видеокарта выдаст высокий fps. Зато в самых тяжелых сценах прироста может вообще не быть. Интересно, отразится ли это на противостоянии с конкурентом AMD? Будет ли преимущество по среднему fps соответствовать преимуществу по минимальному fps? Результаты нашего тестирования позволят ответить на эти вопросы.
Видеоадаптер GeForce GTX 680 GeForce GTX 580 GeForce GTX 480
Ядро GK104 GF110 GF100
3500 3000 3200
Техпроцесс, нм 28 40 40
Площадь ядра, кв. мм 294 520 526
1536 512 480
Количество текстурных блоков 128 64 60
Количество блоков рендеринга 32 48 48
Частота ядра, МГц 1006+ 772 701
1006+ 1544 1401
Шина памяти, бит 256 384 384
Тип памяти GDDR5 GDDR5 GDDR5
Частота памяти, МГц 6008 4008 3696
Объём памяти, МБ 2048 1536 1536
11.1 11 11
Интерфейс PCI-E 3.0 PCI-E 2.0 PCI-E 2.0
195 244 250

В настройках драйвера есть возможность изменения предела TDP в большую и меньшую сторону, аналогично настройкам PowerTune у Radeon. Соответствующий ползунок появился уже и последней beta-версии MSI Afterburner 2.2.0. При разгоне мы изменяем базовую частоту. GPU Boost продолжает работает и, если это позволит уровень энергопотребления, будет по-прежнему увеличивать частоту. Максимальная дельта такая же — плюс 104 МГц к базовой частоте, средний Boost Clock — 52 МГц.


Новый GeForce оснащен интерфейсом PCI Express 3.0. Поддержка спецификаций DirectX 11.1 не совсем полная, но все функции относящиеся к 3D-рендерингу реализованы. Так что «игровая» поддержка этого API полноценная.

Есть у Kepler и эксклюзивные возможности, которые пока не реализованы в DirectX 11. Новый графический процессор получил поддержку технологии Bindless Textures. В старых GPU шейдерная программа обращалась к 128 текстурам через специальную таблицу. Bindless Textures позволяет работать с текстурами напрямую без таблицы привязки. И одна шейдерная программа может использовать до миллиона текстур. Вот только использовать такие возможности можно пока лишь в OpenGL или при помощи NVAPI.


Получил развитие метод сглаживания FXAA, в чем-то идентичный MLAA от AMD, ведь он тоже представляет собой пост-обработку отрендеренного кадра. FXAA намного быстрее MSAA, но и четкость картинки ниже. Ранее этот режим поддерживался лишь некоторыми играми. Теперь можно будет форсировать его практически для любого приложения из панели управления NVIDIA. Новый режим получил название FXAA 3. Правда, это не особенность Kepler. С новым драйвером такая возможность появится и у владельцев старых видеокарт GeForce.

NVIDIA разработала еще один более качественный метод сглаживания под названием TXAA. Он сочетает в себе аппаратные методы MSAA и постобработку готового кадра. Предлагается два режима TXAA. Один соответствует по качеству 8x MSAA, а по производительности 2x MSAA. Другой режим еще более качественный при сопоставимой производительности с работой алгоритма 4x MSAA.


Crytek будет использовать это сглаживание в своих будущих проектах. Его собираются внедрить и в Unreal Engine 4. Из ближайших игр TXAA должен порадовать нас в Borderlands 2. В этой игре заодно обещают и поддержку PhysX.


Никаких нововведений для PhysX пока не предусмотрено. Но вместе с релизом GeForce GTX 680 компания NVIDIA заодно продемонстрировала новые возможности движка по симуляции шерсти и волос, а также реалистичную разрушаемость объектов по случайному сценарию. Пока это все существует только в виде демонстрационных видеороликов , но в будущем можно надеяться на реализацию подобных эффектов в реальных играх.

Еще одно новшество — Adaptive VSync. Обычная вертикальная синхронизация позволяет избавиться от разрывов кадров (tearing), когда fps превышает частоту обновления монитора. Но включение этой функции в ресурсоемких играх, когда видеокарта просто не в состоянии выдать положенные 60 fps, приводит к общему падению производительности. Adaptive VSync динамически включается и отключается в зависимости от fps. Если видеокарта выдает более 60 кадров в секунду, включается синхронизация, если меньше — выключается. Таким образом Adaptive VSync позволит минимизировать вероятность разрывов кадра без дополнительного снижения fps в тяжелых сценах. Эту функцию можно будет включить для любого приложения в панели управления.


Внедрена функция ограничения fps. Указав верхний предел по частоте кадров можно разгрузить видеокарту в играх с низкими системными требованиями, что позволит функционировать ей на более низких частотах, меньше греться и потреблять мощности. Пока такие настройки не доступны в панели управления, изменять предел fps можно в последней версии утилиты EVGA Precision.

GeForce GTX 680 поддерживает одновременный вывод на четыре монитора. В режиме 3D Vision Surround возможен вывод 3D-изображения на три монитора. Ранее это было возможно лишь с GeForce GTX 590 . В мультимониторном стерео-режиме четвертый экран можно задействовать для просмотра браузера, электронной почты и других приложений.


Кстати, Kepler избавлен от проблемы с постоянной работой на высоких частотах даже в режиме простоя при подключении мониторов с разными характеристиками, что имело место у видеокарт Fermi.

Поддерживаются интерфейсы DisplayPort 1.2 и HDMI 1.4a с многопоточным выводом звука. Видеокарта может выводить изображение на мониторы Ultra High Definition с разрешением 3840x2160.

Процессор GK104 обзавелся специальным блоком NVENC для аппаратного кодирования видео в формате H.264 с поддержкой разрешений вплоть до 4096x4096. Производительность NVENC намного быстрее кодирования с помощью CUDA, при этом обещано энергопотребление на уровне 10 Вт. Для максимального ускорения можно вместе с NVENC параллельно задействовать и CUDA. Поддержка кодирования при помощи NVENC уже присутствует в программе Cyberlink MediaEspresso, в ближайшее время к ней присоединятся Cyberlink PowerDirector и Arcsoft MediaConverter.

После рассмотрения технических особенностей GK104 и основных характеристик GeForce GTX 680 настало время познакомиться с самой видеокартой для изучения ее конструктивных особенностей.

К нам в руки попала видеокарта от Zotac. Упаковка немного изменилась. Ранее топовые GeForce компания предлагала в компактных блестящих коробках с изображением драконов. Нынешняя упаковка больше, но выглядит проще.



Внутри еще одна коробка из плотного черного картона.

Комплектация богатая:

  • переходник DVI/D-Sub;
  • два переходника питания c двух molex на PCI-E 6-pin;
  • диск с драйвером;
  • полная версия игры Assassin"s Creed;
  • полная версия игры Assassin’s Creed II;
  • полная версия игры Assassin’s Creed: Revelations;
  • код для трехдневного доступа TrackMania 2 Canyon;
  • инструкции.
Видеоадаптер Zotac является полной копией референса. Но если стандартная карта имеет строгий черный стиль, то Zotac выглядит ярче благодаря оранжевым вставкам.


Сбоку большими рельефными буквами значится надпись GeForce. Как и остальные флагманские продукты, GeForce GTX 680 имеет два разъема для объединения нескольких видеокарт в SLI.


Интересно расположены разъемы дополнительного питания. Второй разъем чуть сдвинуть вглубь и размещен сверху над первым. Их взаимное расположение совсем не мешает подключению и извлечению кабелей питания. Но высокая колодка может помешать установке альтернативных систем охлаждения.


Родная система охлаждения традиционно представляет собой «турбину» с выдувом горячего воздуха за пределы корпуса. Внешне GeForce GTX 680 мало чем отличается от GeForce GTX 580, разве что стало чуть больше «лоска» из-за блестящей поверхности кожуха.


На задней панели расположены разъемы Display Port, HDMI и два DVI. Они занимают значительную площадь, поэтому отверстий для выхлопа воздуха не так уж и много. Частично он реализован и вовнутрь корпуса через прорези сбоку карты возле разъемов SLI.


На первый взгляд конструкция кулера не претерпела серьезных изменений. Всю поверхность платы накрывает пластина-радиатор, охлаждающая VRM и память.


На GPU установлен радиатор с массивным основанием и рядом напаянных алюминиевых пластин.


Но основной радиатор стал поменьше. И теперь в основании нет испарительной камеры, как у GeForce GTX 580. Но с учетом меньшего тепловыделения нового графического процесса такая небольшая экономия и упрощения со стороны NVIDIA вполне понятны.



Контакт с поверхностью кристалла осуществляется через медную вставку. А внутри основания в желобках имеются три приплющенные тепловые трубки. Сверху на все это напаян массив пластин, продуваемых радиальным вентилятором.


Оценить размеры системы охлаждения можно по нижней фотографии собранной видеокарты без верхнего кожуха.


Со слов NVIDIA в производстве видеокарты использовались демпфирующие материалы, гасящие акустический шум. Так что кожух должен играть и роль шумоподавителя. Не знаем насколько это соответствует действительно, в любом случае эффективность такого шумоподавителя будет минимальная. Однако щепетильное внимание к мелочам со стороны компании радует.

Возле колодки с разъемами питания есть посадочное место под второй разъем. Так что вполне возможно появление в продаже референсных моделей с традиционным расположением разъемов при использовании нестандартного охлаждения. Некоторые из таких видеокарт уже мелькали в нашей новостной ленте. Дизайн платы отличается от GeForce GTX 580.



GPU запитан от четырехфазного преобразователя (у GTX 580 было шесть фаз), память GDDR5 — от двухфазного. Не распаяна одна фаза. Возможно, первоначальный вариант видеокарты планировался на более мощном чипе или NVIDIA проектировала PCB с запасом для будущих продуктов.


Питанием графического процессора управляет контроллер Richtek RT8802A, который распаян на небольшой дочерней плате.


Впервые старший GPU от NVIDIA не имеет теплораспределительной крышки. Во избежание повреждения оголенного кристалла его окружили большой защитной рамкой. Судя по маркировке GK104-400-A2, это не первая ревизия данного графического процессора. Возможно, GPU A1 планировались для более слабых видеоадаптеров, а после перепрофилирования предполагаемого GeForce GTX 660 в GeForce GTX 680 процессор был доработан и переведен на большие частоты, получив ревизию A2.


Два гигабайта видеопамяти набраны восемью микросхемами Hynix H5GQ2H24MFR R0C. Микросхемы рассчитаны на рабочую частоту 6 ГГц, что как раз соответствует стандартным характеристикам GeForce GTX 680. И запас для разгона, предположительно, будет небольшой.


Утилита GPU-Z версии 6.0.0 правильно определяет все параметры видеокарты. Кроме базовой частоты в 1006 МГц указывается и Boost Clock. Память функционирует на эффективной частоте в 6008 МГц.


Для мониторинга параметров и разгона видеокарты мы использовали MSI Afterburner 2.2.0 beta 15. Программа по старой памяти демонстрирует удвоенную частоту шейдернго домена, но в реальности все блоки у Kepler работают на одной частоте. Наш стандартный 12-минутный тест Crysis: Warhead на максимальных настройках качества со сглаживанием 8x прогрел карту лишь до 81 °C при 24 градусах внутри помещения. При этом энергопотребление почти все время было ниже 100%, что позволяло ядру большую часть времени работать на 1084 МГц, иногда поднимаясь и до 1110 МГц. Вместе с частотой динамически изменяется и рабочее напряжение.
В более ресурсоемких новых играх разгон будет меньше. К примеру, в демо Central Park из Adrenaline Crysis 2 Benchmark Tool частоты графического процессора большую часть времени держались на уровне Boost Clock 1058 МГц.
Вентилятор раскручивался до 2400 об/мин. Шум умеренный. Напрямую сравнить GeForce GTX 680 с референсным Radeon HD 7970 у нас не было возможности. Но то, что новинка тише и холоднее GeForce GTX 580, можем сказать уверенно.

Технология GPU Boost простым геймерам-оверклокерам жизнь никак не усложнит. Порядок разгона прост: вначале поднимаем предел энергопотребления, потом разгоняем. Без увеличения предела не обойтись, ведь частоты видеокарты зависят от уровня энергопотребления. Вполне может случиться, что видеокарта будет сбрасывать частоты ниже тех, что вы установили при разгоне. Тогда прирост производительности не будет соответствовать приросту по частотам. Кстати, одним лишь увеличением предела тоже можно немного разогнать GPU, не изменяя его базовую частоту, он будет все время работать с наибольшим ускорением.

Мы установили максимальный предел энергопотребления в 132%, но все равно достигнуть полной стабильности при базовой частоте свыше 1200 МГц не удавалось. После длительного подбора частот и прогона разных тестов, остановились на +190 МГц. То есть базовая частота в итоге составила 1196 МГц. Напряжение даже не пришлось повышать, оно само увеличивается с увеличением частоты. Память стабильно заработала на 6848 МГц.


Самое интересное, что с максимальным порогом энергопотребления в большинстве приложений GPU почти всегда работал с максимально возможным ускорением на 104 МГц, т.е. при 1300 МГц. Это наглядно иллюстрирует скриншот загрузки в Crysis: Warhead. При этом энергопотребление не превышало 119%.
Самой большой «грелкой» для видеокарты оказался Witcher 2, прогревая ядро больше других игр. Но даже в этом приложении при разгоне видеокарта не превышала предел в 132% и работала на частотах близких к 1300 МГц.
У нас сложилось впечатление, что разгон по базовой частоте свыше 1,2 ГГц не пошел лишь из-за ограничений по энергопотреблению. Никаких артефактов на больших частотах не наблюдалось, просто некоторые приложения начинали периодически подвисать, а другие работали стабильно. Вообще разгонный потенциал у GK104 явно выше потенциала Tahiti. Но полностью раскрыть его при жестком контроле мощности не удастся. Если не задирать предел до максимума, можно добиться большей базовой частоты, но тогда снизится Boost-частота. В итоге мы все равно получим тот же уровень производительности, что и ранее. Подобное мы уже наблюдали у Radeon HD 7900: производительность при большей частоте без повышения PowerTune соответствует меньшей частоте с максимальным пределом PowerTune.

Отметим еще, что разгон мы осуществляли при максимальных оборотах вентилятора. Режим мало практичный, ведь шум очень высокий. Впрочем, и частоты разогнанного Radeon HD 7970 в нашем тестировании достижимы на референсе только при высоких оборотах и шуме. Поэтому основные конкуренты в равных условиях. А мы получим возможность сравнить потенциал каждой видеокарты.
Характеристики тестируемых видеокарт

Видеоадаптер GeForce GTX 680 GeForce GTX 580 Radeon HD 7970
Ядро GK104 GF110 Tahiti
Количество транзисторов, млн. шт 3500 3000 4312
Техпроцесс, нм 28 40 28
Площадь ядра, кв. мм 294 520 365
Количество потоковых процессоров 1536 512 2048
Количество текстурных блоков 128 64 128
Количество блоков рендеринга 32 48 32
Частота ядра, МГц 1006+ 772 925
Частота шейдерного домена, МГц 1006+ 1544 925
Шина памяти, бит 256 384 384
Тип памяти GDDR5 GDDR5 GDDR5
Частота памяти, МГц 6008 4008 5500
Объём памяти, МБ 2048 1536 3072
Поддерживаемая версия DirectX 11.1 11 11.1
Интерфейс PCI-E 3.0 PCI-E 2.0 PCI-E 3.0
Заявленная максимальная потребляемая мощность, Вт 195 244 250

Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Core i7-975 EE (3,2@4,15 ГГц, BCLK 173 МГц);
  • кулер: Thermalright Venomous X;
  • материнская плата: Gigabyte GA-X58A-UD3R (Intel X58 Express);
  • память: G.Skill F3-12800CL8T-6GBRM (3x2GB, DDR3-1600@1730 МГц, 8-8-8-24-1T);
  • жесткий диск: Hitachi HDS721010CLA332 (1 ТБ, SATA2, 7200 об/мин);
  • блок питания: Seasonic SS-750KM (750 Вт);
  • операционная система: Windows 7 Ultimate x64;
  • драйвер Radeon: ATI Catalyst 12.3;
  • драйвер GeForce GTX 580: NVIDIA GeForce 296.10;
  • драйвер GeForce GTX 680: NVIDIA GeForce 301.10.
В операционной системе были отключены User Account Control, Superfetch, Windows Defender и визуальные эффекты интерфейса. Настройки драйверов стандартные, без изменений.

Методика тестирования

Игры расположены в алфавитной порядке в соответствии с их полным названием. В конце приведены результаты тестирования в 3DMark 11.

При разрешении 1920x1080 все параметры и дальность прорисовки установлены на максимум, сглаживание 8x. Тестирование проводилось на самом первом уровне после первой контрольной точки. По четыре раза переигрывалась коротенькая сценка: идем по шоссе к фонарю, потом камера пролетает сквозь затуманенный лес и показывает маяк, продолжаем движение до разрушенного моста. Измерения производились с помощью Fraps. Минимум производительности приходится на момент пролета камеры над лесом во время фиксации на маяке.

Выставлены максимальные настройки качества изображения под DirectX 11, детализация «экстремальная», сглаживание 8x MSAA. Использовался встроенный тест производительности, который прогонялся по четыре раза. В случае большого разброса результатов проводились дополнительные прогоны теста. Проведено тестирование при дополнительной активации эффектов PhysX высокого качества. Для GeForce использовалось аппаратное ускорение PhysX средствами видеокарты, в системе с Radeon вся нагрузка естественно ложилась на центральный процессор.

Частота кадров измерялась при помощи Fraps. Выбрана миссия «Молот и наковальня» (Rock and a hard place). После первой контрольной точки мы спускаемся по склону холма в долину до укреплений врага. Тестовая сценка включала кроме спуска начало перестрелки при штурме первого ряда укреплений. Огонь велся по двум точкам из-за укрытия через прицел. С учетом простого спуска общий порядок действий легко повторим, а итоговые результаты не зависят от случайных факторов. Плюс в кадре находится не только большая площадь с детализированными текстурами, но и световые эффекты выстрелов, и взрывы. Это помогает создать максимально адекватную картину реальной производительности как в сложных насыщенных сценах одиночной кампании, так и в многопользовательских схватках. Все параметры детализации и качества на Ultra под DirectX 11, задействован максимально возможный режим сглаживания AA4x.

Два пятикратных прогона демо Ambush из Crysis Warhead Benchmarking Tool. Настройки графики максимальные (Enthusiast) под DirectX 10 при сглаживании AA8x.

С последними обновлениями и текстурным паком Crysis 2 является одной из самых ресурсоемких современных игр. Но вот нормальных средств тестирования для игры по-прежнему нет. Результаты Adrenaline Crysis 2 Benchmark Tool далеки от реальности. К примеру, если в этом тесте карта выдавала более 70 fps, то в реальной игре 50. Бенчмарк от NVIDIA (oaMan) должен быть более объективным, потому как моделируют более сложную сцену. Вот только подружить его с нашей версией Crysis 2 нам так и не удалось (судя по иностранным форумам, мы такие не одни). В итоге приходиться действовать по старинке, переигрывая определенный эпизод игры с измерением fps при помощи Fraps.

По три четыре раза переигрывалась небольшая сценка на первом уровне. Прогулка по парковой аллейке сопровождалась расстрелом водной поверхности и группы камней (именно в такие моменты наблюдаются сильные просадки fps). В итоге тест получился хоть и короткий, но разнообразный и насыщенный, с обилием сложных геометрических объектов и поверхностей, для которых используется тесселяция, плюс дым из множества частиц и динамически изменяющаяся поверхность воды. Результаты могут немного отличаться от старых тестов, потому как теперь мы увеличили количество стрельбы, чтобы немного повысить нагрузку. Все настройки графики Ultra, включены текстуры повышенного разрешения.

Встроенный тест производительности (трасса Aspen), четыре прогона для уменьшения погрешности. Разрешение 1920x1080, все настройки графики максимальные (High и Ultra) при сглаживании 8x MSAA.

Deus Ex: Human Revolution

Данная игра отличается низкими требованиями к видеокарте, что вполне объясняется скромными возможностями графического движка, хотя поддержка DirectX 11 имеется. Для теста специально подобрана сценка, в которой задействованы разные визуальные эффекты. Дело в том, что кроме улучшенной системы освещения под DirectX 11 используются еще эффекты глубины резкости и тесселяция для персонажей. Сам тест включал небольшую пробежку по ярко совещенной взлетной площадке до вертолета и начало диалога Адама с Фаридой. В диалогах нам как раз и демонстрируют крупным планом персонажей, а задний план «прячется» за эффектом Depth of field. С учетом ярко освещенного фона и бликующей поверхности вертолета, нагрузка на видеокарту лишь повышается. Так что такая простая сценка вполне позволит судить о реальной производительности в игре. Настройки максимальные под DirectX 11, включено «краевое сглаживание». Четыре повтора.

Hard Reset

Ранее тесты в этой игры производились в «ручном» режиме — переигрывался небольшой эпизод и замерялся fps при помощи Fraps. Этот метод наиболее точно отображал ситуацию в игре. Мы специально подобрали уровень «Шоссе» и главу «Госпиталь» с насыщенными световыми эффектами, где расстреливали из энергетического оружия машины в стеклянном ярко освещенном туннеле. Множество взрывов, вспышек и разных визуальных эффектов — все как во время самых горячих перестрелок с множеством врагов. Но после разразившейся полемики в нашей Конференции сделан выбор в пользу более простого встроенного теста производительности. В нем камера пролетает над улицам ночного города, насыщенных взрывами и вспышками эпизодов немного. Поэтому итоговые результаты по среднему fps высокие. И мы бы рекомендовали ориентироваться на минимальный fps, потому как именно он покажет, насколько плавно будет идти игра во время динамичных перестрелок.

Максимальные настройки качества («Высоко»), сглаживание AA4x, разрешение 1920x1080. Пять прогонов встроенного теста для уменьшения погрешности.

Максимальные настройки качества, сглаживание в режиме 8x. Дополнительные параметры в виде размытия фона и улучшенной воды, которые доступны только на решениях GeForce, не активировались. По четыре раза прогонялся встроенный тест производительности «Бетонные джунгли» (Concrete Jungle), минимальный fps фиксировался с помощью Fraps.

Использовался специальный бенчмарк, который был выпущен независимо от игры. По два раза прогонялся наиболее тяжелый Test B при максимальных настройках качества под DirectX 11. Минимальный fps фиксировался с помощью Fraps. Ранее мы отмечали, что обходились без него по причине странных просадок на некоторых видеокартах в последней сцене, буквально за секунду за окончания теста. Ситуация не изменилась, такие просадки заметны на всех GeForce и на некоторых Radeon. Хотя если сравнивать графики частоты кадров на разных картах, ясно, что реальный минимум у всех приходится на сцену в середине теста. А падение частоты кадров до одного и того же уровня на разных графических решением на предпоследней секунде теста никак не определяется мощностью этих самых графических решений. Поэтому мы просто прерывали Fraps перед этой сценой. Сглаживание 4x MSAA. MSAA в режиме 8x поддерживается лишь на Radeon, для GeForce предлагаются уже режимы CSAA.

Metro 2033

Стандартный тест производительности, демо Frontlines. Настройки графики Very High под DirectX 11, включены тесселяция и эффект Depth of Field. Дополнительно проведены тесты со сглаживанием AA4x. Итоговые данные — среднее значение по итогам трех пятикратных прогонов демо-записи.

Saints Row: The Third

Эту игру ранее мы уже использовали для тестирования Radeon HD 7970 и Radeon HD 7950. В этот раз подобрана чуть более сложная сценка с множеством источников освещения. Это первая прогулка по городу после перестрелки в самолете. Пробегаем через переулок красных фонарей до машины, которую нам предлагают украсть, и расстреливаем ее из автомата. Настройки графики Ultra в разрешении 1920x1080 при сглаживании 8x MSAA. Четыре повтора для уменьшения погрешности.

Для тестирования выбрана площадь с обелиском на первом уровне «Лето в Каире». Территория предварительно зачищена от врага и сам тест включал простую пробежку по данной площади сквозь зеленые насаждения. Даже без перестрелок и взрывов сцена очень тяжела из-за обильной растительности и большой территория с детализированным окружением. Разрешение 1920x1080, качество графики на Ultra. Некоторые параметры установлены в еще более высокое значение: технология и качество Parralax, качество объемного освещения, плотность теней. Сглаживание MSAA в режиме 8x. Поэтому на графике эти настройки обозначены как Ultra+. Для иллюстрации наших нестандартных настроек ниже приведены соответствующие скриншоты из меню игры.



Четыре повтора теста для более точных итоговых результатов.

Sid Meier"s Civilization 5

Максимальные настройки графики под DirectX 11, сглаживание AA8x. Запускался Late Game View benchmark, который включает глобальную детализированную карту с множеством объектов на ней. Карта изначально сделана для мониторов с соотношением сторон 16:10, поэтому вне зависимости от настроек разрешения тестовая сценка будет рендериться в 1680x1050 или 1920x1200. На мониторе Full HD будет работать только 1680x1050. Поэтому данная игра единственная, в которой задействовано такое разрешение. Итоговый результат в баллах, а не в fps. Отметим еще, что учитывался лишь Full Render Score при полнофункциональном рендеринге.

The Elder Scrolls V: Skyrim

Для тестирования выбрана самая первая скриптовая сценка, в которой заключенных везут в город по горной дороге. С помощью Fraps измерялась частота кадров от момента появления логотипа The Elder Scrolls до проезда через ворота (130 секунд). Камера в фиксированном положении. После приглашения осмотреться ее положение изменялось так, чтобы по центру была дорога и открывался больший обзор вдаль. Настройки графики Ultra при сглаживании AA8x. Активированы текстуры повышенного разрешения. Ограничение в 60 fps отключено путем добавления строки iPresentInterval=0 в Skyrim.ini.

Использовался встроенный тест производительности. Настройки графики установлены на максимум, плюс активированы все дополнительные возможности рендеринга для DirectX 11, которые сама игра не включает при выборе максимального качества. Поэтому наши настройки обозначены как Ultra+. Тестирование проводилось при сглаживании MSAA в режимах 4x и 8x.



Тесты в двух режима сглаживания проведены потому, что мы планировали использовать полученные результаты для сравнения с Radeon HD 7870/7850, в котором будет присутствовать и GeForce GTX 570. Но из-за небольшого объема памяти на GeForce GTX 570 бенчмарк с максимальным сглаживанием просто не запускается. Вот и вышло, что старшие карты протестированы в двух режимах.

Тест прогонялся по два раза для каждого режима. Минимальный fps фиксировался Fraps.

Тестирование проводилось при максимальных настройках качества без активации «запредельного качества» и при включении этого параметра. В этой игре некоторые параметры при выборе максимального профиля настроек можно поднять еще выше. Поэтому приводим скриншоты наших настроек.



Тест — пробежка по селению Биндюга и лесной тропинке до разрушенного моста. Четыре повтора. Частота кадров измерялась Fraps.

Тест проводился на профиле настроек Performance (1280x720) и Extreme (1920x1080). На графиках приведен общий итоговый балл и GPU Score.

Энергопотребление

Во время игрового тестирования измерялся уровень общего энергопотребления тестового стенда. Для того, чтобы сравнение энергопотребления видеокарт было максимально объективным, мы проводили замеры в нескольких приложениях. На эту роль выбрано 8 ресурсоемких игр, большинство из которых тестировалось автоматическими средствами, т.е. при помощи встроенных тестов. Список игр, в которых проводились замеры, следующий:

  • Colin McRae: DiRT 3;
  • Hard Reset;
  • Lost Planet;
  • Metro 2033 (режим без AA);
  • The Elder Scrolls V: Skyrim.
В этом списке две игры, в которых тестирование проводилось «ручным» методом. Во время каждого прогона теста фиксировались пиковые значения мощности, потом рассчитывалось среднее пиковое для каждого приложения, а на их основе — среднее итоговое значение.
Результаты тестирования


Эту игру мы не в первый раз используем для тестирования. Но только в этот раз совершенно случайно заметили странное поведение видеокарт GeForce. Оказывается, что после сворачивания и разворачивая игры производительность в ней повышается. Забавно. С подобным мы уже как-то сталкивались, но это было давно, еще на Radeon HD 4890, и в совершенно другой игре.

Вначале рассмотрим результаты без всяких дополнительных манипуляций.


С огромным отрывом впереди Radeon HD 7970. GeForce GTX 680 обходит предшественника лишь на 18% по среднему fps, по минимальному между ними мизерная разница.

Ну а теперь взглянем на ситуацию после сворачивания по Alt+Tab. Сразу отметим, что результаты Radeon HD 7970 после этой операции немного падали, и мы использовали старые данные тестирования до сворачивания. А то совсем бы нечестно вышло по отношению к конкуренту.


Неплохой такой прирост в 15% по среднему fps и в 25% по минимальному для GeForce GTX 680. Правда, это все равно не позволяет догнать конкурента AMD. Да и с предшественником разница по минимальному показателю по-прежнему минимальная. Скорее всего, дело в пропускной способности памяти, которая у GeForce GTX 680 и GeForce GTX 580 одинаковая. Ранее, на примере более простых видеокарт, мы уже имели возможность убедиться, что игра очень чувствительна к частотам памяти и ее общей пропускной способности.



Необычный результат в . Огромное преимущество новичка над соперниками по среднему fps, но по минимальному он на последнем месте. По этому параметру лучше всех вообще оказывается старый GeForce GTX 580. Возможно, дело в программной поддержке. Если GeForce GTX 580 выдавал довольно стабильные результаты по минимальному fps, то у GeForce GTX 680 с каждым новым прогоном они отличались от предыдущих. В итоге и вышло такое небольшое среднее значение. Если же отталкиваться только от среднеигрового параметра, отрыв от Radeon HD 7970 внушительный и достигает 42%.


При включенном PhysX по среднему fps новичок опережает конкурента AMD на 26%, по минимальному показателю разница в 17%. По этому параметру лидер снова GeForce GTX 680. Да и в целом старичок в этой игре хорош, он быстрее нового флагмана AMD во всех режимах.



В преимущество GeForce GTX 680 не требует никаких оговорок. И по минимальному и по среднему fps новинка ушла далеко вперед от соперников, обогнав предшественника на 41/35% (минимальный/средний fps), а конкурента AMD на 32/28%. При разгоне Radeon HD 7970 и GeForce GTX 680 разница между ними снижается до 21%.



Crysis и все еще остаются одними из самых красивых игр, поэтому результаты тестирования в этих приложениях не теряют актуальности. Современные видеокарты уже легко справляются с этим приложением и демонстрирует высокий fps даже в самом тяжелом режиме сглаживания. Лидирует GeForce GTX 680. Его преимущество над Radeon HD 7970 в этот раз чуть меньше 8%. С разгоном у соперников примерный паритет: один быстрее по среднему fps, у другого выше минимальный показатель.



Ситуация в неоднозначна. GeForce GTX 680 обгоняет конкурента AMD на 6% по среднему fps, но оказывается хуже примерно на 28% по минимальному показателю. Даже с разгоном у новичка минимальный fps чуть ниже, чем у Radeon HD 7970 без разгона. Так что комфортнее играть будет на флагманском ускорителе AMD.



А вот тут снова все однозначно и лидерство GeForce GTX 680 не вызывает вопросов. Отрыв новичка от Radeon HD 7970 достигает 25%. Даже с разгоном конкурент оказывается слабее нового флагмана NVIDIA, работающего в номинале.

Deus Ex: Human Revolution


Встроенный тест производительности Hard Reset демонстрирует преимущество GeForce GTX 680 над Radeon HD 7970 в 17% и 9% по среднему и минимальному fps. Но тут, похоже, мы уже уперлись в возможности центрального процессора, что наглядно демонстрирует мизерный прирост от разгона у GeForce GTX 680. Еще стоит отметить, что по минимальному показателю у новичка снова большой разброс. Возможно, новый драйвер это поправит и увеличит преимущество над конкурентом.


Внимательные читатели нашего сайта могут заметить, что приведенные ниже результаты в слабо согласуются с первым тестированием Radeon HD 7970 . Результат GeForce GTX 580 стал ниже, в итоге карта оказалась слабее флагмана AMD, а ранее у нас было наоборот. С последними обновлениями в игре появились разные режимы 8x CSAA и 8x MSAA для GeForce. Скорее всего, раньше игра некорректно устанавливала режим 8x, подменяя его на более производительный CSAA. Теперь же мы получили возможность точно фиксировать режим MSAA у всех видеокарт.


GeForce GTX 680 снова в лидерах, отрыв от конкурента 16% и 22% по среднему и минимальному fps. С повышением частот Radeon обгоняет работающий в номинале Kepler, но лишь по среднему fps. Разница между обоими картами на повышенных частотах составляет 13% и 6%.



В этом тесте Radeon даже чуть-чуть уступает GeForce GTX 580 по минимальному fps. Ну а с GeForce GTX 680 разница и вовсе огромная. По минимальному показателю Kepler лучше конкурента AMD на 44%, по среднему fps — на 19%.
Metro 2033
Уже не раз мы отмечали преимущество решений NVIDIA в игре Saints Row: The Third . Новые драйвера не сильно изменили ситуацию. Radeon HD 7970 проигрывает даже GeForce GTX 580, ну а у GeForce GTX 680 и вовсе огромный отрыв в 53%. И разгон Radeon по-прежнему дает небольшой прирост, не соответствующий приросту по частотам.



При максимальных настройках качества «Серьезный Сэм 3 » создает весьма серьезную нагрузку на топовые видеокарты. GeForce GTX 680 чуть лучше Radeon HD 7970 по минимальному fps, но чуть слабее по среднему показателю. Так что можно констатировать примерное равенство соперников в номинальном режиме. При разгоне флагман AMD все же выходит вперед, но и разгон относительно начальных частот у него немного больше, чем у GeForce GTX 680.

В Skyrim лидирует GeForce GTX 680. Небольшая разница в результатах (особенно по минимальному fps) снова говорит о недостаточной мощности CPU. Однако это не мешает GeForce GTX 680 немного улучшить минимальный fps при разгоне, в то время как у Radeon HD 7970 он остается прежним.



Одна из немногих игр под DirectX 11, где сильны были позиции видеокарт AMD. Теперь же тут новый лидер — GeForce GTX 680. Radeon HD 7970 слабее на 16/20% по минимальному/среднему fps. Разница между новым и старым GeForce огромная — 63/57%.


В самом тяжелом режиме сглаживания ситуация немного меняется. Резко падает производительность у топового Radeon, что даже позволяет разогнанному GeForce GTX 580 обогнать его. Преимущество GeForce GTX 680 над конкурентом AMD возрастает до 42/35%. И такое отставание Radeon HD 7970 уже не может компенсировать разгоном.




Во втором «Ведьмаке » новичок уверенно лидирует, демонстрируя максимальный отрыв от флагмана AMD по минимальному fps (20—22%). По среднеигровому показателю разница между ними 5—7%. Прирост от разгона достигает 18—19%, что как раз соответствует приросту по частоте GPU. В этой игре пропускная способность памяти не ограничивает потенциал GeForce GTX 680. Режим «запредельного качества» все еще остается очень тяжелым для рассматриваемых видеокарт, но с разгоном Kepler выдает вполне приемлемый fps.



В этом тесте преимущество GeForce GTX 680 над GeForce GTX 580 достигает почти 56%, преимущество над Radeon HD 7970 равно 19%. Повышение частот помогает поднять результат почти на 18%. Разогнанный Radeon HD 7970 лишь на пару процентов обгоняет работающий в номинале GeForce GTX 680.

Энергопотребление

Вначале немного комментариев об остальных участниках тестирования. В роли GeForce GTX 580 у нас выступал видеоадаптер Zotac GeForce GTX 580 AMP! Edition. Это полный референс, но слегка разогнанный. Для тестирования корректировались не только его частоты, но и рабочее напряжение — оно снижалось до 1,0 В. В Crysis 2 пришлось устанавливать 1,013 В. В разгоне видеокарта работала при напряжении 1,113 В. Референсного Radeon HD 7970 у нас на руках не было. Замещает его MSI R7970 Lightning на пониженных частотах. Но столь сложная технологически плата не может быть экономнее более простого референса. Да еще у нашего экземпляра было немного завышено напряжение, но это мы компенсировали, зафиксировав его на стандартных 1,175 В (контроль велся с помощью мультиметра). При разгоне видеокарта функционировала при напряжении 1,218 (а это уже данные программного мониторинга).


В итоге чуда как-то и не получилось. Где-то GeForce GTX 680 действительно оказался экономичнее конкурента в лице Radeon HD 7970, но средний результат у него все равно вышел немного выше. Хотя разница настолько невелика, что правильнее скорее говорить об идентичном уровне энергопотребления у соперников. Вот только конкурент не совсем стандартный и с рефенсным Radeon HD 7970 разница могла оказаться и более заметной. Приятным моментом является меньшее энергопотребление GeForce при разгоне. Но, опять же, это следствие такого нрава Lightning, которому пришлось подавать аж 1,218 В. К примеру, ранее побывавший у нас референсный Radeon HD 7970 спокойно работал при разгоне на стандартном напряжении 1,175 В (но и разгон у него был меньше). На фоне аппетитов GeForce 580 прогресс у новичка все равно хороший, ведь разница в производительности значительная, а потребляемая мощность меньше.

Выводы

Что же мы имеем в итоге? Из восемнадцати тестовых приложений GeForce GTX 680 проиграл Radeon HD 7970 в четырех, ситуация в Crysis 2 тоже складывается не в пользу новичка, в Serious Sam 3 паритет. В остальных случаях лидирует GeForce GTX 680. Иногда отрыв от конкурента AMD настолько большой, что тот даже не может компенсировать его разгоном. Иногда соперников отделяют менее 10%, и тогда Radeon HD 7970 легко компенсирует свое отставание повышением частот. В целом, GeForce GTX 680 быстрее старшего графического ускорителя AMD, но не везде. Впрочем, последний не везде и GeForce GTX 580 обгоняет. О тотальном преимуществе Kepler в DirectX 11 тоже нельзя говорить, потому как есть Crysis 2 и Metro 2033, в которых новый GeForce выглядит неубедительно. Но есть еще и Batman: Arkham City, Battlefiled 3, Lost Planet 2, Total War: Shogun 2 и Saints Row: The Third, в которых новичок не дает ни единого шанса Radeon HD 7970. Примечательно, что кое-где ему удалось переиграть карту AMD на их же «поле». До этого в Shogun 2 всегда лидировали решения «красных». Зато традиционное лидерство в Crysis 2 новый GeForce не сумел поддержать, возможно с новым драйвером ситуация изменится.

Чувствуется, что кое-где узким местом становится шина памяти. Яркий этому пример Alane Wake, в котором минимальный fps у нового и старого флагманов NVIDIA почти не отличаются. А в Batman: Arkham City минимальный fps у новичка даже ниже. Но учитывая большой разброс результатов, это еще можно списать на сыроватый драйвер. Разница в Metro 2033 между предшественником и преемником тоже скромная.

Сладкие речи об экономичности новинки и 195 Вт против 250 Вт у старшего Tahiti так и остались красивыми словами. Потребляют обе карты примерно одинаково. Шум системы охлаждения GeForce GTX 680 можно назвать умеренным. Новинка тише и холоднее старого флагмана, GeForce GTX 580.

Немного неоднозначные результаты связаны с тем, что GeForce GTX 680 в том виде, в каком мы его получили, является максимально разогнанным графическим ускорителем среднего класса. Отсюда высокая рабочая частота графического процессора и технология GPU Boost, чтобы выжать еще пару дополнительных процентов производительности. И самое удивительное, что такой видеоадаптер вполне справился с ролью нового флагмана и сумел обогнать главного конкурента. Это говорит о высоком потенциале архитектуры Kepler. И если NVIDIA все еще работает над старшим GPU, то в будущем нас ожидает настоящий графический монстр. Возможно, именно он даст жизнь GeForce GTX 780, но будет это уже ой как нескоро.

Рекомендованная цена на GeForce GTX 680 немного ниже стоимости конкурента, за что ей легко можно простить результаты в Metro и Crysis 2. Но пока наблюдается дефицит этих видеокарт, продаваться они будут по завышенным ценам. Зато после насыщения рынка и нормализации цен GeForce GTX 680 грозит стать самой лучшей покупкой для состоятельного геймера. Radeon HD 7970 сохранит актуальность для мультимониторных конфигураций благодаря большему объему памяти. Ответом на это станет выпуск флагмана NVIDIA с четырьмя гигабайтами видеопамяти. Такую версию уже анонсировала компания Gainward, за ней последуют и другие модели от иных производителей. Веским аргументом в пользу AMD для определенной аудитории станет преимущество Radeon в неграфических вычислениях.

Закончим наш обзор на кратком комментарии к Zotac GeForce GTX 680 (ZT-60601-10P). Хотя особо писать о ней нечего, ведь это референс и все сказанное выше в полной мере относится к Zotac. И на фоне других представителей серии данную модель выделяет только отличная комплектация. Три части Assassin"s Creed станут великолепным бонусом к покупке. Хороший аргумент, чтобы остановить свой выбор именно на этой карте.

Оборудование для тестирования было предоставлено следующими компаниями:

  • 1-Инком — память G.Skill F3-12800CL8T-6GBRM;
  • Gigabyte — материнская плата Gigabyte GA-X58A-UD3R;
  • Intel — процессор Intel Core i7-975 EE;
  • MSI — видеокарта R7970 Lightning;
  • Syntex — блок питания Seasonic X-750;
  • Thermalright — Thermalright Venomous X;
  • Zotac — видеокарты GeForce GTX 680 и GeForce GTX 580 AMP! Edition.

Обзор GeForce GTX 680 | Конструкция

nVidia любит проводить параллели. На виртуальном поле боя каждой видеокарте предыдущего поколения даётся своя роль. GeForce GTX 480 была "танком" – высокий уровень производительности сопровождался высокой ценой, энергопотреблением и тепловыделением. GeForce GTX 460 можно отнести к "боевому вертолёту", которому свойственен баланс скорости, эффективности и более доступной цены. И наконец, видеокарту GeForce GTS 450 сравнивают со "снайпером", за её способность обеспечивать комфортный уровень FPS на разрешении 1680x1050.

Такое сравнения выглядит немного глупо, но благодаря ему проще установить уровень GeForce GTX 680 . Хотя название (и цена) относят её к флагманским моделям карт nVidia с одним GPU, она определённо походит на "боевой вертолёт" - геймерскую видеокарту. Она отлично справляется с играми, так же как и GeForce GTX 460 .

Позиционирование

Независимо от того, для какой цели она была спроектирована, на её позицию на рынке сильнее всего повлияет конкуренция. Возможно, в планах AMD есть и более мощные модели, о которых мы пока не слышали. Однако, в контексте шести карт серии Radeon HD 7000 которые уже доступны, nVidia точно знает, с чем ей предстоит столкнуться.

По сравнению с SM чипа GF104, SMX у нового GK104 используют в два раза больше планировщиков "варпов" (warp shedullers) (четыре вместо двух), блоков диспетчеризации (восемь вместо четырёх) и текстурных блоков (шестнадцать вместо восьми) на шейдерный мультипроцессор, наряду с регистровым файлом, который тоже в два раза больше. Также новый GPU использует в два раза больше ядер CUDA. GF104 включает 48 шейдеров на SM, у GK104 это количество возрастает до 192.


GK104 SMX (слева) против GF104 SM (справа)


GF104 GК104 Коэффициент
Ядер CUDA 48 192 4x
Специальных блоков 8 32 4x
Load/Store 16 32 2x
Текстурных блоков 8 16 2x
Планировщик "варпов" 2 4 2x
Движки геометрии 1 1 1x

Почему ядер CUDA в четыре раза больше, а остальных ресурсов только в два? Шейдеры Kepler работают на частоте процессора (1:1). В архитектурах прошлого поколения (начиная с G80) шейдеры работали на частоте в два раза превышающую частоту ядра (2:1). Таким образом, для удвоения шейдерной пропускной способности на данной частоте требовалось в два раза больше ядер работающих на половине скорости.

Тогда возникает вопрос: с какой стати, nVidia в первую очередь уменьшила шейдерную частоту? Всё дело в тонком балансе производительности, мощности и размере кристалла. Fermi позволяет архитекторам nVidia оптимизировать пространство. Всё же меньше ядер занимают меньше места. Однако двойная скорость требует более высокой частоты и мощности. Kepler, напротив, направлен на эффективность. Поделив частоту шейдеров пополам, разработчики уменьшили энергопотребление. Однако сравнимый уровень производительности потребовал вдвое больше каналов данных. В результате Kepler жертвует размером кристалла для понижения мощности и логики, и ещё большей экономии при разгоне.

Дополнительная мощность и пространство на кристалле сокращены за счёт исключения некоторых аппаратных структур, используемых для помощи в планировании "варпов" и переносит эту нагрузку на программное обеспечение. Сводя к минимуму количество потребляемой энергии и пространство, занимаемое управляющей логикой, по сравнению с Fermi, для выполнения полезной работы освобождается больше места.

nVidia утверждает, что изменения в архитектуре SMX, теоритически, должны удвоить производительность на ватт по сравнению с предшественниками Kepler, это мы и проверим в сегодняшних тестах.

Итак. У нас есть восемь SMX, в каждом из них 192 ядра CUDA, вместе получается 1536. Шестнадцать текстурных блоков на SMX в целом дают 128 блоков на весь GK104. По одному геометрическому движку на каждый SMX, в сумме получаем восемь, однако у GF104 движков PolyMorph тоже восемь. Получается, что nVidia увеличила все остальные ресурсы, но не тронула исходную производительность? Не совсем так.

Для начала каждый движок PolyMorph, по словам nVidia, был переделан так, что его производительность на такт выросла в два раза по сравнению с геометрической логикой Fermi. Это улучшение хорошо прослеживается в синтетических тестах, которые, как (справедливо) считают разработчики, отражают будущее их разработок, где для высокого уровня реализма в играх используется гораздо больше геометрии. Но говоря о сегодняшних играх, таких как HAWX 2, что можно ожидать от новой архитектуры?



В абсолютном выражении, GeForce GTX 680 обгоняет Radeon HD 7970 и Radeon HD 7950 , независимо от того, используется тесселяция или нет. Однако, производительность новой карты nVidia снижается на 31% при включении тесселяции в настройках игры. Для сравнения, видеокарты Radeon на базе Tahiti теряет только 16%. Однако, в игре на производительность влияет не только тесселяция. Очень интересно наблюдать, как в современных играх обещания nVidia не вполне сбываются.

Чтобы поддержать возросшую пропускную способность геометрического блока, nVidia удваивает количество движков растеризации по сравнению с GF104, и соотношение с разделами ROP становится 1:1.

Как и в GF104, каждый ROP GK104 выводит восемь 32-битных пикселей за такт, в сумме получается 32. Оба GPU используют в совокупности 256-битные шины памяти, но отличия есть в максимальной пропускной способности памяти.

Вы заметили, что на первых двух разрешениях Radeon HD 6990 находится в самом низу? Два GPU Cayman не смогли помочь карте, как без сглаживания, так и с 8x MSAA. WoW сильно зависит от производительности центрального процессора. Между тем, CrossFire сильнее нагружает CPU, чем SLI. Учитывая это становится понятно, почему карта AMD с двумя GPU остаётся позади всех, хотя включение сглаживания влияет на производительность совсем немного.

Конечно, при повышении разрешения до 2560x1600 графическая нагрузка увеличивается, Radeon HD 6990 догоняет nVidia GeForce GTX 680 и занимает третье место.

Metro 2033 (DX 11)

Тестирование видеокарт high-end класса позволило нам повысить настройки графики в Metro 2033. Мы по-прежнему не смогли получить постоянный комфортный уровень FPS на предустановке Very High, поэтому даже не стали пытаться включать фильтр глубины резкости на базе DirectCompute, который сильно влияет на производительность игры в целом.

С последним драйвером 296.10 от nVidia (и с некоторыми более ранними версиями), модели GeForce GTX 590 и GeForce GTX 580 не смогли выполнить этот тест, используя OpenCL либо DirectCompute.

Производительность вычислений в LuxMark 2.0

В прошлом флагманский GPU, который использовался в high-end картах Quadro и GeForce GTX 480 , nVidia уделила вычислительной производительности не меньше внимания, чем игровой.

В этот раз, во время презентации GeForce GTX 680 , компания предпочла вообще не говорить о общих вычислениях, отшучиваясь, что она потратила слишком много сил на этот аспект в архитектуре Fermi и не хочет возвращаться к нему снова.

Но, похоже, что компания действительно не хочет возвращаться к этому. Тест Sandra 2012 показал, что GeForce GTX 680 тянутся за картами серии Radeon HD 7900 в 32-битных вычислениях. И она просто раздавлена в 64-битных операциях с плавающей запятой, поскольку nVidia намеренно сдерживает производительность, чтобы защитить профессиональные видеокарты для бизнес решений.

Тогда не удивительно, что в тесте LuxMark 2.0 на базе OpenGl GeForce GTX 680 приползает к финишу последней.

Для сравнения, GPU GF110 видеокарт GeForce GTX 580 /590 лучше приспособлен для вычислений общего назначения. И nVidia утверждает, что лучше продаст карту Quadro для рабочих станций или отдельную видеокарту Tesla. Но мы хотим возразить, что видеокарты AMD серии Radeon HD 7900 являются вполне жизнеспособной альтернативой в данной нагрузке, по крайней мере, с точки зрения производительности (а не по цене).

NVEnc и MediaEspresso 6.5

Когда Intel представила технологию Quick Sync в качестве секретного оружия архитектуры Sandy Bridge, мы думали, что AMD и nVidia понадобится около года, чтобы перейти с перекодирования видео на базе CUDA и APP к более специализированному методу с фиксированными функциями, способному предоставить больше производительности при меньшем энергопотреблении.

AMD представила своё решение почти через год после выхода нашей статьи "Sandy Bridge: Intel Core второго поколения"

Функция Intel Quick Sync уже которой год принимает MPEG-2, VC-1 и H.264, и выводит MPEG-2 или H.264. С другой стороны, nVidia не даёт конкретную информацию о совместимых форматах. Но мы знаем, что она ограничена выводом H.264. Однако, максимальное разрешение для движка Intel оставляет 1080p на вход и выход, в то время NVEnc предположительно поддерживает кодирование вплоть до разрешения 4096x4096.

Как и Quick Sync, технология NVEnc, в данный момент, доступна через собственный API, хотя nVidia планирует предоставить доступ к NVEnc через CUDA.

Наша стандартная нагрузка для этого приложения включает перекодирование файла MPEG-2 размером почти 500 Мбайт в совместимый с iPad 2 ролик в формате H.264. Мы прогоняли его снова и снова, и всё же GeForce GTX 680 оказалась медленнее, чем GeForce GTX 580 или 590. Позже компания сообщила, что в драйвере есть баг, влияющий на производительность перекодирования MPEG-2.

Поэтому мы взяли другой трейлер на базе H.264 и снова провели тесты. NVEnc действительно существенно влияет на производительность, сократив время перекодирования почти вдвое, по сравнения с другими картами nVidia.

Стоит отметить, что у нас возникали некоторые проблемы с перекодированием с помощью аппаратного ускорения на картах AMD в приложении MediaEspresso, однако последние драйверы и обновления от CyberLink их решили. Несмотря на это, уровень производительности остался на среднем уровне. Хотя новые модели серии Radeon HD 7900 ещё пытаются преследовать карты nVidia предыдущего поколения в кодировании из H.264 в H.264, при перекодировании из MPEG-2 в H.264 всё гораздо хуже. В обоих случаях Radeon HD 6990 показывает слабый результат.

Сейчас, насколько мы знаем, AMD Video Codec Engine, представленный в прошлом году и концептуально похожий на NVEnc, по-прежнему не работает. Это хорошая возможность для AMD вернуться в игру. Как бы там ни было, тот факт, что поддержки драйвера нет по прошествии месяца, совсем не радует.

Обзор GeForce GTX 680 | Температура и шум

Шум и температура при бездействии


Однако, усилия инженеров и преимущества 28-нм техпроцесса сделали своё дело. GeForce GTX 680 тише любой другой high-end видеокарты в простое. И похоже для её охлаждения не нужен очень большой поток воздуха. После десяти минут простоя холоднее этой карты оказалась только GTX 590.

Шум и температура при нагрузке


Поведение видеокарты под нагрузкой более красноречиво, чем при простое. Здесь GeForce GTX 680 действительно впечатляет, показав самый низкий уровень шума.

И хотя карта довольно тихая, её кулер держит температуру под контролем.

Однако, технология AMD ZeroCore, в отличии от nVidia, помогла компании снизить результаты при выключенном дисплее. Энергопотребление обеих карт Radeon HD 7900 снизилось на 13-16 Вт, а у GeForce GTX 680 только на 2 Вт. Это лучше, чем у GeForce GTX 580 , однако, AMD здесь бесспорно ведёт.

Как мы уже видели в нескольких тестах производительности, GeForce GTX 680 близко подбирается к уровню производительности GeForce GTX 590 и Radeon HD 6990 , и даже может обойти их в играх типа DiRT 3. Но взгляните на разницу в энергопотреблении.

GeForce GTX 680 показывает относительно прямую линию на протяжении всего теста, это говорит о том, что GPU Boost постоянно подстраивает частоту/напряжение для работы в пределах теплового пакета.

Но хотя эта информация интересна в теории, на практике производительность на ватт может быть совсем другая. Так что давайте проверим её другим путём.

Обзор GeForce GTX 680 | Производительность на ватт: индекс

И AMD, и nvidia заявляют, что их карты предлагают непревзойдённый уровень производительности на ватт, и мы верим обеим компаниям.

Однако, nVidia делает дополнительный шаг, настраивая частоту и напряжение в реальном времени, основываясь на идее, что нет двух рабочих нагрузок, которые требуют одинаковое количество мощности. В результате мы не можем просто протестировать одну игру, поделить среднюю частоту кадров на среднее энергопотребление и сказать, что результаты отражают все игры. Но у нас нет времени тестировать каждую игру на каждом разрешении (да потребление энергии зависит от разрешения, детализации и т.д.). Поэтому мы взяли игры из нашего тестового набора, настроили их на разрешение 1920x1080 и максимально высокое качество графики, и представили график поведения каждой из них на всех шести видеокартах.

Чтобы не загромождать обзор данными, мы представили шесть игр на четырёх картах. У нас есть результаты GeForce GTX 590 и Radeon HD 6990 , но они просто ужасные.

Не важно, что какой-то тест закончился быстрее других. Главное, что у нас есть данные мощности, наряду с уровнем производительности, получившимся во время тестового прогона. Чтобы показать результаты на диаграмме, мы совместили верхние и нижние границы энергопотребления системы в каждой игре, и ни в одной не получили идентичных результатов.

Обзор GeForce GTX 680 | Заключение

Иногда при появлении новых видеокарт бывает довольно тяжело выяснить, оправдывают ли производительность и функциональность стоимость новинки. Это не наука и верный ответ не всегда бывает предельно ясным. Но не в этот раз.

Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460 , nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580 .

Учитывая данные тестов, выдающийся список возможностей и конкурентную цену можно сделать вывод, что GeForce GTX 680 для геймера лучше, чем Radeon HD 7970 . И поскольку nVidia, наконец, поддерживает два выхода на монитор, для нашей рабочей станции мы выбираем архитектуру Kepler.

Но это, конечно, если не пожалеть $500. Геймеры с ограниченным бюджетом не должны забывать, что видеокарта Radeon HD 7870 , которую AMD выпустила чуть ранее в этом месяце, недавно появилась в онлайн-магазинах. Учитывая ценник в $360 мы считаем, что это более разумный выбор, нежели карты серии 7900. В тестах она идёт наравне с GeForce GTX 580 , но требует меньше мощности.


Компания NVIDIA анонсировала новое поколение видеокарт, первым представителем которого стала GeForce GTX 680 . Сейчас мы разберемся, что скрывается под кодовым названием Kepler , сколько ядер получил свежий кристалл, на какой частоте он работает и сколько при этом потребляет. Ну и, конечно, ответим на извечный вопрос: «Кто быстрее, NVIDIA или AMD?».
«Игромания» одной из первых получила новинку на тест и спешит поделиться результатами.
Реорганизация


Архитектура Fermi , на которую NVIDIA делала ставку последние пару лет, себя исчерпала: в GTX 680 дебютирует новый дизайн - Kepler . На первый взгляд, все по-прежнему: потоковые ядра объединяются в SM-модули, те, в свою очередь, образуют кластеры GPC, и уже из них собирается GPU. Изменились только количественные показатели.
Если в GF110 (GeForce GTX 580) каждый SM-модуль оснащался 32 потоковыми ядрами, то в Kepler их количество увеличилось в шесть раз - 192 штуки. Прибавилось и вспомогательных элементов: текстурников теперь 16 вместо 4, а блоков специальных операций - 32 против 4 SFU у GTX 580. Заметим, что растолстевшие SM переименовали в SMX, хотя принцип их работы не изменился.
Пара SMX и один блок растеризации образуют кластер GPC. Четыре таких набора составляют основу чипа GK104 - сердца GeForce GTX 680. Напомним, что GF110 тоже собирался из четырех GPC, но каждый включал не два, а четыре SM. Таким образом, новый GPU несет на борту 1536 потоковых процессоров и 128 текстурных блоков, в то время как GF110 довольствовался 512 ядрами и 64 TMU. А вот количество движков PolyMorph Engine , отвечающих за работу с тесселяцией, сократилось вдвое: 8 против 16 штук у прошлого поколения. Мало? Не тут-то было. NVIDIA не только переработала принцип их работы, но еще и на 30% увеличила частоту. Так что, по словам инженеров, общая производительность выросла примерно на 28%.

А вот от чего NVIDIA отказалась, так это от разделения частот. Если в Fermi потоковые процессоры работали на удвоенной скорости GPU, то в Kepler цифры сравнялись. С одной стороны, это хорошо, основные блоки получили существенную прибавку. С другой - заметно упала итоговая частота CUDA-ядер.
Еще одна потеря в Kepler - шина памяти. GK104 работает с четырьмя 64-битными контроллерами GDDR5, так что разрядность составляет 256 против 384 бит у GF110 и Thaiti на Radeon HD 7970 . Снизилось и количество блоков растеризации: 32 вместо 46 ROP у GTX 580.
Новые возможности


Появились в Kepler и новые технологии. Начнем с самой интересной - GPU Boost . Она следит за температурой и энергопотреблением графического процессора, и, если показатели не превышают критических значений, автоматически повышает частоту ядра и рабочее напряжение. Технология работает на аппаратном уровне и продолжает функционировать даже при ручном разгоне.
Другое важное нововведение - возможность работы на четырех мониторах. При этом для включения 3 DVision Surround (игры на трех дисплеях) больше не нужна связка SLI, хватит и одной GTX 680.
В состав GK104 вошел аппаратный модуль кодирования видео, получивший имя NVENC . Видеокарты NVIDIA и раньше неплохо справлялись с обработкой видеопотоков, но использовали для этого вычислительную мощь CUDA-ядер. Теперь они играют вспомогательную роль, основную работу выполняет новый модуль. По словам NVIDIA, чип позволяет в четыре раза увеличить скорость кодирования видео. Слабое место NVENC - число поддерживаемых кодеков: он знаком лишь с H.264.

Вместе с Kepler NVIDIA представила и два новых алгоритма сглаживания - FXAA и TXAA. Первый выступает в роли «дешевой» замены традиционному MSAA. Его влияние на производительность минимально, но расплачиваться приходится легкой размытостью картинки, так как FXAA - лишь фильтр постобработки. TXAA - более серьезный алгоритм, и, если верить NVIDIA, по качеству сглаживания он значительно превосходит MSAA, обеспечивая при этом сопоставимое падение производительности.
Отметим также, что в GK104 появился режим адаптивной вертикальной синхронизации. Здесь все просто: VSync активируется только в те моменты, когда значение fps оказывается выше частоты развертки экрана. Как следствие, проседание фреймрейта ниже заветного порога больше не приводит к резкому падению fps
Хладнокровный


Несмотря на трехкратное увеличение числа потоковых процессоров, количество транзисторов, используемых для построения чипа, возросло незначительно - с 3 до 3,54 млрд. При этом благодаря новому 28-нм техпроцессу площадь ядра и уровень энергопотребления получились небольшими. Даже при максимальной нагрузке TDP новинки не превышает 195 Вт, и это несмотря на то, что базовая частота достигла фантастической отметки в 1006 МГц, а при включении GPU Boost поднимается до 1058 МГц! Для сравнения - Radeon HD 7970, работающая на 925 МГц и несущая на борту 4,31 млрд транзисторов, потребляет 250 Вт.
Холодный нрав GK104 позволил упростить дизайн платы. У GTX 680 нет разъема 8-pin PCIe, столь любимого топовыми решениями, - новинка довольствуется парой 6-контактных розеток. На питание GPU выделено лишь четыре фазы, и, судя по разводке, от пятой отказались в последний момент. Длина GTX 680 - 25 см, что немного меньше, чем у флагманских GeForce предыдущих поколений.
Видеокарта комплектуется восьмью чипами GDDR5 общей емкостью 2 ГБ. Частота памяти равна рекордным 6008 МГц, что частично компенсирует низкую разрядность шины. Задняя панель оснащена четырьмя видеовыходами - HDMI 1.4a, DisplayPort 1.2 и парой DVI. В качестве интерфейса используется новый PCIe 3.0.
За охлаждение адаптера отвечает двухэтажная турбина. Она включает в себя крупный алюминиевый радиатор с тремя тепловыми трубками и необычную цилиндрическую вертушку, в конструкции которой используются звукопоглощающие материалы.
Первые в мире


Новенькую GeForce GTX 680 мы получили напрямую из российского офиса NVIDIA за пару дней до анонса. Внешний вид карты стандартный: вся поверхность закрыта черным пластиковым кожухом и украшена фирменными зелеными логотипами. По габаритам GTX 680 действительно чуть меньше своей предшественницы и выглядит очень аккуратно. Из нестандартных решений отметим необычное расположение контактов питания: два 6-pin гнезда стоят не в линию, а друг над другом.
Для тестирования видеокарты мы собрали такой же тестовый стенд, как и для AMD Radeon HD 7970. В основу легла материнская плата Gigabyte GA-X58A-UD3R , в качестве процессора использовали Core i7-920 , памяти поставили три планки Kingston HyperX DDR3-1666 МГц по 2 ГБ каждая, Windows 7 Ultimate 64-bit и тестовый пакет записали на Kingston SSDNow .
Изначально в списке приложений значились наши стандартные 3DMark 11 , Unigine Heaven Benchmark 2.5 , Resident Evil 5 , Just Cause 2 , DiRT 2 и Aliens vs. Predator . Однако после первого этапа тестирования мы решили добавить еще одну игру: Batman: Arkham City .
В качестве конкурентов новому флагману NVIDIA были назначены GeForce GTX 590 , GTX 580 , AMD Radeon HD 6970 , HD 7950 и HD 7970 . Правда, тест в Batman: Arkham City успели пройти только GTX 680 и HD 7970, результаты тестов остальных видеокарт мы представим чуть позже.
Быстрее?


Первый же тест - 3DMark 11 - вывел GeForce GTX 680 в безоговорочные лидеры. Новинка оказалась на 32% быстрее HD 7970 и приблизилась к итогам двойной GTX 590! Понравился Kepler и жадному до ресурсов Unigine Heaven Benchmark 2.5: убедительная победа над AMD с отрывом в 34%. В играх цифры получились не столь внушительными.
Resident Evil 5, как обычно, уперся в производительность процессора и выше 98,5 fps не поднялся. В Aliens vs. Predator такой проблемы не было. Новинка показала 57,7 fps в самом сложном режиме, что заметно больше, чем у GTX 580, HD 6970 и HD 7950, но на 2 fps меньше, чем у HD 7970, и на 33 кадра меньше, чем у GTX 590. Проиграл флагман «зеленых» и в Just Cause 2. Игра лучше идет на картах AMD, и отставание от HD 7970 составило 12 fps. А вот преимущество над прошлыми поколениями GeForce - порядка 12%. В DiRT 2 перевес оказался на стороне NVIDIA: GTX 680 обошла HD 7970 на 37 fps и выдала одинаковый с GTX 590 результат.
Точки над i расставил Batman: Arkham City. Для начала NVIDIA отличилась во время тестов со включенным на максимум PhysX. Даже с антиалиазингом 8x и разрешении 1920х1080 карточка показывала вполне играбельные 26 fps, в то время как HD 7970 еле дотянула до 20 кадров. Разница сохранилась и при отключенном PhysX. При MSAA 4х она составила 4-6 fps, а вот при переходе на 8х разрыв увеличился до 15-18 кадров.
* * *

Новая GeForce GTX 680 нас впечатлила. И не столько производительностью, сколько технологичностью. Kepler вобрал в себя все известные на сегодня технологии: автоматический разгон по запасу TDP, оригинальные режимы сглаживания, возможность игры на трех мониторах, отдельный чип декодирования видео, PhysX, 3DVision, шумоизоляцию системы охлаждения. И все это при крайне скромном энергопотреблении - 195 Вт при пиковой нагрузке. Конечно, это не говорит о полной победе NVIDIA. Все эти технологии, кроме PhysX, есть и в свежем Radeon HD 7970, да и по скорости карты не сильно отличаются. Но с чисто технической точки зрения, флагман NVIDIA - лидер среди плат нового поколения.
Полный обзор NVIDIA GeForce GTX 680 читайте в «Игромании» №05/2012, где мы подробнее рассмотрим новые методы сглаживания, адаптивный VSync, разгон и производительность в режиме 3 DVision.

На данный момент стандарт Full HD стал повсеместным. Даже бюджетные мониторы небольших диагоналей нынче щеголяют разрешением 1920x1080 точек, не говоря уже о крупногабаритных моделях. С некоторых пор даже мобильные телефоны начали осваивать этот стандарт. А под конец года поспеют и новые игровые консоли с поддержкой честного Full HD. Но компьютерные энтузиасты уже осваивают новые горизонты, экспериментируя с мультимониторными конфигурациями и присматриваясь к мониторам повышенного разрешения 2560x1440. И если с 1920x1080 современные топовые однопроцессорные видеокарты легко справляются, то для более тяжелых режимов им может не хватить сил.

В данной статье мы как раз решили выяснить, насколько успешно справятся GeForce GTX 680, Radeon HD 7970 и Radeon HD 7970 GHz Edition со сверхвысоким разрешением 2560x1440. Ранее мы не раз сводили вместе GeForce GTX 680 и простой Radeon HD 7970. Первый всегда успешно доказывал свое преимущество на заводских частотах в большинстве приложений, а второй уравнивал шансы при разгоне. Но в 2560x1440 все может сложиться не столь удачно для видеоадаптера NVIDIA из-за меньшего объема видеопамяти и более узкой шины. Не было у нас и полноценного сравнения с Radeon HD 7970 GHz Edition. Честно говоря, и в этот раз референсного образца такой карты тоже не будет, мы просто приведем имеющийся у нас Radeon к соответствующим частотам. Плюс ко всему, это самое масштабное сравнение конкурентов от AMD и NVIDIA, включающее 21 тестовое приложение.

Никаких новых оригинальных видеокарт рассмотрено не будет, но мы все же бегло пробежимся по характеристикам участников.

GeForce GTX 680

Со стороны NVIDIA в нашем сравнении примет участие графический ускоритель от ASUS GTX680-2GD5.


Ничего особого в данной модели нет. С первого взгляда ясно, что это копия референса .


Сбоку красуется огромная надпись GeForce GTX. Шестиконтактные разъемы дополнительного питания расположены друг под другом, что является отличительной особенностью таких видеоадаптеров.


Малое количество декоративных элементов сводит к минимуму визуальные отличия от эталонной карты NVIDIA. Зато смотрится строго и солидно.


Нижняя фотография системы охлаждения еще раз демонстрирует полную конструктивную идентичность с референсными образцами.


Рабочие частоты стандартные. Память GDDR5 функционирует на эффективной частоте 6008 МГц. Базовая частота графического процессора 1006 МГц, а официальный Boost Clock 1059 МГц. Последний параметр, напомним, является средним значением повышенной частоты при работе технологии Boost. Пиковое значение у нашего экземпляра равно 1124 МГц. В зависимости от энергопотребления частота варьируется так, чтобы видеокарта не вышла за установленные ограничения по мощности. В тесте Crysis: Warhead на максимальном качестве графики при сглаживании MSAA 8x в разрешении 2560x1440 процессор почти все время держался в диапазоне от 1071 МГц до 1058 МГц, что демонстрирует нижний левый график. Разве что в начале теста на графике можно отметить скачок к более высоким значениям. Это практически полностью соответствует показателям других GeForce GTX 680 без заводского разгона. Первый референсный экземпляр от Zotac у нас даже работал на частоте 1084 МГц, но там было более низкое рабочее разрешение 1920x1080. Рабочие температуры у этого ASUS (при 24 °C в помещении) тоже отвечают показателям других референсов — не более 81 °C. В тесте Unigine Valley Benchmark при Ultra-качестве и сглаживании рабочий диапазон частот GPU понизился до 1019-1048 МГц, что демонстрирует правый график.
Разгонный потенциал у ASUS GTX680-2GD5 вполне заурядный для графического процессора и неплохой для памяти. По базовой частоте видеокарта одолела 1146 МГц при пиковом значении в 1254 МГц. Повышение ползунка лимита мощности до предела позволило карте все время работать на пиковом значении в Warhead. А вот в Valley Benchmark частоты упали уже до 1241 МГц с просадками до 1228 МГц. Все проиллюстрировано ниже.
Такой разгон был реализован при повышенных оборотах вентилятора в шумном режиме.

Radeon HD 7970 и Radeon HD 7970 GHz Edition

Честь графических решений AMD защищает MSI R7970 Lightning. Видеоадаптер подробным образом был рассмотрен нами в соответствующем обзоре .


Карта на своих заводских частотах не тестировалась. Для начала мы установили 925/5500 МГц, что соответствует параметрам простого Radeon HD 7970. При этом напряжение было понижено до 1,163 В, что давало реальное значение близкое к 1,175 В (при таком напряжении работает референс). Таким образом, мы попытались приблизить видеокарту не только к стандартной производительности, но и к стандартному значению энергопотребления. Два нижних графика демонстрируют работу видеокарты в Crysis: Warhead и Unigine Valley Benchmark.
Великолепные температурные показатели обеспечены мощной системой охлаждения. Некоторую роль сыграла и замена термопасты на Noctua NT-H1. Так что в итоге значения могут оказаться еще на один-два градуса ниже, чем в обзоре MSI R7970 Lightning.

Теперь о том, как мы получили версию GHz Edition. В заявленных характеристикам указана частота ядра 1000 МГц при возможном ее повышении до 1050 МГц в режиме Boost. Но судя по обзорам, реальная частота все время стремится ко второму значению 1050, снижаясь до 1000 МГц только в стресс-тестах и очень ресурсоемких приложениях. Поэтому мы сразу выставили 1050 МГц. Память у Radeon HD 7970 GHz Edition функционирует на 6000 МГц. Напряжение изменяется в зависимости от частоты GPU, но на практике, как и частота, держится на максимальном уровне. При этом, судя по тем же обзорам, это максимальное значение достигает 1,218 или 1,256 вольт. Мы не стали превращать нашу карту в такой «обогреватель», ограничившись подъемом напряжения до 1,2 В по программному мониторингу.


Максимальный стабильный разгон составил 1190/7200 МГц. Для простого Radeon HD 7970 такой результат отличный. Хотя обновленные карты из серии GHz Edition на базе GPU Tahiti новых ревизий, судя по отзывам, могут преодолевать рубеж в 1,2 ГГц.
Кстати, на всех графиках включено слежение за загрузкой видеопамяти. И при сравнении GeForce с Radeon видно, что последний использует на 340 МБ больше в Crysis: Warhead. Схожая ситуация была и во многих других приложениях.Характеристики тестируемых видеокарт

В нижней таблице приведены официальные спецификации участников тестирования. На сравнительных диаграммах производительности указан полный рабочий диапазон частот для GeForce.

Видеоадаптер GeForce GTX 680 Radeon HD 7970 GHz Edition
Ядро GK104 Tahiti Tahiti
Количество транзисторов, млн. шт 3500 4312 4312
Техпроцесс, нм 28 28 28
Площадь ядра, кв. мм 294 365 365
Количество потоковых процессоров 1536 2048 2048
Количество текстурных блоков 128 128 128
Количество блоков рендеринга 32 32 32
Частота ядра, МГц 1006-1059 1000-1050 925
Шина памяти, бит 256 384 384
Тип памяти GDDR5 GDDR5 GDDR5
Частота памяти, МГц 6008 6000 5500
Объём памяти, МБ 2048 3072 3072
Поддерживаемая версия DirectX 11.1 11.1 11.1
Интерфейс PCI-E 3.0 PCI-E 3.0 PCI-E 3.0
Заявленный уровень мощности, Вт 195 250 250

Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Intel Core i7-3930K (3,2@4,4 ГГц, 12 МБ);
  • кулер: Thermalright Venomous X;
  • материнская плата: ASUS Rampage IV Formula/Battlefield 3 (Intel X79 Express);
  • память: Kingston KHX2133C11D3K4/16GX (4x4 ГБ, DDR3-2133@1866 МГц, 10-11-10-28-1T);
  • системный диск: Intel SSD 520 Series 240GB (240 ГБ, SATA 6Gb/s);
  • дополнительный диск: Hitachi HDS721010CLA332 (1 ТБ, SATA 3Gb/s, 7200 об/мин);
  • блок питания: Seasonic SS-750KM (750 Вт);
  • монитор: ASUS PB278Q (2560х1440, 27");
  • операционная система: Windows 7 Ultimate SP1 x64;
  • драйвер GeForce: NVIDIA GeForce 314.22;
  • драйвер Radeon: ATI Catalyst 13.3 beta 3.
В операционной системе были отключены User Account Control, Superfetch и визуальные эффекты интерфейса. Настройки драйверов стандартные, без изменений.

Методика тестирования

Приложения расположены в алфавитном порядке, в конец вынесены 3DMark. Везде использовалось разрешение 2560x1440 кроме нескольких отдельных случаев — последние версии тестовых пакетов 3DMark и один тестовый режим во втором «Ведьмаке» при активном «запредельном качестве».

При разрешении 2560x1440 все параметры и дальность прорисовки установлены на максимум, сглаживание 8x. Тестирование проводилось на самом первом уровне после первой контрольной точки. Совершалась пробежка от багажника машины до моста через две освещенные фонарями зоны. В момент пересечения второй зоны срабатывала скриптовая сценка: камера пролетала над погруженным в туман лесом и показывала маяк. Именно в этот момент заметно проседал fps и минимум производительности приходится на эту сценку.

Частота кадров в игре измерялась при помощи Fraps. Совершалась прогулка по пристани Бостона, сразу после момента прибытия в город. Совершалось четыре повтора. В случае большой разницы в результатах на одной видеокарте проводились дополнительные повторы. Самое высокое качество изображения под DirectX 11, сглаживание «очень высокое».

Частота кадров измерялась при помощи Fraps. Выбрана миссия «Молот и наковальня» (Rock and a hard place). После первой контрольной точки мы спускаемся по склону холма в долину до укреплений врага. Тестовая сценка включала кроме спуска начало перестрелки при штурме первого ряда укреплений. Огонь велся по двум точкам через прицел из-за камней справа и слева от дороги. С учетом простого спуска общий порядок действий легко повторим, а итоговые результаты почти не зависят от случайных факторов. Плюс в кадре находится не только большая площадь с детализированными текстурами, но и световые эффекты выстрелов, и взрывы. Это помогает создать вполне адекватную картину реальной производительности, как в сложных насыщенных сценах одиночной кампании, так и в многопользовательских схватках. Все параметры детализации и качества на Ultra под DirectX 11, задействован максимально возможный режим сглаживания AA4x.

Тестирование проводилось при помощи встроенного игрового теста. К сожалению, он не ведет подсчет кадров, просто запускает подготовленное игровое демо. Поэтому соответствующие данные получены при помощи Fraps. Три повтора. Максимальные настройки качества графики под DirectX 11 с активным сглаживанием FXAA.

Тестирование проводилось в поселке на первой локации Southern Shelf. Совершалась пробежка от ворот селения вниз по дороге к блокпосту бандитов. Туда швырялись три разделяемые гранаты, расстреливались две обоймы из кислотного пистолета и три из дробовика. Максимальное качество графики, сглаживание включено. Активно наивысшее качество эффектов PhysX. А благодаря взрывам и стрельбе все эти эффекты проявляются в полной мере.

Тестирование проводилось на второй миссии «Целерий», сразу после полета в момент начала штурма вражеской базы. Специально выбран этот детализированный уровень с атмосферными эффектами и яркими прожекторами, который является одним из самых красивых в игре. Совершалась короткая пробежка со стрельбой. Пять повторов для уменьшения погрешности. Установлено максимальное качество графики при сглаживании MSAA 8x.

Средний результат по прогонам 12-минутного теста Ambush из Crysis Warhead Benchmarking Tool и дополнительного пятикратного прогона этого теста. Настройки графики максимальные (Enthusiast) под DirectX 10 при сглаживании AA 8x.

Тест проводился в начале уровня «Всего лишь человек». Небольшая пробежка по зоне ограниченной видимости сочеталась с осмотром через прицел дальних объектов (поэтому и выбран столь масштабный уровень). Четыре повтора. Первый режим тестирования — качество графики максимальное при отключенном сглаживании. Второй режим — максимальное качество при MSAA 2x.

Совершалась прогулка по территории первого поселка и окружающим зарослям. Обилие гирлянд и огней в поселке создает значительную нагрузку на видеокарту, поэтому для тестирования и было выбрано это место. Пять повторов. Максимальные настройки качества под DirectX 11, сглаживание MSAA 4x. Пять прогов для более точных результатов.

Четыре прогона стандартного игрового теста производительности. Максимальные настройки качества изображения под DirectX 11 при сглаживании MSAA 4x (FXAA отключен).

Для теста подобрана одна из самых ресурсоемких сцен в фавеле, описанная ранее в обзоре игры . Небольшая пробежка по территории с густой травой и лужами. Пять повторов. Частота кадров измерялась при помощи Fraps. Максимальные настройки детализации и эффектов, освещение HDAO, наивысшее качество тесселяции, сглаживание AA 4x.

Три пятикратных прогона встроенного теста производительности (демо Frontlines). Настройки графики Very High под DirectX 11 без Depth of Field. Дополнительно проведено тестирование при включенном эффекте Depth of Field.

Четыре прогона встроенного теста производительности при максимальном качестве графики в двух режимах, отличающихся настройками сглаживания. Последний параметр связан и с качеством затенения, что в основном и садит производительность. Первый режим предполагает среднее положение ползунка сглаживания (высокое качество), второй — крайнее правое (экстремальное качество).

Ultra-качество при разрешении 2560x1440 и сглаживании AA 4x. Три повтора.

К сожалению, встроенный бенчмарк никак не характеризует реальную производительность в игре. Его можно рассматривать лишь как демонстрацию технологии симуляции волос TressFX. Да и сама эта симуляция в тесте используется не на максимуме, в игре есть и более сложные сцены, когда на волосы воздействует сильный ветер или вода. Поэтому мы отказались от встроенного теста и для сравнения производительности использовали вступительную сцену в самом начале игры: Лара барахтается в волнах, выбирается на берег и наблюдает спор товарищей, после чего неизвестный оглушает героиню. Четыре повтора этого эпизода. Тестирование в двух режимах: максимальное качество графики со сглаживанием FXAA, аналогичные настройки при активации TressFX. Отметим, что включены все дополнительные визуальные эффекты.

Использовался встроенный тест производительности. Настройки графики установлены на максимум, плюс активированы все дополнительные возможности рендеринга для DirectX 11, которые сама игра не включает при выборе максимального качества. Поэтому наши настройки обозначены как Ultra+. Тестирование проводилось при сглаживании MSAA в режиме 4x. Настройки проиллюстрированы на нижнем скриншоте.

War of the Roses

Запускался последний уровень тренировки и замерялся fps, пока камера облетала поле боя. Наиболее тяжелыми для видеокарт являются сцены на закате, поэтому и был выбран данный эпизод. Продолжительность тестовой сцены 47 секунд, она повторялась четыре раза. Настройки графики максимальные под DirectX 11, SSAO и FXAA активны.

Witcher 2: The Assassins of Kings Enhanced Edition

Тестирование проводилось при максимальных настройках качества без активации «запредельного качества» в разрешении 2560x1440. В этой игре некоторые параметры при выборе максимального профиля настроек можно поднять еще выше. Поэтому приводим скриншот этих настроек.


Дополнительно проводилось сравнение производительности при идентичных настройках с включением параметра «запредельного качества» в разрешении 1920x1080.

World of Tanks

Тестирование проводилось путем проигрыша небольшой записи, отрезка длительностью 42 секунды на карте «Заполярье». Частота кадров измерялась Fraps. Настройки графики максимальные, самое высокое качество сглаживания FXAA. Четыре повтора.

Тестирование на профиле Extreme, который предполагает использование разрешения 1920x1080.

Последний бенчмарк от Futuremark, использующий возможности DirectX 11. Кроме стандартного режима 1920x1080 у него предусмотрен режим Extreme с разрешением 2560x1440. Мы провели тестирование в обоих.

Энергопотребление

Для комплексной оценки энергопотребления замеры производились в нескольких играх:

  • Metro 2033 (без DOF);
  • Sleeping Dogs (при высоком качестве сглаживания);
Измерения проводились прибором Cost Control 3000. В расчет брались самые высокие показания во время прохождения тестов, на основе которых рассчитывалось среднее значение.Результаты тестирования



Игра всегда отличалась любовью к графическим продуктам AMD. В высоком разрешении GeForce GTX 680 и вовсе выглядит печально, проигрывая 23-46% даже простому Radeon HD 7970. Постоянные читатели нашего сайта помнят о замеченной нами странной особенности, когда после сворачивания и разворачивания игры на видеокартах NVIDIA fps повышался на 5-10%. Это актуально и поныне. Но даже если прибавить эти несколько процентов к приведенным результатам, то глобально ничего не изменится.



Иная ситуация в третьей части Assassin’s Creed . Тут явное преимущество на стороне GeForce GTX 680. Даже высокочастотный Radeon HD 7970 GHz Edition слабее конкурента от NVIDIA. При разгоне последний сохраняет свое лидирующее положение.



В преимущество GeForce GTX 680 над простым Radeon HD 7970 в 9-12%. Высокие частоты помогают GHz Edition обойти конкурента, но лишь на 1-2%. При разгоне соперники практически равны, мизерное преимущество у GeForce GTX 680.



Мощно выглядит GeForce GTX 680 в свежем Bioshock, который, кстати, поставляется с некоторыми видеокартами AMD. В номинале видеоадаптер зеленых на 7-10% производительнее Radeon HD 7970 GHz Edition и на 18-20% быстрее простого Radeon HD 7970.



Из-за обработки PhysX на процессоре в системы с Radeon демонстрируют существенные просадки частоты кадров вплоть до 20 fps. По этому параметру GeForce GTX 680 выигрывает более 50%. А вот по средней частоте кадров разница не столь критична, Radeon HD 7970 GHz Edition уступает лидеру лишь 1%.



В Black Ops 2 снова лидирует GeForce GTX 680, обгоняя старший Radeon примерно на 3%. Младший HD 7970 уступает своему собрату 10-11%.



В Warhead мы видим примерное равенство между Radeon HD 7970 и GeForce GTX 680, хотя в 1920x1080 небольшое преимущество всегда было у последнего. Лидирует Radeon GHz Edition, обгоняя остальных участников на 8-12%. При разгоне разница между видеоадаптерами 6-9% в пользу представителя AMD.



выводит на первое место Radeon HD 7970 GHz Edition, но на пятки ему наступает GeForce GTX 680, уступая лишь 3%. Между двумя Radeon разница в 11-12%. При разгоне на первое место с мизерным отрывом выходит GeForce GTX 680.


При включении сглаживания никто из участников не может обеспечить достаточный уровень производительности.



В лидирует Radeon HD 7970 GHz Edition. GeForce GTX 680 равен простому Radeon по минимальному fps, но чуть хуже по среднему параметру. Со старшим конкурентом у них разница в 13%. В разгоне тоже лидирует красный флагман.



Последняя часть Hitman предпочитает решения AMD. Так что GeForce GTX 680 в роли аутсайдера, проигрывая 16-19% простому Radeon HD 7970. Даже при разгоне он немного не дотягивает до уровня Radeon HD 7970 GHz Edition на заводских частотах.



В младший Radeon HD 7970 уступает GeForce GTX 680 4,5% по минимальному fps, но обгоняет на 1% по среднеигровой частоте кадров. При разгоне преимущество 5-10% на стороне видеоадаптера AMD.



В равенство у Radeon HD 7970 и GeForce GTX 680, на 11% их обгоняет Radeon HD 7970 GHz Edition. В разгоне GeForce GTX 680 уступает конкуренту почти 10%.


При активации Depth of Field никто из участников не может выдать комфортный уровень fps. Хотя максимально разогнанный Radeon рубеж в 30 fps преодолевает.




Еще одна игра, в которой уверенно лидируют видеокарты AMD. GeForce GTX 680 в приходится довольствоваться последним местом во всех режимах. При максимальном качестве сглаживания и затенения он даже не может выдать приемлемую частоту кадров, а вот разогнанный Radeon с этой задачей легко справляется. Хотя, как мы не раз отмечали ранее, между старшими режимами сглаживания разница очень мизерная и слабо заметная. Так что и владельцы GeForce смогут комфортно поиграть в игру при «высоком» качестве сглаживания и затенения без потерь в качестве картинки.



Значительный отрыв у GeForce GTX 680 по минимальному fps. И если Radeon HD 7970 GHz Edition по среднему значению обходит конкурента на 2%, то по минимальному параметру хуже на 18%. Простой Radeon слабее собрата на 11-12%.




В обоих режимах уверенно лидируют видеокарты AMD. GeForce GTX 680 слабее даже простого Radeon HD 7970, причем без активации TressFX видеоадаптеру NVIDIA нужен разгон, чтобы обеспечить достаточный уровень производительности в игре с разрешением 2560x1440. При включении TressFX без разгона ни один из участников не обеспечит комфорта в игре. И при повышенных частотах на Radeon HD 7970 наблюдаются значительные просадки производительности.




В «Ведьмаке 2 » лидирует Radeon HD 7970 GHz Edition. Его младший собрат слабее на 10-13%. GeForce GTX 680 выигрывает у него 1-5%.


В более тяжелом режиме GeForce сохраняет преимущество по минимальному fps над Radeon HD 7970. При разгоне по этому параметру соперники снова равны. При «запредельном качестве» даже в разрешении 1920x1080 видеокартам очень трудно обеспечить достойный уровень производительности, просадки fps весьма существенные. Фактически, поиграть в таком режиме на них удастся лишь при разгоне.

В номинале GeForce GTX 680 на 1,5% лучше Radeon HD 7970 GHz Edition и на 13% быстрее его младшего собрата. При разгоне преимущество видеоадаптера NVIDIA на уровне 4%.




Немного неожиданный результат в сравнении с предшественником. Теперь GeForce GTX 680 проигрывает даже простому Radeon HD 7970 от 3% до 5%. У GHz Edition преимущество 13-15%. Между разогнанными соперниками в разрешении 1920x1080 разница 12%, в 2560x1440 — 11%.

Энергопотребление


GeForce GTX 680 экономичнее простого Radeon HD 7970 и уж тем более старшей его версии с частотами 1050/6000 МГц. Конечно, стоит помнить, что участие в сравнении принимал не референсный адаптер AMD, а MSI R7970 Lightning . С его более сложной схемотехникой и многофазным питанием он теоретически может быть более прожорливым в сравнении с обычной картой HD 7970. Изначально завышенный Power Limit у Lightning тоже может оказать влияние на конечные результаты. Впрочем, общая тенденция в любом случае видна, и все предыдущие наши тестирования не раз подтверждали более низкое энергопотребление GeForce GTX 680, особенно в разгоне.

Выводы

Теперь попытаемся обобщить и систематизировать полученные данные. Для начала оценим расстановку сил в номинале. Из 22 тестовых приложений GeForce GTX 680 уверенно обгоняет Radeon HD 7970 в 12. Еще в 4 играх можно говорить о примерном равенстве (Warhead, Far Cry 3, Max Payne 3), если не брать в расчет самые тяжелые режимы (Metro 2033). И лишь в оставшихся 6 приложениях выигрывает представитель AMD. Так что в общем зачете GeForce GTX 680 выходит мощнее, хотя очень веским его преимущество нельзя назвать. Тем более что есть такие игры как Tomb Raider или Hitman, где видеоадаптер NVIDIA выглядит очень хило на фоне конкурента. В более низком разрешении ситуация для GeForce GTX 680 складывалась в некоторых приложениях получше. В качестве примера можно вспомнить Crysis: Warhead, в котором мы всегда наблюдали преимущество над Radeon HD 7970 в 1920x1080, а при 2560x1440 конкуренты уже равны. Но все сказанное касается лишь сравнения с простым Radeon HD 7970. Версия GHz Edition благодаря повышенных частотам прочно занимает место лидера, демонстрируя преимущество над соперником NVIDIA в 12 приложениях из 22. Еще в двух случаях отставание обновленного Radeon минимально.

В разгоне Radeon HD 7970 одерживает победу над GeForce GTX 680 в 10 тестовых приложениях. В двух играх (Battlefield 3 и Crysis 3) можно говорить об относительном равенстве, потому как преимущество GeForce в них мизерное. В итоге имеем паритет между конкурентами. Довольно хороший для NVIDIA результат, если вспомнить, что их референс сравнивался с оверклокерской версией Radeon HD 7970. Впрочем, для флагмана AMD возможны еще более высокие частоты, если речь будет идти о топовых видеокартах на базе реального GPU Tahiti новой ревизии. GeForce же может похвастать более низким энергопотреблением, особенно в режиме разгона.

Что касается преимущества Radeon в объеме видеопамяти, то даже в разрешении 2560x1440 третий гигабайт погоды не делает. За все время тестирования мы не видели пиковую кратковременную загрузку свыше 2,1 ГБ. На GeForce эти значения еще меньше. Так что объем видеобуфера пока еще не является ограничителем мощности для старших видеоадаптеров NVIDIA. Но в мультимониторных конфигурациях это может стать очень актуальным.

В нынешнем поколении видеокарт сложилась довольно непростая ситуация, когда в отдельных приложениях мы наблюдаем диаметрально противоположные результаты. Все дело в оптимизации под какие-то конкретные графические решения. С момента старта продаж Radeon HD 7970 позиции этой видеокарты во многом укрепились благодаря развитию партнерской программы AMD Gaming Evolved. Мы получаем все больше игр оптимизированных под графические решения Radeon. Одним из элементов такой оптимизации является продвижение OpenCL (в котором не сильны GeForce) для реализации дополнительных физических расчетов или линзовых визуальных эффектов. NVIDIA со своей стороны тоже продолжает сотрудничество с разработчиками. В итоге часто получается не столько противостояние реальных вычислительных мощностей, сколько противостояние «оптимизаций». Для старших видеокарт ничего страшного в этом нет, и добиться комфортной производительности всегда можно при понижении отдельных параметров, не особо критичных для общего качества изображения.

Оборудование для тестирования было предоставлено следующими компаниями:

  • ASUS — монитор ASUS PB278Q, материнская плата Rampage IV Formula/Battlefield 3, видеокарта GTX680-2GD5;
  • MSI — видеокарта R7970 Lightning;
  • Intel — процессор Intel Core i7-3930K и накопитель SSD 520 Series 240GB;
  • Kingston — комплект памяти Kingston KHX2133C11D3K4/16GX;
  • Syntex — блок питания Seasonic SS-750KM;
  • Thermalright — Thermalright Venomous X.