Оригинал материала: https://3dnews.kz/626473

GeForce GTX 680: Чемпион на стероидах

Характеристики. Комплектация. Внешний вид

#Введение

Наконец-то он вышел! Прямо скажем, заждались. AMD успела представить флагманский видеоадаптер серии Southern Islands еще в декабре прошлого года, а теперь уже выпустила полную линейку Radeon HD 7000. И каждый раз, тестируя очередную новинку от AMD, мы задавали вопрос: когда же выйдет Kepler? Но предполагаемая дата релиза неоднократно переносилась. Сначала NVIDIA официально заявила, что Kepler не выйдет в 2011 году, потом пропали надежды на выход в январе. И вот наконец…

За все это время Kepler оброс самыми невероятными слухами. Каждый новый «слив» внутренних презентаций NVIDIA или диаграммы непонятного происхождения усиливали путаницу и ажиотаж. Позволим себе напомнить основные этапы интриги, чтобы потом все торжественно опровергнуть.

Для начала вот этот нашумевший слайд. Судя по тому, что здесь написано, в начале 2012 года мы должны были увидеть бюджетный GPU GK107 со 128-битной шиной памяти и PCI-E 2.0, затем более мощный чип GK106 (шина памяти 256 бит, PCI-E 3.0) и GK104, похожий на GF110 своей 384-битной шиной. Ну а в конце 2012 — начале 2013 года нас якобы ждет двухпроцессорная карта на базе GK104 и однопроцессорный монстр GK112 с 512-битной шиной памяти.

В следующих новостях монстр засветился под именем GK100, и стали известны подробности о его архитектуре: 1024 ядра CUDA, 128 текстурных модулей и 64 ROP. GK104 приписали 640 либо 768 ядер, 80 или 90 TMU и 48 ROP.

Затем появился весьма сомнительный слайд, в котором уже фигурирует не то что GeForce GTX 600-серии, а GTX 780, вдвое превосходящий действующий флагман NVIDIA на тот момент — GTX 580. Глядя на такие результаты, легко провести параллели между GTX 780 и тем самым процессором GK100 с 512-битной шиной памяти. Слайд зародил сомнения: если информация соответствует реальным планам NVIDIA, релиз GK100 будет далеко не скоро.

Затем чудесным образом возникли полные (но весьма сомнительные) данные обо всей линейке GTX 600, из которых следует, что в GK100 войдет аж 6,4 млрд. транзисторов. Но акцент уже сместился в направлении младших чипов. Всплыли подробные спецификации GK104, и некоторые источники уже утверждали, что именно этот кристалл ляжет в основу флагманской модели GeForce GTX 680. Теперь мнения об архитектуре GK104 объединились: 1536 ядер CUDA, 128 текстурных блоков, 32 ROP и 256-битная шина памяти. Похоже, что в NVIDIA до последнего момента сомневались, под каким модельным номером этот адаптер поступит в продажу. Может быть, все-таки GTX 670 Ti?

Но, вы знаете, так оно в конце концов и вышло. Забудьте о монстре с 512-битной шиной памяти. GeForce GTX 680 основан на GPU GK104.

#Архитектура GK104

Спецификации

Последние «сливы» оказались чистой правдой. GK104 действительно содержит 1536 ядер CUDA, что втрое больше, чем у GF110 (GeForce GTX 580), 128 текстурных блоков (больше в два раза) и 32 ROP (а вот это шаг назад, у GF110 их 48). Ширина шины памяти — 256 бит, но работает она на эффективной частоте 6008 МГц. «Шея стала тоньше, но зато длинней». Объем памяти — 2 Гбайт. Поддерживается интерфейс PCI-E 3.0

GPU имеет базовую тактовую частоту 1006 МГц (что значит «базовая частота», мы объясним ниже), а частота ядер CUDA больше не удвоена по отношению к остальным компонентам. Это сделано для экономии электроэнергии. И действительно, карта уложилась в TDP 195 Вт. Довольно скромный показатель для флагманского продукта (у GeForce GTX 580 — 244 Вт, а у Radeon HD 7970 — 250 Вт), особенно в свете предыдущих «достижений» NVIDIA в этой области.

GPU производится по техпроцессу 28 нм и включает 3,54 млрд транзисторов — «всего лишь» на 0,54 млрд больше, чем в GF110. Для сравнения: в чипе Tahiti (Radeon HD 7970) 4,38 млрд транзисторов.

Рекомендованная розничная цена — $499, в России — 17 999 р. Для сравнения: рекомендованная цена Radeon HD 7970 на момент релиза — $549.

Вот что вкратце можно сказать о GeForce GTX 680. Нетерпеливые читатели уже могут перейти к разделу «Тестирование», а гиков приглашаем разделить с нами особое удовольствие — подробный разбор архитектуры Kepler.

Общая схема

Как и процессоры Fermi, Kepler имеет легко масштабируемый модульный дизайн. Все вычислительные компоненты распределены между четырьмя «графическими кластерами» (Graphics Processing Cluster, GPC). Вне кластеров находится только общий кеш L2, контроллеры памяти, ROP (на схеме — голубые блоки рядом с кешем) и блок GigaThread Engine, распределяющий нагрузку между GPC.

Блок-схема GK104 (кликабельно)

В GK104 только четыре контроллера памяти по сравнению с шестью у GF110. GPC, как и у GF110, те же четыре штуки. Каждый GPC состоит из блока растеризации (Raster Engine) и потокового мультипроцессора (SMX).

Raster Engine представляет собой конвейер из трех стадий, на которых происходит вычисление граней геометрических примитивов, проекция пикселей на поверхности и отсечение невидимых пикселей соответственно. Подробно о каких-либо изменениях в Raster Engine NVIDIA не сообщает, но, судя по официальному слайду, теперь их производительность один к одному согласуется с пропускной способностью ROP. Ну да, если каждый Raster Engine за такт обрабатывает 8 пикселов, как в Fermi, то четыре «движка» обрабатывают 32 пиксела, что соответствует 32 ROP.

Потоковые мультипроцессоры

Потоковые мультипроцессоры были сильно переработаны. Неспроста к их аббревиатуре для большей крутости прибавили букву X (SMX). Для начала — общая информация о том, как работает мультипроцессор в архитектуре Kepler. Как и в Fermi, мультипроцессор объединяет основные вычислительные мощности GPU: текстурные блоки, геометрический движок PolyMorph Engine и массив ядер CUDA.

Каждое ядро CUDA представляет собой полностью конвейеризированный процессор с одним целочисленным ALU и блоком вычислений с плавающей точкой. С помощью сотен таких ядер GPU выполняет шейдерные программы и вычисления для неграфических приложений с API OpenCL, DirectCompute, PhysX и, собственно, CUDA API.

Внутри SM ядра CUDA используются совместно с другими вычислительными компонентами: блоками Load/Store (LD/ST), текстурными блоками, блоками интерполяции (нет на диаграмме NVIDIA), блоками вычисления специальных функций (Special Function Units, SFU) — тригонометрических, например. Все эти компоненты получают инструкции для выполнения от одних и тех же диспетчеров.

GF100/110 — потоковый мультипроцессор и ядро CUDA

Весь пафос вычислений на GPU, будь то шейдеры или массированные неграфические расчеты, в следующем: программа порождает множество потоков инструкций (threads), и выполнение можно организовать таким образом, что в один момент времени большая часть потоков выполняет одну и ту же операцию, только с разными данными. Рабочая нагрузка для ядер CUDA внутри мультипроцессора поступает в виде пучков из 32 потоков (warp). В каждом ряду warp могут быть только одни и те же инструкции. Если это невозможно, то места в ряду пустуют.

Каждый такт диспетчер выбирает подходящий warp из 32 активных на мультипроцессоре, берет 32 инструкции (по одной «крайней» инструкции из каждого потока) и отправляет их на исполнение группе из 16 ядер CUDA (в то же время вместо 16 ядер CUDA диспетчер может загрузить все блоки LD/ST, либо все блоки интерполяции, либо все текстурные блоки). Стоп, как же 16 ядер могут выполнить за один такт 32 инструкции? Вот тут вступают в дело двойные частоты Fermi. Ядра CUDA, блоки LD/ST и SFU работают в два раза быстрее и за один такт диспетчера срабатывают два раза.

Какие же изменения принес Kepler? Во-первых, все блоки SMX теперь работают на одной частоте, зато их стало больше. Конфигурация мультипроцессора GF100/110: 32 ядра CUDA, 16 блоков интерполяции, 16 блоков LD/ST, 4 SFU, 4 текстурных блока. GK104: 192 ядра CUDA и 16 текстурников, 32 SFU и 32 LD/ST.

Важное дополнение: в состав SMX входит еще один блок из восьми ядер CUDA, который скрыт на диаграмме. Это специальные ядра, способные выполнять вычисления двойной точности (FP64). 32 инструкций из одного warp выполняются им за четыре такта, но каждая инструкция – на полной скорости. В целом GK104 выполняет расчеты FP64 со скоростью 1/24 от FP32. (Прим.: в мультипроцессорах чипа GF114 один из трех блоков по 16 ядер CUDA тоже мог выполнять операции двойной точности, но только на скорости 1/4.) Между тем архитектура GCN от AMD на хардверном уровне поддержвает расчеты FP64 со скоростью 1/2.

Потоковый мультипроцессор GK104 (кликабельно)

Конфигурация потоковых мультипроцессоров в GK104 и GF100/110

Во-вторых, планировщиков тоже стало в два раза больше. И с каждым планировщиком теперь связано два диспетчера. Они могут одновременно отправлять на исполнение сразу два «ряда» инструкций из одного warp, если один из них не зависит от выполнения другого. Таким образом, потоковый мультипроцессор приобретает функцию внеочередного исполнения, что роднит его с CPU. (Прим.: опять-таки двойные диспетчеры NVIDIA уже применяла в GF104 и последующих GPU среднего и начального уровня, только в GF110 они так и не появились.)

В-третьих, логика планировщика подверглась упрощению. В Fermi планировщик определял зависимости операций в шейдерном коде и переупорядочивал выполнение различных warp. Теперь задача разрешения зависимостей возложена на компилятор. В самой инструкции сообщается, на каком этапе в будущем она может быть отправлена на исполнение, и пока этот момент не настал, планировщик выбирает для исполнения другие warp. Мотивация NVIDIA понятна: сложные планировщики с разрешением зависимостей обременяют энергетический бюджет. Но эффективность неграфических вычислений без них неизбежно пострадает. Неспроста AMD перешла к динамическому планированию в архитектуре Graphics Core Next (вся смена архитектуры, по сути, была закручена вокруг этого). А вот NVIDIA, напротив, жертвует производительностью в пользу энергетической эффективности. Впрочем, разработчики наверняка взвесили все за и против. Возможно, в неграфических расчетах этот шаг повысил производительность на ватт. А может, это свойство не самого продвинутого потребительского GPU и в более мощных версиях Kepler вернется динамическое планирование.

Обработка геометрии

В архитектуре Fermi нет отдельного геометрического блока, как в Graphics Core Next от AMD. Вместо этого в каждом потоковом мультипроцессоре есть собственный PolyMorph Engine, и они соединены специальным интерфейсом. Именно благодаря геометрической мощи адаптеры GeForce доминировали в задачах с тесселяцией вплоть до выхода карт Radeon серии HD 7000, которые серьезно проапгрейдили по этой части. В GK104, обратите внимание, блоков PolyMorph Engine стало меньше по сравнению с GF110, так как меньше потоковых мультипроцессоров. Но NVIDIA уверяет: PolyMorph Engine версии 2.0 стал почти вдвое более эффективным, что с лихвой компенсирует сокращение.

По данным внутреннего тестирования, GeForce GTX 680 заметно превосходит GTX 580 при высоком Expansion Factor (глубокая тесселяция). На том же графике приведен Radeon HD 7970, но его производительность почему-то совсем не колеблется, что вызывает большие сомнения в результатах.

Кеш-память

Как и у GF100/110, в каждом потоковом мультипроцессоре GK104 есть кеш L1 объемом 64 Кбайт. А вот общий кеш L2 уменьшился: с 768 до 512 Кбайт. Однако пропускная способность кеша увеличилась на 73%. Выросла скорость атомарных операций (чтение + запись).

#Новые функции GPU и драйвера

GPU Boost

Эта функция — аналог PowerTune в последних видеокартах Radeon. Фактически она представляет собой динамический разгон GPU в те моменты, когда это позволяет энергопотребление. NVIDIA показывает, что в большинстве игр карта не добирает мощности до заявленного TDP (195 Вт), а потому частоту процессора можно существенно увеличить.

В спецификациях карты теперь указывается отдельно Base Clock — собственно, минимальная частота GPU в 3D-режиме и Boost Clock — средняя частота, которая достигается в распространенных приложениях (в данном случае — 1058 МГц). Для контроля мощности адаптера используется как аналоговый датчик в системе питания (довольно инерционный), так и цифровые датчики загрузки GPU и памяти (более чуткие). Дополнительно на автоматический разгон влияет температура GPU.

Несмотря на общее сходство, GPU Boost в работе выглядит не так, как PowerTune от AMD. Присутствие последней фактически незаметно, и изменение частоты не регистрируется утилитами мониторинга. Частота GPU нового GeForce меняется на глазах. В наших тестах она действительно колебалась вокруг заявленного уровня 1058 МГц. И напряжение питания меняется тоже.

Как теперь реализован разгон вручную — отдельная тема. Всякая прибавка к базовой частоте линейно отражается на частоте Boost Clock, и она превращается из 1058 МГц в, допустим, 1158 МГц, если не упрется в ограничение мощности. Чтобы поднять потолок Boost Clock, нужно увеличить допустимую мощность. Пока что это умеет делать только специальная версия утилиты EVGA Precision X. О результатах наших экспериментов с разгоном GTX 680 вы можете прочитать в соответствующем разделе.

Adaptive VSync

Зачем нам нужна вертикальная синхронизация? Чтобы устранить разрывы изображения при смене кадров, которые особенно часто возникают в случае, если FPS превышает частоту вертикальной развертки дисплея.

Так выглядят разрывы кадра в отсутствии VSync

А почему вертикальную синхронизацию так редко используют? Потому что если FPS меньше частоты развертки, VSync приводит его к половине или четверти частоты, например 30 и 15 FPS. Возникают тормоза. Чтобы устранить этот недостаток, NVIDIA предложила простое решение: если FPS больше частоты развертки, то VSync работает, а когда падает меньше, VSync отключается. Эта функция совместима и с картами GeForce предыдущего поколения.

FXAA и TXAA

Многие игры прошлого года использовали новый метод полноэкранного сглаживания — FXAA. Оказалось, что для современных движков с отложенным рендерингом (Deferred Rendering) привычный метод MSAA представляет большую проблему. Его трудно реализовать, и падение производительности получается куда большим, чем у движков прямого рендеринга (Forward Rendering), распространенных во времена DirectX 8-9.

FXAA фактически представляет собой фильтр пост обработки, который обнаруживает и размывает границы полигонов. Он радикально быстрее, чем MSAA, но изображение выглядит не столь резким, как при использовании MSAA или вообще без сглаживания. Мы это наглядно показали на примере Skyrim.

С выходом GeForce GTX 680 NVIDIA еще раз привлекла внимание к FXAA, продемонстрировав знаменитую демку Samaritan в реальном времени. На прошлогодней выставке GDC 2011 Samaritan со сглаживанием MSAA запускали на трех GeForce GTX 580 в режиме SLI. С FXAA достаточно и одного GTX 680, хотя производительность одиночной карты, конечно, тоже выросла.

Но понятно, что FXAA — это временное решение, которое по качеству никогда не сравнится с MSAA. Поэтому NVIDIA предлагает новый метод — TXAA. Он представляет собой некую комбинацию мультисемплинга и постобработки (более глубоких подробностей у нас пока нет). В варианте TXAA 1 заявлено более качественное сглаживание краев полигонов, чем при MSAA 8x, с потерей производительности на уровне MSAA 2x. TXAA 2 обеспечивает гораздо более высокое качество, чем MSAA 8x с затратами на уровне MSAA 4x.

TXAA будет предоставляться разработчикам игр в виде библиотек и будет работать на любом современном железе, не только на GeForce 600. В текущем году уже ожидаются первые игры с поддержкой TXAA.

Bindless Textures

А вот еще одна функция, эксклюзивная для Kepler. В Fermi шейдерная программа могла обращаться только к 128 текстурам, указанным в специальной таблице. Теперь текстуры в памяти доступны шейдеру напрямую, более миллиона текстур одновременно. Потенциально эта функция увеличивает богатство игровых сцен, но API DirectX 11 все равно ограничивает шейдер 128 текстурами, поэтому Bindless Textures пока можно использовать только в OpenGL или непосредственно с помощью NVAPI.

Новые видеоинтерфейсы, мультимониторные конфигурации

GeForce GTX 680 в референсной конфигурации поддерживает интерфейсы DisplayPort 1.2 и HDMI 1.4a, совместимые с разрешением 3840x2160, а также два Dual-Link DVI. К одной карте теперь можно подключить сразу четыре монитора.

В режиме Surround появилось несколько дополнительных функций.

  • Панель задач Windows отображается только на центральном экране.
  • Появилась возможность задать произвольное разрешение.
  • Горячая клавиша для включения/выключения «компенсации» мониторных рамок прямо в игре.

Новый видеокодировщик

В Kepler включен новый кодировщик стандарта H.264 — NVENC. До сей поры видео на картах NVIDIA кодировалось на ядрах CUDA, но, по утверждению производителя, NVENC работает в четыре раза быстрее, потребляя при этом значительно меньше электроэнергии. NVENC совместим с разрешениями вплоть до 4096х4096, а Full HD может кодировать на скорости в 8 раз быстрее воспроизведения. Поддерживает стереоскопическое видео.

Сейчас функции NVENC доступны через специальный API, и разработчикам предоставляется SDK. Позже появится возможность одновременно с кодированием задействовать ядра CUDA для дополнительной обработки видео или использовать для кодировки совместные мощности кодировщика и ядер.

Новые функции PhysX

В API высокого уровня APEX (а значит — для всех видеокарт с PhysX) скоро войдут функции динамического разрушения объектов и отображения меха. Особенно интересно первое. Сейчас разрушение игровых объектов определяется заранее, но, благодаря новой функции, GPU будет создавать осколки автоматически, каждый раз по-новому.

DirectX 11.1

NVIDIA нигде не утверждает о полной поддержке спецификации DirectX 11.1, но, на самом деле, поддерживаются все функции нового стандарта, относящиеся к 3D-рендерингу:

  • Partial constant buffer updates
  • Logic operations in the Output Merger
  • 16bpp rendering
  • UAV-only rendering
  • Partial clears
  • Large constant buffers

Не реализованы только некоторые неигровые функции:

  • Target-Independent Rasterization (2D rendering only).
  • 16xMSAA Rasterization (2D rendering only).
  • Orthogonal Line Rendering Mode.
  • UAV in non-pixel-shader stages.

#Конструкция

С виду карта не сильно отличается от GTX 580. Для охлаждения по-прежнему используется массивный кулер-турбина.

GeForce GTX 680

GeForce GTX 580

Питание подается по двум шестиконтактным разъемам (для GTX 580 требовался шестиконтактный плюс восьмиконтактный), причем расположены они один над другим — для экономии места на плате.

Система охлаждения в общих чертах осталась такой же. Есть массивная алюминиевая рама, к которой через термопрокладки прижаты микросхемы памяти и компоненты системы питания, и есть отдельный радиатор с тепловой трубкой для GPU. Испарительная камера, судя по всему, исчезла. Ребра радиатора ближе к хвосту карты скошены, что должно облегчить прохождение воздуха через уменьшенную решетку. Турбинка сделана из звукопоглощающего материала. И действительно, даже на максимальных оборотах (точнее, на 85%: драйвер не дает выставить больше) кулера шум не настолько велик, как можно было ожидать. Radeon HD 7970 на 85% шумит гораздо сильнее.


GeForce GTX 680

GeForce GTX 580

Расположение портов на заглушке платы изменилось. Хорошо, что HDMI и DisplayPort выводятся через полноразмерные разъемы, ­– нет нужды в переходниках.

GeForce GTX 680

GeForce GTX 580

Плата

По сложности платы GeForce GTX 680 соответствует 580-й модели. Только микросхем памяти меньше. Это чипы Hynix H5GQ2H24MFR R0C, 6 ГГц для них – штатная эффективная частота. Да, обратите внимание на посадочную площадку для еще одного разъема питания. Это следы старого дизайна с классическими «одноэтажными» разъемами? Не собиралась же NVIDIA выпустить карту с тремя коннекторами…

GeForce GTX 680

GeForce GTX 580

GeForce GTX 680

GeForce GTX 580

В системе питания по-прежнему используются шесть фаз: четыре для GPU и две для памяти. Питанием GPU управляет контроллер Richtek RT8802A на забавной дочерней плашке.

Графический процессор впервые со времен GeForce 7800 обходится без крышки-теплораспределителя. Видимо, он достаточно компактный, чтобы не было опасности сколов при установке кулера.

Тестирование. Выводы

Методика тестирования

Конфигурация тестового стенда
CPU Intel Core i7-3960X @ 4,6 ГГц (100x46)
Материнская плата ASUS P9X79 Pro
Оперативная память DDR3 Kingston HyperX 4x2 Гбайт @ 1600 МГц, 9-9-9
ПЗУ Transcend 2,5 SSD 128 Гбайт
Блок питания IKONIK Vulcan, 1200 Вт
Охлаждение CPU Thermalright Silver Arrow
Корпус CoolerMaster Test Bench V1.0
Операционная система Windows 7 Ultimate X64 Service Pack 1
ПО для карт AMD AMD Catalyst 12.2 + Catalyst Application Profiles 12.2 CAP 1
ПО для карт NVIDIA 300.99 (GeForce GTX 680), WHQL 296.10 (остальные)
Настройки драйвера AMD Catalyst — по умолчанию
Antialiasing Application Settings
Anisotropic Filtering Application Settings
Tesselation Application Settings
Catalyst A.I. Texture Filter Quality Quality, Enable Surface Format Optimization
Wait for V-Sync Disable, unless application Specifies
AA Mode Multisample
Triple buffernig Disable
Настройки драйвера NVIDIA
CUDA графические процессоры Все
Анизотропная фильтрация Управление приложением
Вертикальная синхронизация Использовать настройку 3D-приложения
Затенение фонового освещения Выкл.
Максимальное количество заранее подготовленных кадров 3
Потоковая оптимизация Авто
Режим управления электропитанием Адаптивный
Сглаживание — гамма-коррекция Выкл.
Сглаживание — режим Управление от приложения
Тройная буферизация Выкл.
Ускорение нескольких дисплеев Режим многодисплейной производительности
Фильтрация текстур — анизотропная оптимизация Выкл.
Фильтрация текстур — качество Качество
Фильтрация текстур — отрицательное отклонение УД Разрешить
Фильтрация текстур — трилинейная оптимизация Вкл.
Набор бенчмарков
Программа API Настройки Режим тестирования Разрешение
3DMark 2011 DirectX 11 Профили Performance, Extreme

Unigine Heaven 2 DirectX 11 Макс. качество, DirectX 11, тесселяция в режиме Extreme AF 16x, MSAA 4x 1920х1080 / 2560х1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking Tool DirectX 10 Frost flythrough. Макс. настройки, DirectX 10 AF 16x, MSAA 4x 1920х1080 / 2560х1440
Metro 2033 + Metro 2033 Benchmark DirectX 11 Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл. AF 16x, MSAA 4x 1920х1080 / 2560х1440
DiRT 3 + Adrenaline Racing Benchmark Tool DirectX 11 Aspen, 8 машин. Макс. качество, DirectX 11 AF, AA 4х 1920х1080 / 2560х1440
Crysis 2 + Adrenaline Crysis 2 Benchmark Tool DirectX 11 Central Park. Макс. качество, DirectX 11, текстуры высокого разрешения AF 16x, Post MSAA + Edge AA 1920х1080 / 2560х1440
Battlefield 3 + FRAPS DirectX 11 Начало миссии Going Hunting. Макс. качество. AF 16x, MSAA 4x 1920х1080 / 2560х1440
Batman: Arkham City. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440
The Elder Scrolls 5: Skyrim + FRAPS DirectX 9 Город Whiterun. Макс. качество AF 16x, MSAA 4x 1920х1080 / 2560х1440
Call of Duty: Modern Warfare 3 + FRAPS DirectX 9 Миссия Return to Sender. Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440

В качестве соперников GeForce GTX 680 в тестировании приняли участие следующие видеокарты:

  • AMD Radeon HD 7970 (1160/7200 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500, 3 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)
  • NVIDIA GeForce GTX 580 (772/4004 МГц, 1,5 Гбайт)
  • AMD Radeon HD 6970 (880/5500 МГц, 2 Гбайт)

Разгон, температура, энергопотребление

GeForce GTX 680 мы разгоняли с помощью единственной утилиты, которая сейчас поддерживает Kepler, — EVGA Precision X 3.0 Beta 20, да и то не без проблем. Вручную выставить напряжение GPU она как бы позволяет, но на самом деле это ни на что не влияет.

В целом GPU Boost сильно осложняет жизнь оверклокеру, меняя частоту и напряжение непредсказуемым образом. Кроме того, есть ограничение на потребляемую мощность, которую пока можно увеличить только на 32%. Поэтому если одновременно с процессором разогнать и память, то GPU Boost уже не будет так сильно поднимать частоту. Наконец, при перегреве Boost Clock тоже падает.

Мы проверили два разных варианта разгона, увеличив лимит энергопотребления и обороты кулера до максимума. Предельная базовая частота GPU, на которой карта была стабильна, составила 1086 МГц. При этом в бенчмарке Unigine Heaven Boost Clock достигал 1152 МГц, а напряжение на ядре — 1,175 В (базовое для режима 3D — 1,062 В). Второй вариант разгона: дополнительно увеличить частоту памяти на 460 Мгц — 6928 МГц эффективной частоты. В таком случае Boost Clock поднимается только до 1139 МГц.

Судя по графикам, в большинстве игр больший прирост производительности обеспечивает разгон GPU совместно с памятью. В целом большого эффекта от разгона нет: повышение частоты малозаметное, а в штатном режиме работы все равно трудится GPU Boost, отнимая хлеб у оверклокера.

По температурному режиму GTX 680 ничем не лучше своих соперников. Radeon HD 7970 под нагрузкой греется меньше, GTX 580 — немного сильнее. Все дело в новой системе охлаждения, малошумной, но не столь эффективной

Пиковое энергопотребление системы с GTX 680 на борту немного выше, чем у HD 7970, и приближается к оному у HD 6970. По сравнению с GTX 580 прогресс налицо, но разница не критическая. В разгоне GTX 680 развивает мощность лишь на 10 Вт больше, чем в штатном режиме. Что и не удивительно, так как разгон невелик.

#Производительность, синтетические тесты

3DMark 2011, Performance

  • GTX 680 с большим отрывом опережает Radeon HD 7970 и сравнялся с разогнанным HD 7970.
  • По показателю Graphics Score GTX 680 приближается к GTX 590 (по 3DMark Score у последнего аномально низкий результат, но ничего, к глюкам 3DMark мы уже привыкли).
  • GTX 680 с разгоном выходит на уровень Radeon HD 6990.
  • Преимущество GTX 680 перед GTX 580 огромно.

3DMark 2011, Extreme

  • Здесь между GTX 680 и HD 7970 на штатных частотах нет большой разницы.
  • Двухпроцессорные карты все-таки быстрее, чем GTX 680 (с GTX 590 у 3DMark 2011 опять сложные отношения).
  • Разогнанный GTX 680 не только превосходит разогнанный HD 7970, но даже сравнялся с HD 6990 — постоянным рекордсменом в этом бенчмарке.
  • Прирост скорости по отношению к GTX 580 весьма велик.

Unigine Heaven 2

  • GTX 680 превзошел HD 7970. Разница особенно велика при разрешении 1920х1080.
  • GTX 680 находится на одном уровне с HD 6990, но до GTX 590 немного не достает.
  • Разогнанный GTX 680 сравним с разогнанным HD 7970 и GTX 590.
  • Опять-таки есть большой прогресс по сравнению с GTX 580.

#Производительность, игровые тесты

Crysis Warhead (DirectX 10)

  • А вот здесь GTX 680 проиграл своему основному конкуренту. Разгон помогает сравниться с HD 7970, работающим в штатном режиме, но разогнанный HD 7970 уже совершенно недосягаем.
  • Двухпроцессорные карты GTX 680 не может догнать даже с разгоном.
  • GTX 680 значительно быстрее, чем предыдущий флагман NVIDIA, GTX 580.

Metro 2033 (DirectX 11)

  • GTX 680 уступает HD 7970 и только благодаря разгону может с ним сравниться.
  • Разогнанный HD 7970 на голову превосходит разогнанный GTX 680.
  • Двухпроцессорные карты GTX 680 не по зубам.
  • Прирост производительности по сравнению с GTX 580 в абсолютных значениях невелик, что объясняется невероятной тяжестью этой игры с максимальными настройками.

DiRT 3 (DirectX 11)

  • GTX 680 берет реванш, демонстрируя огромное преимущество перед HD 7970.
  • HD 7970 с разгоном сравнивается с GTX 680 в штатном режиме, но разогнанный GTX 680 с большим отрывом вновь выходит вперед.
  • GTX 680 работает почти так же быстро, как GTX 590 и Radeon HD 6990, а при разгоне опережает их.
  • Про GTX 580 нечего и говорить. Преимущество нового флагмана колоссальное.

Crysis 2 (DirectX 11)

  • GTX 680 чуть-чуть быстрее, чем HD 7970.
  • Разгон почти не прибавил FPS при разрешении 1920х1080, но в 2560х1440 у GTX 680 теперь есть ощутимое преимущество над HD 7970. Разогнанный HD 7970 также упирается в невидимое ограничение в режиме 1920x1080, а в 2560x1440 берет реванш.
  • GTX 680 мало отличается от GTX 590 и сопоставим с Radeon HD 6990 в разрешении 1920x1080.
  • Превосходство GTX 680 над GTX 580 огромно.

Battlefield 3 (DirectX 11)

  • GTX 680 быстрее, чем HD 7970, но разница заметна только в режиме 1920х1080.
  • Разгон не прибавил GTX 680 ни единого FPS! В то же время разогнанный HD 7970 оставил своего соперника далеко позади.
  • Двухпроцессорные карты GTX 680 догнать не удалось.
  • Несмотря ни на что, по сравнению с GTX 580 новая карта работает чрезвычайно быстро.

Batman: Arkham City (DirectX 11)

  • GTX 680 с огромным отрывом опередил HD 7970 в режиме 1920х1080. В режиме 2560х1440 разница уже не столь велика.
  • Разгон существенно прибавил GTX 680 FPS в разрешении 2560х1440, а вот в 1920х1080 эффекта нет. Поэтому в первом режиме разогнанная карта немного быстрее, чем разогнанный HD 7970, а во втором уступает.
  • GTX 680 гораздо быстрее, чем GTX 590 и HD 6990. Многопроцессорные конфигурации в этой игре работают из рук вон плохо.
  • Налицо большой прогресс по сравнению с GTX 580.

The Elder Scrolls 5: Skyrim (DirectX 9)

  • GTX 680 заметно быстрее, чем HD 7970, в режиме 1920x1080, а вот в 2560х1440 значимой разницы уже нет.
  • От разгона GTX 680 в этой игре нет никакого толку. HD 7970 подтянулся в режиме 1920x1080, но GTX 680 все равно чуть-чуть быстрее.
  • По результатам GTX 680 немного превосходит даже GTX 590.
  • GeForce GTX 580 не сильно отстает от GTX 680 в режиме 1920x1080, хотя в 2560х1440 разница уже весьма велика.
  • В целом с сугубо практической точки зрения в этой игре нет разницы между топовыми картами GTX 680, GTX 590, HD 6990 и HD 7970. Движок слишком простой по современным меркам.

Call of Duty: Modern Warfare 3 (DirectX 9)

  • GTX 680 самую малость быстрее, чем HD 7970.
  • Разгон на производительность GTX 680 практически не повлиял. А вот HD 7970 разогнался отлично и ушел далеко вперед.
  • Двухпроцессорные карты недосягаемы для GTX 680.
  • GTX 680 снова гораздо быстрее своего предшественника.

Все игры

  • Первое, что хорошо заметно на графиках: разгон дает GTX 680 до смешного малый прирост производительности. Очевидно, что GPU Boost уже в штатном режиме выбирает запас частоты. Лишь в некоторых играх от разгона есть какая-то польза.
  • В большинстве игр GTX 680 быстрее, чем Radeon HD 7970, но разница не критическая. Кроме того, есть примеры превосходства адаптера AMD: Crysis Warhead и Metro 2033.
  • Radeon HD 7970 отлично разгоняется и часто берет у GTX 680 реванш.

#Выводы

Ну что ж, ожидание релиза сопровождалось такими невероятными слухами, что все уже успели вообразить себе видеокарту с неслыханными спецификациями и чудовищной вычислительной мощью. 512-битная шина памяти, 6,4 млрд транзисторов и тому подобное. А в результате гордое имя GeForce GTX 680 получил куда менее амбициозный продукт. Такое впечатление, что за флагмана линейки отдувается адаптер среднего уровня. Неспроста же GPU новинки называется GK104, а не GK110, что соответствовало бы предшествующей номенклатуре (интрига вокруг GK110 сохраняется: выйдет ли он вообще в серии GeForce 600?). Видно, что для успешной конкуренции с Radeon HD 7970 из карты выжали все что можно. Частоту GPU подняли до 1 ГГц, оставив лишь небольшой запас для разгона. Да и разгонять ее вручную почти что бессмысленно. В штатном режиме это уже делает технология GPU Boost, которую, похоже, прилепили к карте в последний момент, чтобы использовать малейшую лазейку для прироста производительности. Оверклокеры еще не раз помянут ее добрым словом.

Но если отрешиться от высоких ожиданий, то с практической точки зрения Kepler оказался вполне конкурентоспособным. Пусть победа достигнута неизящными методами, но GTX 680 все-таки быстрее, чем Radeon HD 7970, при этом дешевле (по официальным ценам — да. На деле Radeon HD 7970 уже стоит менее 17 000 рублей. — прим. ред.) и потребляет меньше электроэнергии. А конкуренция всегда работает в пользу покупателя.



Оригинал материала: https://3dnews.kz/626473