Обзор GeForce GTX 680 | Конструкция
nVidia любит проводить параллели. На виртуальном поле боя каждой видеокарте предыдущего поколения даётся своя роль. GeForce GTX 480 была “танком” – высокий уровень производительности сопровождался высокой ценой, энергопотреблением и тепловыделением. GeForce GTX 460 можно отнести к “боевому вертолёту”, которому свойственен баланс скорости, эффективности и более доступной цены. И наконец, видеокарту GeForce GTS 450 сравнивают со “снайпером”, за её способность обеспечивать комфортный уровень FPS на разрешении 1680×1050.
Такое сравнения выглядит немного глупо, но благодаря ему проще установить уровень GeForce GTX 680. Хотя название (и цена) относят её к флагманским моделям карт nVidia с одним GPU, она определённо походит на “боевой вертолёт” — геймерскую видеокарту. Она отлично справляется с играми, так же как и GeForce GTX 460.
Позиционирование
Независимо от того, для какой цели она была спроектирована, на её позицию на рынке сильнее всего повлияет конкуренция. Возможно, в планах AMD есть и более мощные модели, о которых мы пока не слышали. Однако, в контексте шести карт серии Radeon HD 7000 которые уже доступны, nVidia точно знает, с чем ей предстоит столкнуться.
Если бы видеокарта Radeon HD 7970 была на 30-40% быстрее, чем сейчас, мы вероятно бы не увидели сегодня GeForce GTX 680. Возможно, её бы назвали GTX 660 или 670. Но из-за того, какую нишу занимает флагман AMD, nVidia считает справедливым назвать “боевой вертолёт” “танком”, хотя всем понятно, что более мощная модель всё ещё в разработке.
Сегодня в нашей лаборатории мы протестируем новую видеокарту от nVidia с графическим процессором GK104 за $500, разработанную специально для геймеров (если вас интересует вычислительный потенциал, придётся немного подождать). GeForce GTX 680 направлена на решение основных недостатков моделей предыдущего поколения и включает в себя много интересных функций.
Встречайте GeForce GTX 680
Длина PCB карты GeForce GTX 680 составляет 25.4 см., это на 1.25 см. длиннее, чем у карт Radeon HD 7800 и настолько же короче, чем у моделей Radeon HD 7900.
Сверху карты виден центробежный вентилятор, выталкивающий горячий воздух из задней части. Для этого выделена только половина верхнего слота. Но в тестах на шум и тепловыделение вы увидите, что у карты GeForce GTX 680 нет проблем с теплоотводом.
На остальной части панели расположены четыре выхода на дисплей: два коннектора dual-link DVI, один порт HDMI и выход DisplayPort. Всех их можно использовать одновременно, в отличии от Fermi-карт предыдущего поколения. Наконец-то в обзорах видеокарт мы сможем использовать тесты на нескольких мониторах. nVidia заявляет, что GeForce GTX 680 поддерживает HDMI 1.4a, мониторы с горизонтальным разрешением 4K и многопоточный звук.
Ко всему прочему, GeForce GTX 680 обладает двумя коннекторами SLI, позволяя создавать конфигурации из двух, трёх и четырёх карт. Кстати говоря, AMD Radeon HD 7970 и Radeon HD 7950 тоже поддерживают массивы из четырёх видеокарт.
У нас также есть первое доказательство, что графический процессор GK104 был разработан и для более распространённых окружений: GeForce GTX 680 использует два вспомогательных шестиконтактных коннектора питания. Вместе со слотом PCI Express эти коннекторы способны обеспечить до 225 Вт мощности. nVidia указывает мощность 195 Вт. Однако, компания также говорит, что обычно карта будет потреблять 170 Вт. Не забывайте эти цифры, доступный запас между характеристиками 170 Вт и 225 Вт скоро сыграет свою роль.
Охлаждение GeForce GTX 680
По словам nVidia, компания вложила много усилий в дизайн двухслотового кулера, что привело к низкому уровню шума, даже под нагрузкой. Мы сняли кожух GeForce GTX 680, чтобы посмотреть поближе.
Во-первых, разработчики установили три подковообразных тепловых трубки в радиатор GPU, который эффективно отводит тепло от GK104. Из этих трубок тепловая энергия направляется в двухслотовый алюминиевый радиатор.
Оптимизация самого радиатора тоже присутствует в списке улучшений nVidia. Например, ребро, где выходит воздух, расположено под углом, создавая больше пространства между кулером и выпускной решёткой. Видимо в предыдущих конструкциях тепло задерживалось между скобой и рёбрами, и плохо влияло на эффективность охлаждения. Новый подход обещает понизить температуру.
Кроме того, nVidia говорит, что в электромотор вентилятора добавлен шумопоглощающий материал, как в модели GeForce GTX 580, у которой уровень шума существенно ниже, чем у предшественника.
Обзор GeForce GTX 680 | Чип и архитектура
Главные показатели GeForce GTX 680
Сняв охлаждающее оборудование, мы остались с голой платой.
GK104 GPU расположен посередине, он состоит из 3.54 миллиардов транзисторов на кристалле площадью 294 мм². Опять же, новая карта nVidia располагается между двумя текущими архитектурами AMD: GPU Tahiti содержит 4.31 миллиарда транзисторов на кристалле площадью 365 мм2 и Pitcairn с 2.8 миллиардами транзисторов на кристалле 212 мм2.
Учитывая, что GK104 разработан на 28-нм ядре TSMC, поставки GPU почти наверняка будут ограниченными, поскольку многие заказчики соперничают за первые небольшие партии. Однако, компания обещает некоторое наличие видеокарт при выходе и вторую волну в начале апреля.
Теперь давайте взглянем на характеристики нового GPU по сравнению с GeForce GTX 580 и Radeon HD 7970:
GeForce GTX 680 | Radeon HD 7950 | Radeon HD 7970 | GeForce GTX 580 | |
Шейдеры | 1536 | 1792 | 2048 | 512 |
Текстурные блоки | 128 | 112 | 128 | 64 |
Полноцветные блоки ROP | 32 | 32 | 32 | 48 |
Частота GPU | 1006 МГц | 800 МГц | 925 МГц | 772 МГц |
Скорость заполнения текстур | 128.8 ГТекс/с | 89.6 ГТекс/с | 118.4 ГТекс/с | 49.4 ГТекс/с |
Частота памяти | 1502 МГц | 1250 МГц | 1375 МГц | 1002 МГц |
Шина памяти | 256 бит | 384 бит | 384 бит | 384 бит |
Пропускная способность | 192.3 Гбайт/с | 240 Гбайт/с | 264 Гбайт/с | 192.4 Гбайт/с |
Графическая RAM | 2 Гбайт GDDR5 | 3 Гбайт GDDR5 | 3 Гбайт GDDR5 | 1.5 Гбайт GDDR5 |
Размер кристалла | 294 мм² | 365 мм² | 365 мм² | 520 мм² |
Транзисторы (миллиардов) | 3.54 | 4.31 | 4.31 | 3 |
Техпроцесс | 28 нм | 28 нм | 28 нм | 40 нм |
Коннекторы питания | 2 x 6-pin | 2 x 6-pin | 1 x 8-pin, 1 x 6-pin | 1 x 8-pin, 1 x 6-pin |
Максимальная мощность | 195 Вт | 200 Вт | 250 Вт | 244 Вт |
Цена | $510 | $450 | $550 | $410 |
GPU GK104 разбит на четыре GPC (Graphics Processing Clusters), каждый содержит два потоковых мультипроцессора (Streaming Multiprocessors) (ранее назывались SM, теперь SMX).
Хотя можно рассказать очень много подробностей про эволюцию первоначального дизайна GF100 в архитектуру GK104, которая дебютирует сегодня, проще охарактеризовать новый чип через соотношение с графическим процессором GF104, впервые представленным в GeForce GTX 460.
По сравнению с SM чипа GF104, SMX у нового GK104 используют в два раза больше планировщиков “варпов” (warp shedullers) (четыре вместо двух), блоков диспетчеризации (восемь вместо четырёх) и текстурных блоков (шестнадцать вместо восьми) на шейдерный мультипроцессор, наряду с регистровым файлом, который тоже в два раза больше. Также новый GPU использует в два раза больше ядер CUDA. GF104 включает 48 шейдеров на SM, у GK104 это количество возрастает до 192.
GK104 SMX (слева) против GF104 SM (справа)
GF104 | GК104 | Коэффициент | |
Ядер CUDA | 48 | 192 | 4x |
Специальных блоков | 8 | 32 | 4x |
Load/Store | 16 | 32 | 2x |
Текстурных блоков | 8 | 16 | 2x |
Планировщик “варпов” | 2 | 4 | 2x |
Движки геометрии | 1 | 1 | 1x |
Почему ядер CUDA в четыре раза больше, а остальных ресурсов только в два? Шейдеры Kepler работают на частоте процессора (1:1). В архитектурах прошлого поколения (начиная с G80) шейдеры работали на частоте в два раза превышающую частоту ядра (2:1). Таким образом, для удвоения шейдерной пропускной способности на данной частоте требовалось в два раза больше ядер работающих на половине скорости.
Тогда возникает вопрос: с какой стати, nVidia в первую очередь уменьшила шейдерную частоту? Всё дело в тонком балансе производительности, мощности и размере кристалла. Fermi позволяет архитекторам nVidia оптимизировать пространство. Всё же меньше ядер занимают меньше места. Однако двойная скорость требует более высокой частоты и мощности. Kepler, напротив, направлен на эффективность. Поделив частоту шейдеров пополам, разработчики уменьшили энергопотребление. Однако сравнимый уровень производительности потребовал вдвое больше каналов данных. В результате Kepler жертвует размером кристалла для понижения мощности и логики, и ещё большей экономии при разгоне.
Дополнительная мощность и пространство на кристалле сокращены за счёт исключения некоторых аппаратных структур, используемых для помощи в планировании “варпов” и переносит эту нагрузку на программное обеспечение. Сводя к минимуму количество потребляемой энергии и пространство, занимаемое управляющей логикой, по сравнению с Fermi, для выполнения полезной работы освобождается больше места.
nVidia утверждает, что изменения в архитектуре SMX, теоритически, должны удвоить производительность на ватт по сравнению с предшественниками Kepler, это мы и проверим в сегодняшних тестах.
Итак. У нас есть восемь SMX, в каждом из них 192 ядра CUDA, вместе получается 1536. Шестнадцать текстурных блоков на SMX в целом дают 128 блоков на весь GK104. По одному геометрическому движку на каждый SMX, в сумме получаем восемь, однако у GF104 движков PolyMorph тоже восемь. Получается, что nVidia увеличила все остальные ресурсы, но не тронула исходную производительность? Не совсем так.
Для начала каждый движок PolyMorph, по словам nVidia, был переделан так, что его производительность на такт выросла в два раза по сравнению с геометрической логикой Fermi. Это улучшение хорошо прослеживается в синтетических тестах, которые, как (справедливо) считают разработчики, отражают будущее их разработок, где для высокого уровня реализма в играх используется гораздо больше геометрии. Но говоря о сегодняшних играх, таких как HAWX 2, что можно ожидать от новой архитектуры?
В абсолютном выражении, GeForce GTX 680 обгоняет Radeon HD 7970 и Radeon HD 7950, независимо от того, используется тесселяция или нет. Однако, производительность новой карты nVidia снижается на 31% при включении тесселяции в настройках игры. Для сравнения, видеокарты Radeon на базе Tahiti теряет только 16%. Однако, в игре на производительность влияет не только тесселяция. Очень интересно наблюдать, как в современных играх обещания nVidia не вполне сбываются.
Чтобы поддержать возросшую пропускную способность геометрического блока, nVidia удваивает количество движков растеризации по сравнению с GF104, и соотношение с разделами ROP становится 1:1.
Как и в GF104, каждый ROP GK104 выводит восемь 32-битных пикселей за такт, в сумме получается 32. Оба GPU используют в совокупности 256-битные шины памяти, но отличия есть в максимальной пропускной способности памяти.
GeForce GTX 460 включает 1 Гбайт памяти GDDR5 на частоте 900 МГц, что даёт 115.2 Гбайт/с. Видеокарта GeForce GTX 580, которую GeForce GTX 680 должна превзойти, использует память GDDR5 с частотой 1002 МГц на совокупной шине 384 бит, здесь мы видим пропускную способность 192.4 Гбайт/с. В свою очередь, GeForce GTX 680 вооружена памятью GDDR5 2 Гбайт, работающей на частоте 1502 МГц, что в итоге даёт очень похожую цифру – 192.26 Гбайт/с.
Обзор GeForce GTX 680 | GPU Boost
GPU Boost: когда одного гигагерца мало
Кроме очень быстрой памяти GDDR5, GeForce GTX 680 также предоставляет существенное преимущество по тактовой частоте, по сравнению с предыдущими моделями nVidia: по умолчанию GPU работает на частоте 1006 МГц. Но nVidia утверждает, что движок может работать быстрее, даже в пределах TDP в 195 Вт.
Проблема с настройкой более высокой частоты заключается в том, что все приложения нагружают процессор по разному, одни дают низкую нагрузку, другие более высокую. nVidia гарантирует, что GeForce GTX 680 не выйдет за предел мощности на частоте 1006 МГц, даже в очень требовательных играх. Однако, менее энергоёмкие игры не используют всю мощность карты и тем самым включают GPU Boost.
Когда существует запас TDP, GPU Boost увеличивает частоту и напряжение чипа, чтобы увеличить производительность. Механизм чем-то похож на технологию Intel Turbo Boost, в которой отслеживается несколько переменных (энергопотребление, температура, нагрузка и др.). Данные передаются через программный алгоритм, который затем изменяется частоту GPU в течение, приблизительно, 100 мс.
Можно представить, что на каждую переменную, которую измеряет GeForce GTX 680, влияет множество факторов. Карты используются в разных тепловых условиях, они могут быть установлены как в низу материнской платы, так и по центру. Суть в том, что не бывает двух видеокарт GeForce GTX 680, которые вели бы себя одинаково. Выключить GPU Boost невозможно, поэтому данный эффект изолировать мы не можем. Следовательно, партнёры nVidia будут указывать две цифры в показателях карты. Во-первых, базовую частоту, эквивалентную скорости ядра. Во-вторых, поставщикам необходимо указать частоту с GPU boost, которая будет выражена в средней частоте, достигнутой в игре, при которой TDP не достигает предела. Для GeForce GTX 680 эта цифра должна составлять 1058 МГц. Не так уж и много, согласны? Давайте попробуем проиллюстрировать.
Этот график взят со следующих страниц, где мы измеряли производительность на ватт. Он показывает энергопотребление в шести различных играх на разрешении 1920×1080. Как видите, энергопотребление системы колеблется от 260 Вт до, приблизительно, 370 Вт. В среднем, разница между игрой, зависящей от CPU, как, например, World of Warcraft и DiRT 3, сильно нагружающей GPU, составляет 50 Вт.
Учитывая данные показатели мощности можно утверждать, что большинство игр, требующих много мощности, достигнут предела GeForce GTX 680, в то время как более лёгкие игры получат немалый прирост тактовой частоты.
В действительности, даже такая игра, как DiRT 3, получит ускорение. В первом графике сверху показана максимальная мощность платы в процентах, из него ясно видно, что мощность при работе World of Warcraft заметно скачет. Учитывая большой запас мощности, максимальная частота поднялась до уровня 1110 МГц. Metro 2033 тоже довольно маломощная игра и с ней максимальная частота также составила 1110 МГц. Crysis 2, DiRT 3 и даже Battlefield 3 получили меньшее ускорение. Однако они работали чуть быстрее.
Чем отличается GPU Boost от технологии PowerTune от AMD, которые мы рассматривали в обзоре Radeon HD 6970 и Radeon HD 6950? По существу, PowerTune делает более тонкую настройку между самым высоким состоянием производительности (p-state) и промежуточным состоянием, когда превышен TDP. Из обзора архитектуры Cayman:
“…вместо того чтобы разрабатывать модельный ряд Radeon HD 6000 с учётом самых тяжёлых приложений, AMD предоставляет более высокие заводские частоты ядра (880 МГц в случае HD 6970) и полагается на PowerTune для понижения производительности в приложениях, которым ранее хватало, скажем, 750 МГц.”
Другими словами, видеокарта с поддержкой PowerTune может предоставить больше тактовой частоты, чем модель, разработанная с учётом самых худших сценариев по мощности, и это хорошо. Но эта технология не ускоряется для того, чтобы использовать доступный запас мощности. AMD считает, что так лучше, демонстрируя постоянную производительность, как достоинство.
Конечно, у каждого свой взгляд на вещи. Мы не в восторге от того, как вариативность повлияла на наши показатели, поскольку при работе GPU Boost в разных играх мы получаем разный уровень частоты. В то же время, нам нравится, как технология искусно максимизирует производительность при доступном запасе мощности, и затем понижает её, когда в этом нет необходимости. Вероятно, в этом случае потенциальные преимущества для геймеров перевешивают наши беспокойства. Однако, нам бы хотелось иметь возможность выключить опцию GPU Boost для того, чтобы измерить базовые показатели производительности как бы в режиме разработчика.
Обзор GeForce GTX 680 | Разгон: мы хотим больше, чем даёт GPU Boost
Технология GPU Boost не исключает возможность разгона. Но поскольку отключить GPU Boost, как Intel Turbo Boost, невозможно, придётся работать в пределах данной технологии.
Например, разгон теперь осуществляется через смещение. Вы легко можете поднять базовую 3D-частоту до 100, 150 или даже 200 МГц. Однако, если игра уже была ограничена по мощности на заводской частоте, быстрее работать она не станет. В приложениях, которые ранее не достигали теплового предела GeForce GTX 680, смещение поднимает кривую производительности ближе к пределу.
Но поскольку GPU Boost был спроектирован для баланса частоты и напряжения с учётом теплового дизайна, наиболее эффективный разгон можно получить, настроив мощность карты как можно выше. Утилита по настройке EVGA Precision X включает встроенные слайдеры для мощности и частоты GPU.
Хотя TDP карты GeForce GTX 680 составляет 195 Вт, nVidia говорит, что нормальная мощность карты ближе к 170 Вт. Поэтому увеличение слайдера мощности увеличивает и этот показатель. При значении +132%, максимальная настройка в Precision X может предоставить до 225 Вт, именно настолько рассчитаны два шестиконтактных коннектора и слот PCI Express.
Используя Crysis 2 в качестве стабильного тестового варианта, мы можем измерить влияние каждого изменения на производительность.
Сначала мы сделали один прогон уровня Central Park на разрешении 1920×1080 в режиме DirectX 11, без сглаживания. В результаты мы получили 72.3 FPS, во время прогона GPU Boost увеличивал частоту GeForce GTX 680 от 1071 до 1124 МГц (с базового уровня 1006 МГц).
Верхний график показывают скачки близко к потолку мощности GK104. Поэтому мы увеличили целевую мощность карты на 15%. Результат – небольшое ускорение до 74.2 FPS, наряду с частотой, которая варьируется между 1145 и 1197 МГц.
Увеличение целевой мощности, вероятно, высвободило дополнительный тепловой запас и мы смогли повысить смещение на 100 МГц, это дало нам увеличение производительности до 76.1 FPS. В этот раз мы получили постоянный уровень 1215 МГц. nVidia утверждает, что карта так и должна работать, учитывая нашу нагрузку и предел мощности.
Но почему бы снова не поднять целевую мощность? На 130% (225 Вт), производительность падает до уровня 75.6 FPS и график показывает постоянные 1202 МГц. Мы ожидали больше производительности, но никак не меньше. Почему так? Здесь и возникает проблема с GPU Boost. Поскольку результат зависит от факторов, которые постоянно отслеживаются, производительность изменяется с течением времени. С нагревом GPU, увеличивается утечка тока. Из-за этого такие переменные, как частота и напряжение, начинают рассчитываться неправильно.
Эффект похож на систему охлаждения в двигателе автомобиля. Если ехать слишком долго на повышенных оборотах и температуре, то вскоре мощность упадёт. Подобным образом мы видим высокие показатели в коротких тестах. Но если играть несколько часов, технология GPU Boost не сможет быть такой же эффективной.
Смещение до 200 МГц показывает, что данная технология старается держать максимальную частоту в пределах потолка мощности, однако при увеличении обоих пределов легко превысить потенциал платы и снизить производительность.
Переместив ползунок на 150 МГц, вы получите стабильность, но производительность будет не выше, чем при уровне 100 МГц. Без сомнения, для грамотной настройки карты с GPU Boost понадобится больше времени, чем обычно.
Обзор GeForce GTX 680 | PCI Express 3.0 и адаптивный V-Sync
PCI Express 3.0: последний аспект производительности
GeForce GTX 680 использует интерфейс PCI Express на 16 линий, впрочем, как и все остальные видеокарты за последние семь лет. Однако, это одна из первых карт с поддержкой PCIe третьего поколения. Все шест моделей линейки Radeon HD 7000 в этом отношении опередили GeForce GTX 680. Но как мы уже знаем, удвоенная пропускная способность шины, которая и так не полностью нагружена, не сильно влияет на производительность.
Тем не менее, поддержка PCI Express 3.0 становится более важной темой для обсуждения, поскольку первый драйвер nVidia не включает этот интерфейс на платформах X79. Официальная позиция компания заключается в том, что их карта поддерживает третье поколение PCIe, но X79 Express рассчитан на передачу данных только для второго поколения. Однако, если установить карту в систему на базе Ivy Bridge, вы сразу получите скорость передачи 8 GT/s.
nVidia прислала обновлённый драйвер, чтобы доказать, что GeForce GTX 680 действительно поддерживает новый интерфейс и скорость передачи данных должна увеличиться до 12 Гбайт/с. Обеспечит ли nVidia работу GTX 680 с PCIe 3.0 на X79, на это даст ответ новый драйвер. Для сравнения, пропускная способность AMD Radeon HD 7900 немного упала, по сравнению с предыдущими обзорами. Ни AMD, ни Gigabyte не смогли объяснить почему.
Адаптивный V-Sync: гладкость – это хорошо
При тестировании игр мы постоянно ищем способы выключить вертикальную синхронизацию (v-sync), которая создаёт связь между частотой обновления монитора и частотой кадров видеокарты. В большинстве игр выключить v-sync можно прямо в настройках графики. Но в некоторых играх нам приходится взламывать эту функцию, чтобы можно было проводить тесты нормально.
Однако, в реальности лучше использовать v-sync, чтобы предотвратить “разрывы картинки” – артефакт, который возникает в игре, когда частота кадров выше, чем частота обновления дисплея и на экран одновременно выводится больше одного кадра. “Разрыв экрана” беспокоит игроков в разной степени. Однако, если у вас есть карта, способная постоянно обеспечивать больше 60 FPS, включать V-Sync всё же стоит.
Однако с частотой кадров ниже 60 FPS могут возникнуть проблемы. Поскольку эта технология синхронизирует вывод видеокарты с фиксированной частотой обновления, показатели ниже 60 Гц должны быть кратными 60. Если, например, игра работает на скорости 47 кадров в секунду, v-sync понизит её до 30 FPS. Это отобразится на геймплее как небольшое “притормаживание”. Но опять же, степень частоты таких “притормаживаний” будет варьироваться. Если вы знаете, когда и где их ожидать, заметить это очень легко.
Адаптивный v-sync от nVidia помогает избавиться от выбора включать или выключать v-sync. В целом, когда карта даёт больше 60 FPS, v-sync остаётся включённым. Когда частота кадров падает ниже этого барьера, v-sync выключается, чтобы предотвратить “притормаживание”..Драйвер nVidia 300.99 обеспечивает адаптивный V-sync через всплывающее меню, которое также содержит настройки для выключения и включения v-sync.
Поскольку времени для тестов было немного, мы проверили только несколько игр с включённой и выключенной функцией v-sync, а потом с адаптивным v-sync. Эффект “разрыва экрана” с включённым v-sync – это наиболее раздражающий артефакт. С выключенной функцией играть было спокойнее. Но если честно, на видеокарте GeForce GTX 680 производительность в Crysis 2 на самых высоких настройках качества постоянно скакала возле уровня 60 FPS.
В целом, адаптивный v-sync – полезная опция, особенно для более старых моделей видеокарт от nVidia, с которыми частота кадров большую часть времени находится ниже уровня частоты обновления монитора.
Обзор GeForce GTX 680 | Конфигурация и тесты
Тестовая конфигурация | |
Процессор | Intel Core i7-3960X (Sandy Bridge-E) 3.3 ГГц до 4.2 ГГц (42х100 МГц), LGA 2011, 15 Мбайт общего кэша L3, Hyper-Threading включено, Power-savings включено |
Материнская плата | Gigabyte X79-UD5 (LGA 2011) X79 Express Chipset, BIOS F9 |
Память | G.Skill 16 Гбайт (4 x 4 Гбайт) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 and 1.5 В |
HDD | Intel SSDSC2MH250A2 250 Гбайт SATA 6 Гбит/с |
Видеокарта | nVidia GeForce GTX 680 2 Гбайт
AMD Radeon HD 7970 3 Гбайт AMD Radeon HD 7950 3 Гбайт AMD Radeon HD 6990 4 Гбайт nVidia GeForce GTX 590 3 Гбайт nVidia GeForce GTX 580 1.5 Гбайт |
Питание | Cooler Master UCP-1000 W |
ПО и драйверы | |
ОС | Windows 7 Ultimate 64-bit |
DirectX | DirectX 11 |
Видеодрайвер | nVidia GeForce Release 300.99 (для GTX 680) nVidia GeForce Release 296.10 (для GTX 580 и 590) AMD Catalyst 12.2 |
Мы уже упоминали, что кто-то взломал нашу базу данных и выкрал информацию по данному обзору, которые быстро распространились по сети. На основе этих данных многие сделали неправильные выводы о результатах, без учёта аппаратного обеспечения, драйверов и продолжительности тестов. Один из поставщиков поинтересовался, почему украденные результаты Skyrim с включённым FXAA так сильно отличаются от результатов Skyrim в обзоре видеокарт серии Radeon HD 7800 с адаптивным сглаживанием.
Поймите, для каждого обзора мы обновляем свою тестовую базу до последней версии BIOS, скачиваем последние обновления Windows, скачиваем сами игры и новые патчи к ним. Различия в результатах вполне возможны, а отклонения от нормы проверяются по несколько раз. И если читатели отмечают в комментариях, что что-то не так, у нас есть возможность протестировать всё заново, чтобы перепроверить и подтвердить результаты.
Игры и бенчмарки | |
Battlefield 3 | Качество графики Ultra, без AA / 16x AF, 4x MSAA / 16x AF, v-sync выкл., 1680×1050 / 1920×1080 / 2560×1600, DirectX 11, Going Hunting, 90-секунд, Fraps |
Crysis 2 | DirectX 9 / DirectX 11, Ultra System Spec, v-sync выкл., 1680×1050 / 1920×1080 / 2560×1600, без AA / No AF, Central Park, текстуры высокого разрешения: вкл. |
Metro 2033 | Качество графики High, AAA / 4x AF, 4x MSAA / 16x AF, 1680×1050 / 1920×1080 / 2560×1600, Built-in Benchmark, фильтр глубины резкости выключен, версия Steam |
DiRT 3 | Качество графики Ultra High, без AA / без AF, 8x AA / без AF, 1680×1050 / 1920×1080 / 2560×1600, Steam версия, Built-In Benchmark Sequence, DX 11 |
The Elder Scrolls V: Skyrim | Качество графики High (8x AA / 8x AF) / Ultra (8x AA, 16x AF), FXAA вкл., v-sync выкл., 1680×1050 / 1920×1080 / 2560×1600, 25-секунд, Fraps |
3DMark 11 | Версия 1.03, Extreme Preset |
HAWX 2 | Качество графики Highest, 8x AA, 1920×1200, Retail Version, Built-in Benchmark, Tтесселяция вкл/выкл |
World of Warcraft: Cataclysm | Качество графики Ultra, без AA / 16x AF, 8x AA / 16x AF, From Crushblow to The Krazzworks, 1680×1050 / 1920×1080 / 2560×1600, Fraps, DirectX 11 Rendering, клиент x64 |
SiSoftware Sandra 2012 | Sandra Tech Support (Engineer) 2012.SP2, GP Processing and GP Bandwidth Modules |
CyberLink MediaEspresso 6.5 | Образец видео 449 Мбайт MPEG-2 1080i в Apple iPad 2 Profile (1024×768) |
LuxMark 2.0 | 64-bit Binary, версия 1.0, Classroom Scene |
Обзор GeForce GTX 680 | Результаты тестов
3DMark 11 (DX 11)
Хотя нам нравится начинать с синтетического теста Futuremark мы знаем, что он не всегда отражает аспекты реальных игр, которые так или иначе связаны с отношениями между разработчиками и, следовательно, с дополнительной оптимизацией.
С этой точки зрения позиция GeForce GTX 680 находится как раз под картами с двумя GPU, которые включены в тесты только для сравнения, поскольку в продаже их больше не найти.
Стоит отметить лидерство AMD Radeon HD 7970 над GeForce GTX 580, которую до сих пор можно назвать очень быстрой видеокартой.
Battlefield 3 (DX 11)
На разрешениях 1680×1050 и 1920×1080 GeForce GTX 680 проскальзывает вперёд GeForce GTX 590 при работе без сглаживания, однако Radeon HD 6990 от AMD оказалась быстрее всех как с включённой комбинацией 4x MSAA/FXAA, так и с выключенной. На более низких разрешениях новый флагман nVidia существенно обгоняет Radeon HD 7970. Однако, на 2560×1600 разница уменьшается.
После обзора видеокарт серии Radeon HD 7800М читатели просили вернуть настройки графики Ultra, что мы и сделали в данном материале. Теперь почти любая из этих карт подойдёт для игры на разрешении 2560×1600 без сглаживания (вероятно без FXAA можно обойтись).
Crysis 2 (DX 9/DX 11)
По результатам DirectX 9, новая видеокарта GeForce GTX 680 обгоняет Radeon HD 7970 на разрешениях 1680×1050 и 1920×1080, и отстаёт на 2560×1600. Однако более вероятно, что на видеокартах такого класса вы будете играть на DirectX 11. В этом случае GeForce GTX 680 занимает второе место во всех трёх диаграммах, её обходит только GeForce GTX 590. Она предоставляет комфортный уровень FPS вплоть до разрешения 1920×1080.
Совсем недавно у карт AMD наблюдались проблемы с тестами Crysis 2 на базе DirectX 9. Очевидно, что разработчики драйверов проделали немало работы по оптимизации особенностей новой архитектуры GCN. Теперь DirectX 9 – это одна из сильных сторон AMD в играх.
The Elder Scrolls V: Skyrim (DX 9)
GeForce GTX 680 занимает второе место в Skyrim на разрешениях 1680×1050 и 1920×1080. Однако, на всех платформах производительность довольно высокая, поэтому эта победа значит не особенно много.
Частота кадров заметно снижается на разрешении 2560×1600 и Radeon HD 6990 обгоняет новую модель от nVidia. Однако в продаже нет ни Radeon HD 6990 ни GTX 590, поэтому их победа несёт символический характер. Если честно, мы рады, что они исчезают.
Но вернёмся к теме, GeForce GTX 680 продолжает держать Radeon HD 7990 на расстоянии во всех трёх разрешениях.
DiRT 3 (DX 11)
В игре DiRT 3 без функции MSAA GeForce GTX 680 смогла обогнать обе карты с двумя GPU на всех разрешениях. Однако, при включении 8x MSAA новый флагман nVidia остаётся позади Radeon HD 6990 и GeForce GTX 590, также на всех разрешениях. Несмотря на это, GeForce GTX 680 здесь является самой быстрой видеокартой с одним GPU, даже на 2560×1600.
Видеокарте Radeon HD 7970 пришлось посоперничать с GeForce GTX 580, особенно на более низких разрешениях.
World of Warcraft: Cataclysm (DX 11)
Многие читатели предложили протестировать 64-битную версию клиента World of Warcraft, которая вышла с патчем 4.3.3. Поэтому в сегодняшних таблицах представлена последняя сборка на 64-бит. Видеокарты nVidia имеют тенденцию показывать лучшие результаты в тестах WoW. Это продолжается более года, хотя уже вышло множество патчей и обновлений драйверов. GeForce GTX 590 занимает первое место, не далеко отстали GeForce GTX 680 и GeForce GTX 580.
Вы заметили, что на первых двух разрешениях Radeon HD 6990 находится в самом низу? Два GPU Cayman не смогли помочь карте, как без сглаживания, так и с 8x MSAA. WoW сильно зависит от производительности центрального процессора. Между тем, CrossFire сильнее нагружает CPU, чем SLI. Учитывая это становится понятно, почему карта AMD с двумя GPU остаётся позади всех, хотя включение сглаживания влияет на производительность совсем немного.
Конечно, при повышении разрешения до 2560×1600 графическая нагрузка увеличивается, Radeon HD 6990 догоняет nVidia GeForce GTX 680 и занимает третье место.
Metro 2033 (DX 11)
Тестирование видеокарт high-end класса позволило нам повысить настройки графики в Metro 2033. Мы по-прежнему не смогли получить постоянный комфортный уровень FPS на предустановке Very High, поэтому даже не стали пытаться включать фильтр глубины резкости на базе DirectCompute, который сильно влияет на производительность игры в целом.
На этих настройках GeForce GTX 680 начал неплохо с адаптивным сглаживанием и закончил между Radeon HD 6990 и GeForce GTX 590. Однако при включении 4x MSAA, Radeon HD 7970 всё же быстрее.
На разрешении 2560×1600, флагман AMD предоставляет более высокую производительность на обеих настройках, а Radeon HD 7950 почти сравнял позиции с GeForce GTX 680 при 4x MSAA.
Не часто увидишь, как GeForce GTX 580 плетётся позади всех в игровых тестах.
Sandra 2012
Если вам нужны доказательства того, что GK104, на самом деле, призван выполнять роль GeForce GTX 460, они перед вами.
Хотя увеличенное количество шейдеров GPU GK104 положительно влияет на 32-битные вычисления с плавающей точкой и новая карта значительно превосходит GeForce GTX 590, конкурентные Radeon HD 7950, Radeon HD 6990 или Radeon HD 7970 всё же обходят её.
Кроме того, nVidia ограничивает вычисления двойной точности 64-бит вычислениями 1/24 одинарной точности, защищая карты, ориентированные для вычислений, от замены картами для геймеров. В результате GeForce GTX 680 обходит GeForce GTX 590 и GeForce GTX 580, которые значительно медленнее трёх конкурирующих видеокарт AMD.
Архитектура GCN в этом тесте полностью доминирует, создавая отдельную группу, которая сильно отрывается от GeForce GTX 680 или Radeon HD 6990.
С последним драйвером 296.10 от nVidia (и с некоторыми более ранними версиями), модели GeForce GTX 590 и GeForce GTX 580 не смогли выполнить этот тест, используя OpenCL либо DirectCompute.
Производительность вычислений в LuxMark 2.0
В прошлом флагманский GPU, который использовался в high-end картах Quadro и GeForce GTX 480, nVidia уделила вычислительной производительности не меньше внимания, чем игровой.
В этот раз, во время презентации GeForce GTX 680, компания предпочла вообще не говорить о общих вычислениях, отшучиваясь, что она потратила слишком много сил на этот аспект в архитектуре Fermi и не хочет возвращаться к нему снова.
Но, похоже, что компания действительно не хочет возвращаться к этому. Тест Sandra 2012 показал, что GeForce GTX 680 тянутся за картами серии Radeon HD 7900 в 32-битных вычислениях. И она просто раздавлена в 64-битных операциях с плавающей запятой, поскольку nVidia намеренно сдерживает производительность, чтобы защитить профессиональные видеокарты для бизнес решений.
Тогда не удивительно, что в тесте LuxMark 2.0 на базе OpenGl GeForce GTX 680 приползает к финишу последней.
Для сравнения, GPU GF110 видеокарт GeForce GTX 580/590 лучше приспособлен для вычислений общего назначения. И nVidia утверждает, что лучше продаст карту Quadro для рабочих станций или отдельную видеокарту Tesla. Но мы хотим возразить, что видеокарты AMD серии Radeon HD 7900 являются вполне жизнеспособной альтернативой в данной нагрузке, по крайней мере, с точки зрения производительности (а не по цене).
NVEnc и MediaEspresso 6.5
Когда Intel представила технологию Quick Sync в качестве секретного оружия архитектуры Sandy Bridge, мы думали, что AMD и nVidia понадобится около года, чтобы перейти с перекодирования видео на базе CUDA и APP к более специализированному методу с фиксированными функциями, способному предоставить больше производительности при меньшем энергопотреблении.
AMD представила своё решение почти через год после выхода нашей статьи “Sandy Bridge: Intel Core второго поколения”. К сожалению, драйверы, включающие аппаратную функцию не были готовы, когда вышла Radeon HD 7970. Они не были готовы и к обзору Radeon HD 7950. Мы не обнаружили функцию Video Codec Engine и через несколько недель, когда в нашу лабораторию попали Radeon HD 7770 и HD 7750. Нас попросили подождать ещё немного до выхода видеокарт AMD Radeon HD 7870 и Radeon HD 7850.
Теперь очередь nVidia. GeForce GTX 680 включает функцию под названием NVEnc, теоритически способную взять несколько входящих кодеков и декодировать, предварительно обработать и зашифровать файл H.264.
Функция Intel Quick Sync уже которой год принимает MPEG-2, VC-1 и H.264, и выводит MPEG-2 или H.264. С другой стороны, nVidia не даёт конкретную информацию о совместимых форматах. Но мы знаем, что она ограничена выводом H.264. Однако, максимальное разрешение для движка Intel оставляет 1080p на вход и выход, в то время NVEnc предположительно поддерживает кодирование вплоть до разрешения 4096×4096.
Как и Quick Sync, технология NVEnc, в данный момент, доступна через собственный API, хотя nVidia планирует предоставить доступ к NVEnc через CUDA.
Наша стандартная нагрузка для этого приложения включает перекодирование файла MPEG-2 размером почти 500 Мбайт в совместимый с iPad 2 ролик в формате H.264. Мы прогоняли его снова и снова, и всё же GeForce GTX 680 оказалась медленнее, чем GeForce GTX 580 или 590. Позже компания сообщила, что в драйвере есть баг, влияющий на производительность перекодирования MPEG-2.
Поэтому мы взяли другой трейлер на базе H.264 и снова провели тесты. NVEnc действительно существенно влияет на производительность, сократив время перекодирования почти вдвое, по сравнения с другими картами nVidia.
Стоит отметить, что у нас возникали некоторые проблемы с перекодированием с помощью аппаратного ускорения на картах AMD в приложении MediaEspresso, однако последние драйверы и обновления от CyberLink их решили. Несмотря на это, уровень производительности остался на среднем уровне. Хотя новые модели серии Radeon HD 7900 ещё пытаются преследовать карты nVidia предыдущего поколения в кодировании из H.264 в H.264, при перекодировании из MPEG-2 в H.264 всё гораздо хуже. В обоих случаях Radeon HD 6990 показывает слабый результат.
Сейчас, насколько мы знаем, AMD Video Codec Engine, представленный в прошлом году и концептуально похожий на NVEnc, по-прежнему не работает. Это хорошая возможность для AMD вернуться в игру. Как бы там ни было, тот факт, что поддержки драйвера нет по прошествии месяца, совсем не радует.
Обзор GeForce GTX 680 | Температура и шум
Шум и температура при бездействии
Два года назад, при обзоре nVidia GeForce GTX 480 и GTX 470, мы упрекнули компанию за высокое энергопотребление и неподобающий теплоотвод. Похоже с того времени nVidia серьёзно поработала над системой охлаждения. Это сильно отразилось на уровне шума, который был особенно заметен с картой GeForce GTX 580.
Однако, усилия инженеров и преимущества 28-нм техпроцесса сделали своё дело. GeForce GTX 680 тише любой другой high-end видеокарты в простое. И похоже для её охлаждения не нужен очень большой поток воздуха. После десяти минут простоя холоднее этой карты оказалась только GTX 590.
Шум и температура при нагрузке
Поведение видеокарты под нагрузкой более красноречиво, чем при простое. Здесь GeForce GTX 680 действительно впечатляет, показав самый низкий уровень шума.
И хотя карта довольно тихая, её кулер держит температуру под контролем. Radeon HD 7970 и Radeon HD 7950 выделяют меньше тепла, однако GeForce GTX 680 обходит другие карты nVidia.
Обзор GeForce GTX 680 | Энергопотребление
И nVidia, и AMD показали впечатляющие результаты энергопотребления при бездействии на своих новых картах. GeForce GTX 680 втиснулся между Radeon HD 7970 и Radeon HD 7950.
Однако, технология AMD ZeroCore, в отличии от nVidia, помогла компании снизить результаты при выключенном дисплее. Энергопотребление обеих карт Radeon HD 7900 снизилось на 13-16 Вт, а у GeForce GTX 680 только на 2 Вт. Это лучше, чем у GeForce GTX 580, однако, AMD здесь бесспорно ведёт.
Как мы уже видели в нескольких тестах производительности, GeForce GTX 680 близко подбирается к уровню производительности GeForce GTX 590 и Radeon HD 6990, и даже может обойти их в играх типа DiRT 3. Но взгляните на разницу в энергопотреблении.
Показатели GeForce GTX 590 выглядят просто ужасно, хотя nVidia хорошо справляется с температурой и шумом. У Radeon HD 6990 эти показатели хуже, а энергопотребление наоборот чуть ниже. Но то же не совсем низкое.
С видеокартами на одном GPU ситуация улучшается. GeForce GTX 680 закрепился между Radeon HD 7970 и Radeon HD 7950, которые предлагают больше производительности на ватт, чем предыдущий чемпион – GeForce GTX 580.
Интересно, что 3DMark demo даёт участникам две разные нагрузки. GeForce GTX 590 показывает, что Deep Sea требует больше мощности, однако, и остальные карты тоже в какой-то степени демонстрируют непостоянный уровень энергопотребления. Тем временем, GeForce GTX 680 показывает относительно прямую линию на протяжении всего теста, это говорит о том, что GPU Boost постоянно подстраивает частоту/напряжение для работы в пределах теплового пакета.
Но хотя эта информация интересна в теории, на практике производительность на ватт может быть совсем другая. Так что давайте проверим её другим путём.
Обзор GeForce GTX 680 | Производительность на ватт: индекс
И AMD, и nvidia заявляют, что их карты предлагают непревзойдённый уровень производительности на ватт, и мы верим обеим компаниям.
Однако, nVidia делает дополнительный шаг, настраивая частоту и напряжение в реальном времени, основываясь на идее, что нет двух рабочих нагрузок, которые требуют одинаковое количество мощности. В результате мы не можем просто протестировать одну игру, поделить среднюю частоту кадров на среднее энергопотребление и сказать, что результаты отражают все игры. Но у нас нет времени тестировать каждую игру на каждом разрешении (да потребление энергии зависит от разрешения, детализации и т.д.). Поэтому мы взяли игры из нашего тестового набора, настроили их на разрешение 1920×1080 и максимально высокое качество графики, и представили график поведения каждой из них на всех шести видеокартах.
Чтобы не загромождать обзор данными, мы представили шесть игр на четырёх картах. У нас есть результаты GeForce GTX 590 и Radeon HD 6990, но они просто ужасные.
Не важно, что какой-то тест закончился быстрее других. Главное, что у нас есть данные мощности, наряду с уровнем производительности, получившимся во время тестового прогона. Чтобы показать результаты на диаграмме, мы совместили верхние и нижние границы энергопотребления системы в каждой игре, и ни в одной не получили идентичных результатов.
Усреднив все игры, мы получили среднее энергопотребление для каждой видеокарты. Radeon HD 7950, в среднем, использует меньше всего энергии, за ним следует GeForce GTX 680.
Нам уже известно, что Radeon HD 7970 быстрее, чем GeForce GTX 580. Тот факт, что данной модели необходимо меньше мощности говорит о том, что она ещё и более эффективна.
Средний уровень частоты кадров шести игр на разрешении 1920×1080 даёт нам индекс производительности, представленный в кадрах в секунду. GeForce GTX 680 с лёгкостью забирает первую позицию, далее идёт AMD Radeon HD 7970. GeForce GTX 580 занимает третье место, на последнем оказалась модель Radeon HD 7950.
Сегодня GeForce GTX 580 выступает в качестве основы. Поскольку мы хотим сравнить конкурирующие архитектуры AMD и nVidia, показатель GTX 580 взят за 100%, остальные результаты говорят сами за себя.
Но волнует ли вас это как геймера? Наверняка меньше, чем абсолютная производительность. Сомневаемся, что вы заплатите больше за видеокарту именно потому, что у неё высокий уровень производительности на ватт.
Обзор GeForce GTX 680 | Заключение
Иногда при появлении новых видеокарт бывает довольно тяжело выяснить, оправдывают ли производительность и функциональность стоимость новинки. Это не наука и верный ответ не всегда бывает предельно ясным. Но не в этот раз.
GeForce GTX 680 сегодня является самой быстрой видеокартой с одним GPU и с этим не поспоришь. Что ещё хуже для AMD, так это цена GTX 680, которая находится между Radeon HD 7970 и Radeon HD 7950. С учётом того, что это первоначальная цена nVidia, для конкуренции AMD следует существенно понизить стоимость видеокарт серии Radeon HD 7900. Мы думаем, что цена HD 7970 может упасть на $100, а Radeon HD 7950 на $50, чтобы оставить пространство между Radeon HD 7870 и HD 7970.
Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460, nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580.
Учитывая данные тестов, выдающийся список возможностей и конкурентную цену можно сделать вывод, что GeForce GTX 680 для геймера лучше, чем Radeon HD 7970. И поскольку nVidia, наконец, поддерживает два выхода на монитор, для нашей рабочей станции мы выбираем архитектуру Kepler.
Но это, конечно, если не пожалеть $500. Геймеры с ограниченным бюджетом не должны забывать, что видеокарта Radeon HD 7870, которую AMD выпустила чуть ранее в этом месяце, недавно появилась в онлайн-магазинах. Учитывая ценник в $360 мы считаем, что это более разумный выбор, нежели карты серии 7900. В тестах она идёт наравне с GeForce GTX 580, но требует меньше мощности.