Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Встречайте новую видеокарту
На нашей планете более семи миллиардов человек. Так совпало, что в GPU NVIDIA GK110, на котором раньше работали только профессиональные видеокарты Tesla K20X и K20, 7,1 миллиарда транзисторов. Если разделить GK110 на транзисторы, то каждый человек на Земле получил бы по одному. В нашу редакцию пришли целых три таких GPU, управляющие тремя мощными видеокартами GeForce GTX Titan 6 Гбайт.
По словам представителей NVIDIA, GK110 – это самый большой процессор, который может произвести компания TSMC на 28-нанометровом ядре. Здравый смысл подсказывает, что этот GPU будет дорогим, прожорливым, горячим и не принесёт высокую прибыль. Два предположения абсолютно верны. Однако два других, как это ни удивительно, не подтвердились.
Знакомая внешность
Несмотря на то, что в GeForce GTX Titan 6 Гбайт используется большой и сложный графический процессор, сама видеокарта не очень крупная. Её длина составляет 267 мм. Это как раз между GeForce GTX 680 (254 мм) и GeForce GTX 690 (280 мм), и на 13 мм короче, чем Radeon HD 7970. Инженеры отказались от сравнительно дешёвого на вид пластикового корпуса GeForce GTX 680 в пользу жёсткого двухслотового корпуса наподобие того, что мы видел у GeForce GTX 690.
Однако у этих дорогих видеокарт есть заметные различия. Для эффективного охлаждения двух GPU карты GeForce GTX 690 использовался осевой вентилятор, а в GeForce GTX Titan 6 Гбайт применяется центробежный вентилятор, выдувающий горячий воздух из задней части карты. Теперь можно забыть про приток лишнего тепла в корпус вашего ПК. К сожалению, как сказали в NVIDIA, корпус вентилятора 690-ой из магниевого сплава оказался слишком дорогим, поэтому весь кожух сейчас выполнен из алюминия (за исключением окошка из поликарбоната, которое также досталось нам от GeForce GTX 690).
Очень часто вентиляторы центробежного типа обвиняют за высокий, по сравнению с осевыми, уровень шума. Если вручную повысить обороты до максимума, звук получается не из приятных. Но если карта регулирует его скорость автоматически, работа GeForce GTX Titan 6 Гбайт вообще едва слышна. NVIDIA частично связывает это с наличием испарительной камеры, а также с более эффективной термопастой, расширенным числом алюминиевых рёбер радиатора и вибропоглащающим материалом вокруг вентилятора.
Кроме эстетических и акустических особенностей, у GeForce GTX Titan 6 Гбайт и GeForce GTX 690 есть ещё одна общая черта. Как и полагается флагманской модели, новая видеокарта несёт на себе логотип GeForce GTX. Зелёная надпись подсвечивается светодиодами, а уровень яркости можно регулировать через программу, поставляемую в комплекте.
Над крепёжной скобой находятся коннекторы SLI. Новая видеокарта NVIDIA может работать в связке из двух, трёх и четырёх видеокарт, однако представители компании говорят, что четвёртый GPU нужен для установки рекордов скорости, нежели для реального прироста в играх.
Любая комбинация графических адаптеров GeForce GTX Titan 6 Гбайт способна выводить изображение на четыре монитора одновременно, три из которых могут работать в режиме Surround, а четвёртый будет в качестве дополнительного. Понятно, что при одной установленной видеокарте вам понадобятся все четыре разъёма: два dual-link DVI, один полноценный порт HDMI и один полноценный порт DisplayPort. Две или три таких карты в SLI дадут больше свободы в конфигурации нескольких мониторов.
Хотя процессор GK110 достаточно громоздкий, по части энергопотребления он менее прожорливый, чем два GK104 (по 3,5 миллиарда транзисторов каждый), работающих вместе в видеокарте GeForce GTX 690. Тепловой пакет двухчиповой модели составляет 300 Вт, следовательно, для работы ей необходимы два восмиконтактных разъёма питания.
Расчётная потребляемая мощность GeForce GTX Titan 6 Гбайт составляет 250 Вт, и по аналогии с Radeon HD 7970 GHz Edition дополнительно ей необходимы один восьмиконтактный и один шестиконтактный разъёмы. Слот PCI Express x16 обеспечивает 75 Вт, шестиконтактный разъём – ещё 75 Вт, восьмиконтактный – 150 Вт. Простые вычисления показывают, что с учётом характеристик, ещё и запас остаётся. NVIDIA рекомендует для системы с этой видеокартой блок питания как минимум на 600 Вт, хотя большинство сборщиков комплектуют системы mini-ITX моделями на 450 и 500 Вт.
GeForce GTX Titan | GeForce GTX 690 | GeForce GTX 680 | Radeon HD 7970 GHz Ed. | |
Универсальные процессоры | 2688 | 2 x 1536 | 1536 | 2048 |
Блоки текстурирования | 224 | 2 x 128 | 128 | 128 |
Блоки растеризации | 48 | 2 x 32 | 32 | 32 |
Частота GPU, МГц | 836 | 915 | 1006 | 1000 |
Скорость заполнения текстур, Гтекс/с | 187,5 | 2 x 117,1 | 128,8 | 134,4 |
Частота памяти, МГц | 1502 | 1502 | 1502 | 1500 |
Шина памяти, бит | 384 | 2 x 256 | 256 | 384 |
Пропускная способность памяти, Гбайт/с | 288,4 | 2 x 192,3 | 192,3 | 288 |
Объём видеопамяти | 6 Гбайт GDDR5 | 2 x 2 Гбайт GDDR5 | 2 Гбайт GDDR5 | 3 Гбайт GDDR5 |
Размер кристалла, мм² | 551 | 2 x 294 | 294 | 365 |
Количество транзисторов (млрд.) | 7,1 | 2 x 3,54 | 3,54 | 4,31 |
Технологический процесс, нм | 28 | 28 | 28 | 28 |
Разъёмы питания | 1 x 8-pin, 1 x 6-pin | 2 x 8-pin | 2 x 6-pin | 1 x 8-pin, 1 x 6-pin |
Максимальная потребляемая мощность, Вт | 250 | 300 | 195 | 250 |
Цена, $ | 1000 | 1000 | 460 | 430 |
Сняв громоздкий кулер, перед нами предстали массивный GPU, подсистема памяти и схема регулировки напряжения.
Минимальная рабочая частота GK110 в карте Titan составляет 836 МГц. Однако NVIDIA утверждает, что с переработанной версией GPU Boost чип будет работать на 876 МГц. Из тестов в статье “Обзор GeForce GTX 680: Kepler против Tahiti” мы знаем, что поведение технологии GPU Boost зависит от множества факторов, включая температуру в помещении. Например, в тесте World of Warcraft, GeForce GTX Titan 6 Гбайт едва достиг 70% теплового пакета. Поэтому GPU работал на частоте 993 МГц, даже несмотря на то, что температура находилась на уровне 77 градусов Цельсия. В скором времени мы представим более подробную информацию, касающуюся GPU Boost 2.0.
На лицевой и тыльной стороне печатной платы находятся по 12 модулей ёмкостью 2 Гбит, которые в совокупности дают 6 Гбайт памяти GDDR5. Модули Samsung с задержкой 0,33 нс рассчитаны на скорость 6000 Мбит/с, и в карте NVIDIA функционируют на частоте 1502 МГц. Благодаря совокупной шине 384-бит, пропускная способность достигает 288,4 Гбайт/с.
Ближе к задней части печатной платы можно заметить шесть фаз питания для GPU и две – для памяти. Для сравнения, в GeForce GTX 690 использовались пять фаз на каждый GPU (всего 10) и по одной – на память для каждого GPU. Это очень важно, поскольку NVIDIA использует механизм увеличения напряжения на GeForce GTX Titan 6 Гбайт, прямо влияющий на достижение более высоких показателей частоты через GPU Boost. Изменение напряжения производится через программу EVGA Precision X. С помощью этой утилиты нам удалось повысить частоту нашего образца со стандартных 876 МГц до 1,2 ГГц, при этом температура GPU не превысила порог в 87 градусов Цельсия.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | GK110 – настоящий танк
Вспомните последнее поколение видеокарт NVIDIA 500-ой серии на базе Fermi. Каждый GPU команда маркетологов приписывала к одному из трёх придуманных классов: танк, охотник и снайпер. Каждая видеокарт была оптимизирована под определённую роль. GeForce GTX 580 была тяжёлым танком с GF110 на борту. Большая, мощная и дорогая, тогда она представляла максимальный потенциал архитектуры Fermi.
Блочная диаграмма GK110
Мы знали, что GeForce GTX 680 не будет последователем GF110, даже несмотря на то, что NVIDIA просила за новую модель $500. Графический процессор GK104 оптимизирован для игр и сильно жертвует вычислительной производительностью, уровень которой в тестах OpenCL ниже, чем у GTX 580. В то время, NVIDIA преуменьшала значение компромиссов GK104 и вместо этого предпочитала расписывать, насколько хорошо чип с 3,5 миллиардами транзисторов соперничает с GPU Tahiti с 4,3 миллиардами транзисторов от AMD в играх.
Но потом компания представила семейство Tesla K20 с чипами GK110 — вот это настоящий танк (хотя NVIDIA больше не использует такую аналогию).
Внутри SMX
GPU GK110 состоит из 15 потоковых мультипроцессоров, которые, как вы уже наверное знаете, называются SMX. Эти блоки SMX не сильно отличаются от таковых у графического процессора GK104 в видеокарте GeForce GTX 680. Они характеризуются 192 ядрами CUDA, 16 блоками текстурирования и очень похожей структурой кэша. Но самих блоков гораздо больше. GK104 состоит из восьми блоков SMX. У GK110 их 15. Поскольку чип громоздкий и сложный, дефекты могут негативно сказаться на прибыли. Конечно, идеально изготовленные GPU существуют, но даже у самых лучших карт на GK110 один блок SMX отключён. Умножьте 192 шейдера на 14, и вы получите GPU с 2688 ядрами CUDA. Более того, 16 блоков текстурирования на 14 SMX дают 224 блока по сравнению с 128-ю у GeForce GTX 680.
В одном SMX: | GF100 (Fermi) | GF104 (Fermi) | GK110 (Kepler) | GK104 (Kepler) |
CUDA Compute Capability | 2.0 | 2.0 | 3.5 | 3.0 |
Потоков | 32 | 32 | 32 | 32 |
Максимум варпов/SMX | 48 | 48 | 64 | 64 |
Максимум потоков/SMX | 1536 | 1536 | 2048 | 2048 |
Поточных блоков/SMX | 8 | 8 | 16 | 16 |
32-битные регистры /SMX | 32768 | 32768 | 65536 | 65536 |
Максимум регистров /поток | 63 | 63 | 255 | 63 |
Максимум потоков /поточный блок | 1024 | 1024 | 1024 | 1024 |
Помимо “впихивания” дополнительных ресурсов в кристалл, GK110 исправляет самый яркий недостаток GeForce GTX 680 (особенно если учесть, что GeForce GTX 680 позиционируется как замена GeForce GTX 580), а именно – вычислительный потенциал в операциях с плавающей запятой. Каждый блок SMX чипа GK104 состоит из 192 ядер, совместимых с FP32. Их пиковая вычислительная мощность с плавающей запятой достигает 3 TFLOPS. Но в нём представлено только восемь блоков FP64, скорость вычислений с двойной точностью которых составляет лишь 1/24 от скорости FP32. SMX в GK110 содержит 64 ядра CUDA FP64, меняя соотношение до 1/3. По данным NVIDIA, у GeForce GTX Titan 6 Гбайт пиковая скорость вычислений с одинарной точностью достигает 4,5 TFLOPS, а с двойной точностью – 1,5 TFLOPS. Теоретически она обгоняет Radeon HD 7970 GHz Edition с показателями 4,3 TFLOPS и 1,01 TFLOPS для скорости вычислений с одинарной и двойной точностью соответственно.
SMX процессора GK110 с 64 ядрами CUDA FP64
SMX процессора GK104 (восемь ядер FP64 не отображены)
Естественно, нас порадовала новость, что GK110 делает такой акцент на вычислениях. Однако мы не сомневаемся, что приоритетной для GeForce GTX Titan 6 Гбайт остаётся высокая производительность в настоящих играх. Чтобы сбалансировать 75%-ое увеличение количества шейдеров и блоков текстурирования, NVIDIA также расширила конвейер GPU. В GK104 четыре раздела ROP могут обрабатывать восемь 32-битных целочисленных пикселя за такт, в итоге мы имеем 32 блока растеризации. GK110 использует шесть таких блоков, увеличивая показатель до 48.
GeForce GTX 680 и GeForce GTX Titan 6 Гбайт работают с памятью GDDR5 на частоте 1502 МГц. Но поскольку у GK110 – шесть каналов памяти по 64-бит, а не четыре, как у GK104, пиковая пропускная способность увеличивается на 50%, с 192 Гбайт/с до 288 Гбайт/с. Это близко к показателям референсной Radeon HD 7970 GHz Edition, которая тоже использует память GDDR5 с частотой 1500 МГц и шиной 384-бит.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Вычислительная производительность и баланс
Тестируя GeForce GTX Titan 6 Гбайт ещё перед тем, как компания смогла более подробно рассказать об особенностях карты, мы заметили, что производительность вычислений с двойной точностью была очень низкой в таких утилитах как SiSoftware Sandra. Хотя соотношение должно было быть 1/3 от скорости FP32, по нашим результатам оно было ближе к 1/24 как у GeForce GTX 680.
Выяснилось, что для максимизации тактовой частоты и минимизации тепловыделения GK110, NVIDIA намеренно заставила модули FP64 работать на 1/8 тактовой частоты чипа. Умножьте это на соотношение производительности с двойной и одинарной точности ядер CUDA, которое составляет 1:3, и число, которое мы получили изначально, окажется верным.
Однако NVIDIA утверждает, что это мощная видеокарта, и она может обеспечить скорость вычислений с одинарной точностью до 4,5 TFLOPS и с двойной до 1,5 TFLOPS. Но как это возможно?
Маловероятно, что покупатели Tesla будут экономить и покупать игровые карты без коррекции ошибок памяти ECC, без программ для управления и слежения за GPU, без поддержки GPUDirect или Hyper-Q. Тем не менее, разработчики могут воспользоваться возможностями видеокарт GeForce GTX Titan 6 Гбайт, чтобы и дальше пропагандировать приложения с GPU-ускорением (при этом вам не придётся тратить около восьми тысяч долларов на Tesla K20X), поэтому NVIDIA действительно хочет реализовать весь вычислительный потенциал GK110.
Описание: опция активирует большее количество модулей вычислений с плавающей запятой с двойной точностью для выбранного GPU, что увеличивает скорость вычислений с двойной точностью в приложениях CUDA. Обратите внимание, что включение этих настроек понизит производительность всех программ, не поддерживающих CUDA, включая игры.
Для активации полной скорости ядер CUDA FP64 необходимо открыть панель управления драйвера, нажать ссылку Manage 3D Settings, прокрутить вниз до строки CUDA – Double precision и выбрать вашу видеокарту GeForce GTX Titan 6 Гбайт. Это действие деактивирует GPU Boost, поэтому включать его следует лишь тогда, когда вам точно нужны ядра FP64 на полной скорости.
Мы готовы подтвердить, что данная опция разблокирует вычислительный потенциал GK110, но поделиться результатами тестов пока не можем. Они будут опубликованы в течение 3-4 дней.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | GPU Boost 2.0: новый алгоритм
GPU Boost – это механизм NVIDIA, меняющий производительность видеокарт в зависимости от типа обрабатываемой задачи. Как вы, вероятно, знаете, игры обладают различными требованиями к ресурсам GPU. Исторически сложилось так, что частота должна быть настроена с учётом худшего сценария. Но при обработке “лёгких” задач GPU “молотил” впустую. GPU Boost отслеживает различные параметры и регулирует частоты вверх или вниз в зависимости от потребности и текущей ситуации.
Первая реализация GPU Boost работала в условиях определённого порога мощности (170 Вт в случае GeForce GTX 680). Однако инженеры компании выяснили, что они могут безопасно превысить этот уровень, если температура графического процессора достаточно низкая. Таким образом, производительность можно оптимизировать ещё сильнее.
На практике GPU Boost 2.0 отличается лишь тем, что теперь NVIDIA ускоряет частоту, основываясь не на показателе предельного энергопотребления, а на определённой температуре, которая составляет 80 градусов Цельсия. Это значит, что теперь будут использоваться более высокие значения частоты и напряжения вплоть до нагрева чипа до 80 градусов. Не забывайте, что температура главным образом зависит от профиля и настроек вентилятора, чем выше его скорость, тем ниже температура и, следовательно, выше значения GPU Boost (и уровень шума, к сожалению, тоже). Технология по-прежнему делает оценку ситуации раз в 100 мс, поэтому NVIDIA есть ещё над чем поработать в будущих версиях.
Настройки, зависящие от температуры, по сравнению с первой версией GPU Boost, ещё сильнее усложняют процесс тестирования. Всё, что повышает либо понижает температуру GK110, изменяет частоту чипа. Следовательно, добиться стабильных результатов между прогонами довольно сложно. В лабораторных условиях единственная надежда на устойчивую температуру окружающей среды.
Санкционированное перенапряжение?
Озвучивая характеристики новой модели, NVIDIA определила ей срок жизни в пять лет. Выбор частоты и напряжения – это тщательный процесс, в котором стоит учитывать и этот период. Обычно из-за ручного повышения напряжения чип работает при более высокой температуре, следовательно, срок его службы сократится. Поэтому разгон – это весьма острая тема для большинства компаний, ввиду чего они активно препятствуют агрессивному аппаратному разгону энтузиастами. Хотя производители знают, что люди вроде нас всё равно игнорируют их предупреждения, они вправе отказать в гарантийной поддержке, если компоненты преждевременно вышли из строя из-за разгона.
Теперь, когда технология GPU Boost 2.0 связана с показателями температуры, можно не бояться, что GK110 достигнет состояния, когда он может сам себе навредить. Поэтому NVIDIA позволяет ограниченное увеличение напряжения для повышения разгонного потенциала, хотя производители могут свободно сузить этот диапазон на своё усмотрение. Максимальное напряжение для нашего эталонного образца GeForce GTX Titan 6 Гбайт составляет 1,162 В, хотя утилита EVGA Precision X увеличивает это значение до 1,2 В и предупреждает вас о рисках, на которые вы должны дать согласие. Тем не менее, гарантия при этом аннулироваться не должна.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Связка SLI из трёх карт
Есть несколько различных сценариев, для которых на наш взгляд GeForce GTX Titan 6 Гбайт подходит лучше всего. Естественно, первым на ум приходит высокопроизводительный игровой ПК. Мы говорим не о системе за $2000 с одной мощной видеокартой. Думайте шире – например, несколько флагманских GPU в одной связке. Тут геймерскому железу есть, где разгуляться.
Если вам достаточно одной двухслотовой видеокарты, и вы планируете играть на разрешениях 2560×1600 или 5760×1080 пикселей, покупка одной GeForce GTX 690 будет лучшим решением (в рамках заявленной цены в $1000). Если смотреть дальше, то в качестве самых мощных комбинаций уже идут две GeForce GTX 690 или две/три GeForce GTX Titan 6 Гбайт. Конечно, можно рассматривать три или четыре GeForce GTX 680 или Radeon HD 7970, но пока у нас нет лабораторных тестов, тяжело говорить, какие из этих конфигураций окажутся наиболее предпочтительными.
В любом случае, чтобы продемонстрировать максимальные возможности GeForce GTX Titan 6 Гбайт, NVIDIA попросила компанию Geek Box собрать для нас одну из игровых систем Ego Maniacal X79 с тремя видеокартами. Эта мощнейшая система собрана в корпусе SilverStone Temjin TJ11B-W. Даже несмотря на алюминий в качестве основного материала, пустой SilverStone Temjin TJ11B-W весит около 17,5 килограммов. А вместе с комплектующими и упаковкой… почтовой службе с ним точно пришлось повозиться.
Однако полностью собранная система отражает внимание команды Geek Box к деталям. Кабели легко прокладывать, поскольку каждый провод блока питания имеет собственную оплётку. Водяное охлаждение для процессора и регулятора напряжения материнской платы помогает решить проблему застоя тёплого воздуха, которую мы обсуждаем каждый раз при создании новой тестовой системы.
С воздушным потоком у TJ11B-W проблем нет. По сути, наиболее вероятным недостатком будет шум вентиляторов. Однако оценив шумность одновременной работы трёх карт GeForce GTX Titan 6 Гбайт, оказалась, что всё, что вы слышите – это тихий звук воздуха, проходящего через рёбра радиаторов. Три карты, установленные вплотную друг к дружке, оказались невероятно тихими.
Убрать узкие места в системе с тремя мощными графическими адаптерами помогает процессор Core i7-3970X, работающий на стабильной частоте 4,6 ГГц. Шестиядерный CPU установлен в материнскую плату Rampage IV Extreme от компании Asus, где также установлено32 Гбайта оперативной памяти Corsair Dominator в четырёхканальной конфигурации. Два SSD Neutron GTX ёмкостью 480 Гбайт в массиве RAID 0 обеспечат мгновенную загрузку игровых уровней.
Поскольку акустические свойства системы могли бы помешать некоторым нашим тестам, мы переместили видеокарты GeForce GTX Titan 6 Гбайт в наш тестовый стенд. Но перед этим мы провели тесты 3DMark 11 и сгенерировали результаты на настройках Extreme с частотой GPU свыше 1100 МГц (результаты тестов мы опубликуем в ближайшее время).
Любопытно, что Geek Box абсолютно свободно заимствует логотип BMW M GmbH, хотя с производительностью системы Ego Maniacal это никак не связано. Кому-то это понравится, но будут и недовольные.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Изящное решение в корпусе Mini-ITX
По нашему мнению, чрезмерно дорогая видеокарта с одним GPU может быть предпочтительнее конфигурации из двух более доступных графических адаптеров в окружении, где можно разместить лишь одну двухслотовую карту. Сегодня у нас в лаборатории есть система iBuyPower Revolt, которая как раз и представляет тот самый случай.
Образец, пришедший в нашу лабораторию, включает процессор Core i7-3770K, установленный в модифицированную компанией iBuyPower системную плату iBP-Z77E/S Revolt. К сожалению, система оснащена одним модулем DDR3-1600 8 Гбайт, в результате один канал памяти не используется (хотя нам сказали, что в конфигурации будет две планки по 4 Гбайт). HDD ёмкостью 1 Тбайт дополняет Intel SSD 330 на 120 Гбайт. Нас удивила цена за такую внушительную систему – всего $1515.
Официально iBuyPower ещё не сертифицировала GeForce GTX Titan 6 Гбайт в своих системах. Но представители компании говорят, что они проверяли карту в своей лаборатории, и все работало отменно. Этого нам достаточно, чтобы установить GeForce GTX Titan 6 Гбайт вместо изначально стоявшей GeForce GTX 670. Кстати, мы бы не рекомендовали делать этого самостоятельно без должного опыта. Revolt, конечно, разбору подлежит, но собрать всё обратно, не повредив жидкостную систему охлаждения, может быть сложно.
В любом случае, GeForce GTX Titan 6 Гбайт подходит для замены. Его центробежный вентилятор забирает воздух в том же месте, что и референсная GeForce GTX 670. Новая карта немного длиннее, чем заменяемая, но в корпусе Revolt места под неё хватает. Единственное, о чём можно беспокоиться, – это тепловой пакет карты GeForce GTX Titan 6 Гбайт в 250 Вт, забирающий на себя большую часть пиковой потребляемой мощности системы Revolt (наша конфигурация оснащена блоком питания от FSP на 500 Вт с сертификатом 80 PLUS Gold). Для этой видеокарты NVIDIA рекомендует БП мощностью 600 Вт.
GeForce GTX 670 и Titan умещаются в корпусе iBuyPower Revolt
К счастью, компании iBuyPower, Falcon Northwest и Digital Storm обеспечат должную поддержку графического адаптера GeForce GTX Titan 6 Гбайт в системах mini-ITX, прежде чем выпустить их в продажу. Однако до нас доходили слухи, что GeForce GTX Titan 6 Гбайт может полностью заменить GeForce GTX 680 в качестве самого дорогого решения в маленьких системах. В таком случае, привлекательность игровых систем в маленьком форм-факторе вырастет ещё сильнее.
Как это скажется на общем впечатлении? Больше скорости при неизменном уровне шума. Ни Tiki, ни Revolt назвать молчунами нельзя, но обе системы достаточно тихие. Разница в диапазоне, в котором уровень шума максимальный. Falcon Northwest Tiki шумит при низких частотах, у Revolt выше общий уровень шума (вероятно из-за 20 миллиметрового вентилятора блока питания). Следовательно, в простое вентилятор видеокарты практически беззвучный, а под нагрузкой невероятно тихий.
Если системные интеграторы смогут предоставить достаточно питания, GeForce GTX Titan 6 Гбайт отлично себя проявит в условиях стеснённого пространства маленьких корпусов. Тёплый воздух выдувается из корпуса через вентиляционное отверстие в задней части карты с помощью вентилятора, который разрезает воздух практически бесшумно. Довольно необычное явление для графического адаптера с TDP 250 Вт и 7 миллиардами транзисторов.
Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Жаждете результатов тестов?
Никто не любит поддразнивания. Однако NVIDIA просила не раскрывать результаты тестов GeForce GTX Titan 6 Гбайт ещё несколько дней. Сделано это специально в маркетинговых целях, чтобы ведущие СМИ, которым заранее выдали сэмплы, смогли сначала в день анонса рассказать об особенностях карты, а через несколько дней сделать второй “удар” по восприятию пользователей цифрами. Таким образом, в два захода удаётся лучше вбить в головы потребителей преимущества новинки. Первой эту игру затеяла AMD осенью 2012 года – всем маркетологам, видимо, понравилось, потому шоу продолжается, а нам невольно приходится играть по этим правилам.
И мы не теряли времени даром, а использовали его для максимально широкого тестирования, включающего следующие пункты: сравнение с GeForce GTX 680, GeForce GTX 690 и Radeon HD 7970 GHz Edition; двух- и трёхкартовых конфигураций SLI против GeForce GTX 690 в SLI из четырёх GPU; энергопотребление; тепловыделение; уровень шума; и, конечно, вычислительная мощность. Но даже когда мы опубликуем результаты, купить GeForce GTX Titan 6 Гбайт вы не сможете. Компания обозначила дату начала продаж на 25 февраля.
Что можно сказать о GeForce GTX Titan 6 Гбайт, учитывая уже полученные показатели с “сырыми” драйверами и представленную сегодня информацию? Этого уже достаточно, что бы сделать какие-то выводы, а предстоящие результаты тестов лишь подтвердят наше мнение.
Энтузиасты, склоняющиеся к покупке видеокарт класса ultra-high-end знают, что выгодной новая модель не будет. Две GeForce GTX 680 можно купить за $920. Две Radeon HD 7970 (которые быстрее) уже за $800. И чем ниже по шкале, тем больше производительности вы получите за потраченный доллар. Однако сила GeForce GTX Titan 6 Гбайт не в этом.
Titan: в большом игровом ПК и в компактном корпусе mini-ITX
В новой видеокарте используется мощный GPU, известный по профессиональным графическим адаптерам Tesla K20X (которые HP продаёт за $7700), кулер взят у широкоизвестной GeForce GTX 690, всё это дополняет видеопамять GDDR5 объёмом 6 Гбайт. Скоро вы увидите, что данная комбинация в наших тестах занимает крепкую позицию между GeForce GTX 690 и Radeon HD 7970 GHz Edition. Это означает следующее:
- Если вам нужна одна двухслотовая видеокарта, и в ваш корпус поместятся длинные модели, лучше заплатить $1000 за GeForce GTX 690. Она по-прежнему является самой быстрой видеокартой, и нет причин отказываться от неё в пользу Titan.
- Titan не стоит дополнительных $600 по сравнению с Radeon HD 7970 GHz Edition. Две карты от AMD обойдутся дешевле и будут работать быстрее. Естественно, они будут издавать больше шума при выполнении тяжёлых задач. Перед покупкой нужно убедиться, что у вас хватит места для двух двухслотовых видеокарт со свободным местом между ними. Обычно мы не одобряем такие грубые решения, но получить больше скорости в просторном корпусе, потратив на $200 меньше, – это очень привлекательное предложение.
- GeForce GTX Titan можно купить, если вы хотите получить максимум скорости в играх от системы типоразмера mini-ITX, как, например, Falcon Northwest Tiki или iBuyPower Revolt. GTX 690 в данном случае непрактична ввиду большой длины, высокой потребляемой мощности и осевого вентилятора.
- GeForce GTX Titan можно купить, если у вас есть три монитора с разрешением 1920×1080/2560×1440/2560×1600 пикселей и желание использовать две или три карты в связке SLI. В самых требовательных к железу играх два GK110 масштабируются более линейно, чем четыре GK104 (две GeForce GTX 690). Три карты Titan – это уже перебор!
Мы ценим усилия компании NVIDIA по оптимизации акустических параметров. Мы рады видеть, что GeForce GTX Titan 6 Гбайт выводит весь горячий воздух за пределы корпуса. А через несколько дней вы увидите, насколько хороша её производительность. Всё портит заоблачная цена, которая ограничивает применение карты игровыми системами малого форм-фактора и конфигурациями из нескольких видеокарт в компьютерах класса ultra-high-end. Многие энтузиасты справедливо заинтересуются этой моделью. Но если вы находитесь в целевой аудитории GeForce GTX Titan 6 Гбайт, аналогов вы просто не найдёте.