РЕКЛАМА
ИНФОРМАЦИЯ
ПОЛЕЗНЫЕ ССЫЛКИ
Обзор GeForce GTX 680: Kepler против Tahiti

nVidia GeForce GTX 690 4 Гбайт: обзор видеокарты с двумя GPU GK104

AMD Radeon HD 7970: тест видеокарты на новой архитектуре

Обзор видеокарты AMD Radeon HD 7970 GHz Edition

Обзор Ivy Bridge и Intel Core i7-3770K: максимально подробно

Обзор Intel SSD 330 на 60, 120 и 180 Гбайт

GeForce GTX 670: тест семи видеокарт

Лучшая видеокарта для игр: текущий анализ рынка

Тест Radeon HD 7990 и GeForce GTX 690: время тяжелой артиллерии

GeForce GTX 650 Ti: обзор и тест трех видеокарт

NVIDIA GeForce GTX Titan 6 Гбайт: GK110 в игровой видеокарте

Rambler's Top100 Рейтинг@Mail.ru

ВИДЕОКАРТЫ

NVIDIA GeForce GTX Titan 6 Гбайт: GK110 в игровой видеокарте
Краткое содержание статьи: Около года ходили слухи о том, что NVIDIA собирается представить флагманскую видеокарту на более сложном, чем GK104 графическом процессоре, и вот, совсем недавно NVIDIA закончила работу над GeForce GTX Titan на базе GK110. Есть ли смысл в такой мощности или это просто дорогая игрушка?

NVIDIA GeForce GTX Titan 6 Гбайт: GK110 в игровой видеокарте


Редакция THG,  22 февраля 2013
Назад
Вы читаете страницу 2 из 4
1 2 3 4
Далее


Обзор NVIDIA GeForce GTX Titan 6 Гбайт | GK110 - настоящий танк

Вспомните последнее поколение видеокарт NVIDIA 500-ой серии на базе Fermi. Каждый GPU команда маркетологов приписывала к одному из трёх придуманных классов: танк, охотник и снайпер. Каждая видеокарт была оптимизирована под определённую роль. GeForce GTX 580 была тяжёлым танком с GF110 на борту. Большая, мощная и дорогая, тогда она представляла максимальный потенциал архитектуры Fermi.


NVIDIA GeForce GTX Titan 6 Гбайт: тест и обзор

Блочная диаграмма GK110

Мы знали, что GeForce GTX 680 не будет последователем GF110, даже несмотря на то, что NVIDIA просила за новую модель $500. Графический процессор GK104 оптимизирован для игр и сильно жертвует вычислительной производительностью, уровень которой в тестах OpenCL ниже, чем у GTX 580. В то время, NVIDIA преуменьшала значение компромиссов GK104 и вместо этого предпочитала расписывать, насколько хорошо чип с 3,5 миллиардами транзисторов соперничает с GPU Tahiti с 4,3 миллиардами транзисторов от AMD в играх.

NVIDIA GeForce GTX Titan 6 Гбайт: тест и обзор

Но потом компания представила семейство Tesla K20 с чипами GK110 — вот это настоящий танк (хотя NVIDIA больше не использует такую аналогию).

Внутри SMX

GPU GK110 состоит из 15 потоковых мультипроцессоров, которые, как вы уже наверное знаете, называются SMX. Эти блоки SMX не сильно отличаются от таковых у графического процессора GK104 в видеокарте GeForce GTX 680. Они характеризуются 192 ядрами CUDA, 16 блоками текстурирования и очень похожей структурой кэша. Но самих блоков гораздо больше. GK104 состоит из восьми блоков SMX. У GK110 их 15. Поскольку чип громоздкий и сложный, дефекты могут негативно сказаться на прибыли. Конечно, идеально изготовленные GPU существуют, но даже у самых лучших карт на GK110 один блок SMX отключён. Умножьте 192 шейдера на 14, и вы получите GPU с 2688 ядрами CUDA. Более того, 16 блоков текстурирования на 14 SMX дают 224 блока по сравнению с 128-ю у GeForce GTX 680.

В одном SMX: GF100 (Fermi) GF104 (Fermi) GK110 (Kepler) GK104 (Kepler)
CUDA Compute Capability 2.0 2.0 3.5 3.0
Потоков 32 32 32 32
Максимум варпов/SMX 48 48 64 64
Максимум потоков/SMX 1536 1536 2048 2048
Поточных блоков/SMX 8 8 16 16
32-битные регистры /SMX 32768 32768 65536 65536
Максимум регистров /поток 63 63 255 63
Максимум потоков /поточный блок 1024 1024 1024 1024

Помимо "впихивания" дополнительных ресурсов в кристалл, GK110 исправляет самый яркий недостаток GeForce GTX 680 (особенно если учесть, что GeForce GTX 680 позиционируется как замена GeForce GTX 580), а именно - вычислительный потенциал в операциях с плавающей запятой. Каждый блок SMX чипа GK104 состоит из 192 ядер, совместимых с FP32. Их пиковая вычислительная мощность с плавающей запятой достигает 3 TFLOPS. Но в нём представлено только восемь блоков FP64, скорость вычислений с двойной точностью которых составляет лишь 1/24 от скорости FP32. SMX в GK110 содержит 64 ядра CUDA FP64, меняя соотношение до 1/3. По данным NVIDIA, у GeForce GTX Titan 6 Гбайт пиковая скорость вычислений с одинарной точностью достигает 4,5 TFLOPS, а с двойной точностью – 1,5 TFLOPS. Теоретически она обгоняет Radeon HD 7970 GHz Edition с показателями 4,3 TFLOPS и 1,01 TFLOPS для скорости вычислений с одинарной и двойной точностью соответственно.

NVIDIA GeForce GTX Titan 6 Гбайт: тест и обзор

SMX процессора GK110 с 64 ядрами CUDA FP64

NVIDIA GeForce GTX Titan 6 Гбайт: тест и обзор

SMX процессора GK104 (восемь ядер FP64 не отображены)

Естественно, нас порадовала новость, что GK110 делает такой акцент на вычислениях. Однако мы не сомневаемся, что приоритетной для GeForce GTX Titan 6 Гбайт остаётся высокая производительность в настоящих играх. Чтобы сбалансировать 75%-ое увеличение количества шейдеров и блоков текстурирования, NVIDIA также расширила конвейер GPU. В GK104 четыре раздела ROP могут обрабатывать восемь 32-битных целочисленных пикселя за такт, в итоге мы имеем 32 блока растеризации. GK110 использует шесть таких блоков, увеличивая показатель до 48.

GeForce GTX 680 и GeForce GTX Titan 6 Гбайт работают с памятью GDDR5 на частоте 1502 МГц. Но поскольку у GK110 - шесть каналов памяти по 64-бит, а не четыре, как у GK104, пиковая пропускная способность увеличивается на 50%, с 192 Гбайт/с до 288 Гбайт/с. Это близко к показателям референсной Radeon HD 7970 GHz Edition, которая тоже использует память GDDR5 с частотой 1500 МГц и шиной 384-бит.

Обзор NVIDIA GeForce GTX Titan 6 Гбайт | Вычислительная производительность и баланс

Тестируя GeForce GTX Titan 6 Гбайт ещё перед тем, как компания смогла более подробно рассказать об особенностях карты, мы заметили, что производительность вычислений с двойной точностью была очень низкой в таких утилитах как SiSoftware Sandra. Хотя соотношение должно было быть 1/3 от скорости FP32, по нашим результатам оно было ближе к 1/24 как у GeForce GTX 680.

Выяснилось, что для максимизации тактовой частоты и минимизации тепловыделения GK110, NVIDIA намеренно заставила модули FP64 работать на 1/8 тактовой частоты чипа. Умножьте это на соотношение производительности с двойной и одинарной точности ядер CUDA, которое составляет 1:3, и число, которое мы получили изначально, окажется верным.

Однако NVIDIA утверждает, что это мощная видеокарта, и она может обеспечить скорость вычислений с одинарной точностью до 4,5 TFLOPS и с двойной до 1,5 TFLOPS. Но как это возможно?

Маловероятно, что покупатели Tesla будут экономить и покупать игровые карты без коррекции ошибок памяти ECC, без программ для управления и слежения за GPU, без поддержки GPUDirect или Hyper-Q. Тем не менее, разработчики могут воспользоваться возможностями видеокарт GeForce GTX Titan 6 Гбайт, чтобы и дальше пропагандировать приложения с GPU-ускорением (при этом вам не придётся тратить около восьми тысяч долларов на Tesla K20X), поэтому NVIDIA действительно хочет реализовать весь вычислительный потенциал GK110.

NVIDIA GeForce GTX Titan 6 Гбайт: тест и обзор

Описание: опция активирует большее количество модулей вычислений с плавающей запятой с двойной точностью для выбранного GPU, что увеличивает скорость вычислений с двойной точностью в приложениях CUDA. Обратите внимание, что включение этих настроек понизит производительность всех программ, не поддерживающих CUDA, включая игры.

Для активации полной скорости ядер CUDA FP64 необходимо открыть панель управления драйвера, нажать ссылку Manage 3D Settings, прокрутить вниз до строки CUDA – Double precision и выбрать вашу видеокарту GeForce GTX Titan 6 Гбайт. Это действие деактивирует GPU Boost, поэтому включать его следует лишь тогда, когда вам точно нужны ядра FP64 на полной скорости.

Мы готовы подтвердить, что данная опция разблокирует вычислительный потенциал GK110, но поделиться результатами тестов пока не можем. Они будут опубликованы в течение 3-4 дней.
Назад
Вы читаете страницу 2 из 4
1 2 3 4
Далее


СОДЕРЖАНИЕ

NVIDIA GeForce GTX Titan 6 Гбайт. Отзывы в Клубе экспертов THG [ 20 отзывов] NVIDIA GeForce GTX Titan 6 Гбайт. Отзывы в Клубе экспертов THG [ 20 отзывов]


РЕКЛАМА
РЕКОМЕНДУЕМ ПРОЧЕСТЬ!

История мейнфреймов: от Harvard Mark I до System z10 EC
Верите вы или нет, но были времена, когда компьютеры занимали целые комнаты. Сегодня вы работаете за небольшим персональным компьютером, но когда-то о таком можно было только мечтать. Предлагаем окунуться в историю и познакомиться с самыми знаковыми мейнфреймами за последние десятилетия.

Пятнадцать процессоров Intel x86, вошедших в историю
Компания Intel выпустила за годы существования немало процессоров x86, начиная с эпохи расцвета ПК, но не все из них оставили незабываемый след в истории. В нашей первой статье цикла мы рассмотрим пятнадцать наиболее любопытных и памятных процессоров Intel, от 8086 до Core 2 Duo.

ССЫЛКИ