|
GeForce 8800 GTX | Введение
Обновление: мы решили дополнить первоначальный обзор дополнительными теоретическими сведениями, сравнительными таблицами, а также результатами тестов американской лаборатории THG, где участвовала и "младшая" карта GeForce 8800 GTS. В обновлённой статье вы также найдёте тесты качества.
GeForce 8800 GTX - на голову выше конкурентов.
Вы наверняка слышали о DirectX 10 и чудесах, которые новый API обещает по сравнению с DX9. В Интернете можно найти скриншоты игр, которые всё ещё находятся в разработке. Но до сего момента видеокарт с поддержкой DX10 на рынке не было. И nVidia исправила этот недостаток первой. Поприветствуем выход видеокарт DirectX 10 в виде nVidia GeForce 8800 GTX и 8800 GTS!
Единая унифицированная архитектура сможет больше выжать из блоков шейдеров, поскольку их теперь можно использовать эффективнее, чем при фиксированной раскладке. Новую эру в компьютерной графике открывают GeForce 8800 GTX со 128 унифицированными блоками шейдеров и GeForce 8800 GTS с 96 такими блоками. Наконец-то прошли дни пиксельных конвейеров. Но давайте внимательнее посмотрим на новые карты.
GeForce 8800 GTX | Унифицированные шейдеры
На подложке показаны 80 графических ядер. Новый графический процессор обещает дать в два раза более высокую производительность, чем GeForce 7900 GTX (G71). 681 миллион транзисторов приводит к огромной площади кристалла, но когда мы спросили об этом, то CEO nVidia Джен-Хсун Хуан (Jen-Hsun Huang) ответил: "Если бы мои инженеры сказали, что могут удвоить производительность, удвоив площадь кристалла, я бы даже не сомневался!"
Как показывает опыт, удвоение площади отнюдь не удваивает производительность, но nVidia, похоже, нашла правильный баланс между технологическими продвижениями и реализацией кристалла на кремнии.
GeForce 8800 GTX и 8800 GTS полностью соответствуют стандарту DX10 и Shader Model 4.0, различным стандартам хранения и передачи данных, поддерживают геометрические шейдеры и потоковый вывод (Stream Out). Как же всё это реализовала nVidia?
Начнём с того, что nVidia отошла от фиксированного дизайна, который последние 20 лет использует индустрия, в пользу унифицированного шейдерного ядра.
Раньше мы демонстрировали схожие слайды, иллюстрирующие тенденцию увеличения мощности пиксельных шейдеров. nVidia прекрасно знает об этой тенденции и движется в сторону балансировки вычислительных потребностей, реализуя унифицированные шейдеры, через которые проходят потоки данных. Это даёт максимальную эффективность и производительность.
nVidia утверждает: "Команда разработчиков GeForce 8800 прекрасно понимала, что high-end 3D-игры DirectX 10 потребуют большой аппаратной мощности для расчёта шейдеров. Хотя DirectX 10 оговаривает унифицированный набор инструкций, стандарт не требует унифицированного дизайна шейдеров GPU. Но инженеры GeForce 8800 верили, что именно унифицированная шейдерная архитектура GPU позволит эффективно распределить нагрузку программ-шейдеров DirectX 10, улучшая архитектурную эффективность GPU и правильно распределяя доступную мощность".
GeForce 8800 GTX | 128 потоковых процессоров SIMD
![]() |
Нажмите на картинку для увеличения.
Процессорное ядро работает на частоте 575 МГц у GeForce 8800 GTX и на 500 МГц - у GeForce 8800 GTS. Если остальная часть ядра работает на 575 МГц (или 500 МГц), то ядро шейдеров использует собственный тактовый генератор. У GeForce 8800 GTX оно работает на 1350 ГГц, а у 8800 GTS - на 1200 ГГц.
Каждый шейдерный элемент ядра называется потоковым процессором (Streaming Processor). У GeForce 8800 GTX используется 16 блоков по восемь таких элементов. В результате мы и получаем 128 потоковых процессоров. Подобно дизайну ATi R580 и R580+, где присутствуют блоки пиксельных шейдеров, nVidia планирует в будущем как добавлять, так и убирать блоки. Собственно, это мы и наблюдаем с 96 потоковыми процессорами в GeForce 8800 GTS.
![]() |
Нажмите на картинку для увеличения.
GeForce 8800 GTX | сравнительная таблица спецификаций
nVidia раньше не могла одновременно выполнять полноэкранное сглаживание с HDR-освещением, но это уже история. Каждый блок растровых операций (ROP) поддерживает смешение кадрового буфера. Таким образом, со сглаживанием мультисэмплинга могут использоваться цели рендеринга как FP16, так и FP32. Под D3D10 ускорения обработки цветов и Z в блоках растровых операций могут использоваться до восьми множественных целей рендеринга, а также новые технологии сжатия.
GeForce 8800 GTX может заполнять 64 текстуры за такт, а при частоте 575 МГц мы получаем 36,8 млрд. текстур за секунду (GeForce 8800 GTS = 32 млрд./с). GeForce 8800 GTX обладает 24 блоками растровых операций (ROP) и при работе карты на частоте 575 МГц пиковая пиксельная скорость заполнения составляет 13,8 гигапикселя/с. Версия GeForce 880GTS обладает 20 ROP и даёт пиковую скорость заполнения 10 гигапикселей/с на частоте 500 МГц.
Спецификации nVidia GeForce | ||||||
8800GTX | 8800GTS | 7950GX2 | 7900GTX | 7800GTX 512 | 7800GTX | |
Техпроцесс (нм) | 90 | 90 | 90 | 90 | 110 | 110 |
Ядро | G80 | G80 | G71 | G71 | G70 | G70 |
Число GPU | 1 | 1 | 2 | 1 | 1 | 1 |
Число транзисторов на ядро (млн.) | 681 | 681 | 278 | 278 | 302 | 302 |
Частота вершинных блоков (МГц) | 1350 | 1200 | 500 | 700 | 550 | 470 |
Частота ядра (МГц) | 575 | 500 | 500 | 650 | 550 | 430 |
Частота памяти (МГц) | 900 | 600 | 600 | 800 | 850 | 600 |
Эффективная частота памяти (МГц) | 1800 | 1200 | 1200 | 1600 | 1700 | 1200 |
Число вершинных блоков | 128 | 96 | 16 | 8 | 8 | 8 |
Число пиксельных блоков | 128 | 96 | 48 | 24 | 24 | 24 |
Число ROP | 24 | 20 | 32 | 16 | 16 | 16 |
Ширина шины памяти (бит) | 384 | 320 | 256 | 256 | 256 | 256 |
Объём памяти на GPU (Мбайт) | 768 | 640 | 512 | 512 | 512 | 256 |
Пропускная способность памяти на GPU (Гбайт/с) | 86,4 | 48 | 38,4 | 51,2 | 54,4 | 38,4 |
Число вершин/с (млн.) | 10 800 | 7200 | 2000 | 1400 | 1100 | 940 |
Пиксельная пропускная способность (число ROP x частоту, в млрд./с) | 13,8 | 10 | 16 | 10,4 | 8,8 | 6,88 |
Текстурная пропускная способность (число пикс. конвейеров x частоту, в млрд./с) | 36,8 | 32 | 24 | 15,6 | 13,2 | 10,32 |
RAMDAC (МГц) | 400 | 400 | 400 | 400 | 400 | 400 |
Шина | PCI Express | PCI Express | PCI Express | PCI Express | PCI Express | PCI Express |
Обратите внимание на ширину шины памяти. Если взглянуть на схему, приведённую на предыдущей странице, у GPU GeForce 8800 GTX используются шесть разделов памяти. Каждый из них оснащён 64-битным интерфейсом к памяти, что даёт в сумме ширину 384 бита. 768 Мбайт памяти GDDR3 подключёны к подсистеме памяти, которая построена на высокоскоростном кросс-коммутаторе, как у GPU GeForce 7x. Этот кросс-коммутатор поддерживает память DDR1, DDR2, DDR3, GDDR3 и GDDR4.
GeForce 8800 GTX использует память GDDR3 с частотой по умолчанию 900 МГц (версия GTS работает на 800 МГц). С шириной 384 бита (48 байт) и частотой 900 МГц (1800 МГц эффективная частота DDR) пропускная способность составляет целых 86,4 Гбайт/с. А 768 Мбайт памяти позволяют хранить намного более сложные модели и текстуры, с более высоким разрешением и качеством.
GeForce 8800 GTX | nVidia отправляет ATi в нокаут
![]() |
Нажмите на картинку для увеличения.
У нас есть хорошие и плохие новости. Хорошие -
Плата
![]() |
Система охлаждения из кулера и корпуса покрывает почти всю плату. Сама GeForce 8800 GTX в длину достигает впечатляющих 27 сантиметров. Отрадно, что в системе охлаждения используются тепловые трубки.
Нажмите на картинку для увеличения.
![]() |
На обратной стороне от слота PCI Express расположены разъём для дополнительного питания и SLI-коннектор. По ширине GeForce 8800 GTX занимает два слота.
Нажмите на картинку для увеличения.
Над технической реализацией не стоит смеяться.
Oblivion на всех уровнях идёт запредельно плавно. Если точнее, то с включённым HDR-рендерингом в Oblivion скорость составляет не менее 30 fps. В игре Titan Quest не получается увидеть менее 55 кадров в секунду. Иногда задумываешься, не повис ли бенчмарк, или может с уровнями что-то произошло. Включение полноэкранного сглаживания и анизотропной фильтрации вообще никак не сказывается на GeForce 8800.
GeForce 8800 GTX | Два гнезда питания
Питание к
![]() |
На GeForce 8800 GTX подключены должны быть оба гнезда питания. Нажмите на картинку для увеличения.
Два гнезда питания объясняются просто. Согласно спецификациям PCI Express, на один слот PCIe может приходиться не более 75 Ватт энергии. Наш тестовый
Ещё два разъёма зарезервированы под режим SLI. Согласно документации nVidia, для SLI требуется всего один штекер. Второй пока не используется. Теоретически, имея два разъёма, можно связать в многоплатную систему более двух
![]() |
Для SLI теперь зарезервирован дополнительный разъём. Но с текущей версией драйвера воспользоваться можно лишь одним. Нажмите на картинку для увеличения.
GeForce 8800 GTX | Тихая система охлаждения
GeForce 8800 оснащена очень тихим 80-миллиметровым кулером-турбиной. Как и у Radeon X1950 XTX, он расположен в самом конце платы, чтобы прогонять прохладный воздух через всю поверхность GeForce 8800 и затем наружу. В конце платы установлена специальная решётка, которая выпускает горячий воздух не только наружу, через отверстие, занимающее второй слот, но и вниз, прямо в корпус. В общем, система несложная, но есть ряд спорных моментов.
![]() |
Тёплый воздух выбрасывается через отверстие второго слота, но часть его попадает обратно в корпус через решётку на боковине GeForce 8800 GTX. Нажмите на картинку для увеличения.
Если в вашем компьютере PCIe-слоты находятся близко, и в SLI две платы встанут так, что зазор между ними будет не слишком велик, то температура в этом месте будет очень приличная. Нижняя карта будет дополнительно подогреваться верхней, через ту самую боковую решётку на системе охлаждения. Ну, а что случится, если установить три карты, лучше даже не думать. Получится отличный бытовой электронагреватель. В морозы будете работать около открытого окна.
Когда плата установлена в одиночку, система охлаждения впечатляет и отрабатывает на все сто. Как и у плат GeForce 7900 GTX, так и у
![]() |
80-миллиметровый кулер работает тихо и никогда не включается на полную мощность. Система охлаждения платы занимает два слота. Нажмите на картинку для увеличения.
Специальный драйвер ForceWare 96.94, который nVidia приготовила для GeForce 8800 GTX, не выводит данные температурного мониторинга. До выхода этой версии вы могли выбрать между классическим и новым интерфейсом, но релиз 96.94 для прессы содержит только новую версию панели настроек
Если вы после установки Ntune выбираете регулировку частот и температуры в панели настроек, открывается специальная информационная страничка, где указаны настройки материнской платы. Никаких настроек
Остаётся надеяться, что nVidia выпустит стандартную версию ForceWare для GeForce 8800. Классический интерфейс настройки иногда удобнее, к тому же, показывается информация о температуре, а при помощи coolbits можно регулировать частоты. Новый драйвер в паре с Ntune занимает порядка 100 мегабайт и сегментирован на немалое количество вкладок и окон. Работать с ним не всегда удобно.
GeForce 8800 GTX | Технические подробности
![]() |
В чипе GeForce 8800 GTX целых 681 миллион транзисторов, он производится по технологии 90 нанометров на фабрике TSMC. Нажмите на картинку для увеличения.
В чипе G80
Для сравнения: память GeForce 7900 GTX работает на частоте 800 МГц, а GeForce 7950 GT на 700 МГц. В видеокартах Radeon X1950 XTX используется память GDDR4 с частотой 1000 МГц. У карты GeForce 8800 GTS частота ядра составляет 500 МГц, объём памяти 640 Мбайт с частотой 800 МГц.
Результаты тестов показывают, что полноэкранное сглаживание и анизотропная фильтрация, наконец, никак при включении не снижают производительность. В ресурсоёмких играх, например, в Oblivion, раньше приходилось за этим следить, а теперь вы можете включать всё на максимум. Производительность предыдущих
GeForce 8800 GTX поддерживает 16x сглаживание и анизотропную фильтрацию.
В сравнении с одиночными
Что поддерживает видеокарта в плане DirectX 10, пока невозможно протестировать. Windows Vista, Direct X 10 и игры под него ещё не существуют. Однако на бумаге всё выглядит более чем пристойно: геометрические шейдеры поддерживают карты смещения (Displacement Mapping), что позволит выводить ещё более реалистичные вещи, например, обсчитывать стереоскопические эффекты, объекты в форме желобов и гофрированные поверхности. Потоковый вывод (Stream Output) позволит получить ещё более качественные шейдерные эффекты для частиц и физики. Технология квантовых эффектов (Quantum Effect) хорошо справляется с просчётом эффектов дыма, тумана, огня и взрывов, и позволит снять их калькуляцию с центрального процессора. Всё это вместе даст значительно больше шейдерных и физических эффектов, которые можно будет увидеть в будущих играх. Как всё это будет реализовано на практике, в каких играх и в каком виде, покажет будущее.
GeForce 8800 GTX | Платы в тесте
Видеокарты на nVidia | ||||||
Кодовое название | Память | HDR-R | Верш./пикс. шейдеры | Частота GPU | Частота памяти | |
nVidia GeForce 8800 GTX | G80 | 768 Мбайт GDDR3 | Да | 4.0 | 575 МГц | 1800 МГц |
Asus + Gigabyte GeForce 7900 GTX SLI | G71 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 650 МГц | 1600 МГц |
Gigabyte GeForce 7900 GTX | G71 | 512 Мбайт | GDDR3 | Да | 3.0/3.0 | 650 МГц |
nVidia GeForce 7950 GT | G71 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 550 МГц | 1400 МГц |
Asus GeForce 7900 GT Top | G71 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 520 МГц | 1440 МГц |
nVidia GeForce 7900 GS | G71 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 450 МГц | 1320 МГц |
Asus GeForce 7800 GTX EX | G70 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 430 МГц | 1200 МГц |
Gigabyte GeForce 7800 GT | G70 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 400 МГц | 1000 МГц |
Asus GeForce 7600 GT | G73 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 560 МГц | 1400 МГц |
nVidia GeForce 6800 GT | NV45 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 350 МГц | 1000 МГц |
Gainward GeForce 7800 GS+ GSa AGP | G71 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 450 МГц | 1250 МГц |
В следующей таблице представлены
Видеокарты на ATi | ||||||
Видеокарта и чип | Кодовое название | Память | HDR-R | Верш./пикс. шейдеры | Частота GPU | Частота памяти |
Club 3D + Club 3D Radeon X1950 XTX CF | R580+ | 512 Мбайт GDDR4 | Да | 3.0/3.0 | 648 МГц | 1998 МГц |
Club 3D Radeon X1950 XTX | R580+ | 512 Мбайт GDDR4 | Да | 3.0/3.0 | 648 МГц | 1998 МГц |
HIS + HIS Radeon X1900 XTX CF | R580 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 621 МГц | 1440 МГц |
Gigabyte Radeon X1900 XTX | R580 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 648 МГц | 1548 МГц |
Power Color Radeon X1900 XT | R580 | 512 Мбайт GDDR3 | Да | 3.0/3.0 | 621 МГц | 1440 МГц |
ATI Radeon X1900 XT | R580 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 621 МГц | 1440 МГц |
Sapphire Radeon X1900 GT | R580 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 574 МГц | 1188 МГц |
HIS Radeon X1650 Pro Turbo | RV535 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 621 МГц | 1386 МГц |
Gecube Radeon X1300 XT | RV530 | 256 Мбайт GDDR3 | Да | 3.0/3.0 | 560 МГц | 1386 МГц |
GeForce 8800 GTX | Тестовая конфигурация
Для тестирования
Для всех видеокарт nVidia (включая SLI) и одиночных карт Ati | |
Процессор | Двуядерный AMD Athlon 64 FX-60 2.61 ГГц |
Частота шины | 200 МГц |
Материнская плата | Asus A8N32-SLI Deluxe |
Чипсет | nVidia nForce4 |
Память | Mushkin 2x1024 MB HP 3200 2-3-2 |
Жёсткий диск | Hitachi 2 x 120 Гбайт SATA, кэш 8 Мбайт |
DVD | Gigabyte GO-D1600C |
LAN-контроллер | Marvell |
Звуковой контроллер | Realtek AC97 |
Блок питания | Silverstone SST-ST56ZF 560 Вт |
Для тестов видеокарт ATi в режиме CrossFire | |
Процессор | Двуядерный AMD Athlon 64 FX-60 2.61 ГГц |
Частота шины | 200 МГц |
Материнская плата | Эталонная ATi |
Чипсет | ATI RD580 |
Память | Mushkin 2x1024 MB HP 3200 2-3-2 |
LAN-контроллер | Marvell |
Звуковой контроллер | AC97 |
Для тестов AGP-видеокарт | |
Процессор | Двуядерный AMD Athlon 64 FX-60 2.61 ГГц |
Частота шины | 200 МГц |
Материнская плата | Asus AV8 Deluxe |
Чипсет | VIA K8T800 Pro |
Память | Mushkin 2x1024 MB HP 3200 2-3-2 |
LAN-контроллер | Marvell |
Звуковой контроллер | Realtek AC97 |
На компьютерах для тестов одиночных видеокарт и плат nVidia в режиме SLI мы использовали Windows XP Professional с SP1a. Платы CrossFire и AGP-видеокарты тестировались на системах с установленной Windows XP Professional SP2. Версии драйверов и ПО сведены в следующую таблицу.
Драйверы и конфигурация | |
Видеокарты ATi | ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire X1600 XT ATI Catalyst 6.7 (entspricht Catalyst 6.8), Crossfire X1600 Pro, Crossfire X1300 Pro, Crossfire X1300 ATI Catalyst 6.8 |
Видеокарты nVidia | nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (Special), 8800 GTX nVidia Forceware 96.94 (Special) |
Операционная система | Одиночные карты и SLI: Windows XP Pro SP1a, ATI Crossfire и AGP-видеокарты Windows XP Pro SP2 |
Версия DirectX | 9.0c |
Драйвер чипсета | nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A |
GeForce 8800 GTX | Результаты тестов
Эталонную плату мы в редакцию THG получили прямо из nVidia. Для тестирования нам предоставили специальный драйвер ForceWare 96.94, подготовленный эксклюзивно для прессы.
Включение сглаживания и анизотропной фильтрации почти не снижает производительность. В Half-Life 2 Episode 1 видеокарту GeForce 8800 GTX затормозить невозможно. В разрешении 1600x1200 чип на 60 процентов быстрее, чем Radeon X1950 XTX, в Oblivion производительность вдвое выше, чем у Radeon X1900 XTX или X1950 XTX. В игре Prey видеокарта
GeForce 8800 GTX | Результаты в Half-Life: Episode 1
В тестах Half-Life 2: Episode 1 с HDR-рендерингом результаты платы впечатляют, но в низких разрешениях
С включением сглаживания и анизотропной фильтрации картина начинает меняться. Все платы при этом немного теряют в производительности, но GeForce 8800 GTX падает при этом очень незначительно - всего на 10 fps в среднем, в то время как сдвоенная ATi Radeon X1950 XTX в режиме CrossFire теряет целых 20 fps.
Как только мы перешагиваем за разрешение 1280x1024 с включёнными сглаживанием и анизотропной фильтрацией, одиночная плата GeForce 8800 GTX выходит в несомненные лидеры. Показатели превышают таковые у Radeon X1950 XTX почти на 35 fps. Это существенная разница.
Дальше - больше. В 1600x1200 со сглаживанием и анизотропной фильтрацией отрыв
Наконец посмотрим на динамику снижения FPS с ростом разрешения и качества картинки. Мы видим, что у GeForce 8800 GTX снижение производительности незначительное - от голых 1024x768 до сглаженных и отфильтрованных методом анизотропии 1600x1200 разница составляет всего чуть больше 20 fps. Прежде топовые решения ATi и nVidia уходят далеко назад.
GeForce 8800 GTX | Результаты в Hard Truck: Apocalypse
Игра Hard Truck: Apocalypse требовательна и к видеокарте, и к центральному процессору. Этим объясняются фактически одинаковые показатели в 1024x768, когда используется простая трилинейная фильтрация и выключено полноэкранное сглаживание.
Как только вы переходите на 4xAA и анизотропную фильтрацию 8x результаты начинают разниться. "Младшие" карты существенно теряют производительность, а
В 1280x960 разница ещё более увеличивается, но GeForce 8800 GTX демонстрирует прежние показатели. Явно видно, что Athlon 64 FX-60 не способна поставить эту видеокарту на колени.
В 1600x1200 у всех одиночных плат показатели начинают стремиться к неиграбельным. Но GeForce 8800 GTX как показывала 51 fps, так и показывает.
Рассмотрим снижение производительности с ростом настроек. CrossFire Radeon X1950 XTX и GeForce 7900 GTX держатся рядом с
GeForce 8800 GTX | Результаты в Oblivion: The Elder Scrolls 4
В Oblivion, игре, которая нагружает видеокарту до предела, картина изначально удручающа для всех плат, кроме Radeon X1950 XTX в режиме CrossFire и
Но когда разрешение доходит до 1600x1200, наша GeForce 8800 GTX уходит далеко вперёд. Особенно разрыв виден на закрытых уровнях.
Посмотрите на снижение производительности с ростом разрешения и качества. Картина не нуждается в комментариях. В закрытых локациях скорость
GeForce 8800 GTX | Результаты в Prey (движок Doom 3/Quake 4)
В игре Prey видеокарта
Сравнивать GeForce 8800 GTX с одноплатными решениями ATi и nVidia бесполезно. Разрыв в высоких разрешениях колоссален, да и в 1024x768 со сглаживанием он впечатляет.
GeForce 8800 GTX | Результаты в Rise of Nations: Rise of Legends
В игре Rise of Nations: Rise of Legends видеокарта
Обратите внимание, как снижается скорость с ростом разрешения. При всех настройках GeForce 8800 GTX является лидером не только по сравнению с одиночными платами, но и с решениями SLI/CrossFire.
GeForce 8800 GTX | Результаты в Titan Quest
В игре Titan Quest карты nVidia показывают себя с лучшей стороны. При этом у
Картину происходящего хорошо иллюстрирует следующий график. Производительность GeForce 8800 GTX находится на одном и том же уровне, вне зависимости от настроек.
GeForce 8800 GTX | Результаты в 3DMark06 v1.0.2
В 3DMark06 карта отлично показывает себя и со вторыми, и с третьими шейдерами. Обратите внимание, насколько незначительно снижается производительность при включении анизотропии и сглаживания.
Рост разрешения
GeForce 8800 GTX | Результаты в играх: сводные графики
Чтобы вы лучше могли себе представить производительность
GeForce 8800 GTX | Производительность и цены
Итак, покончив с результатами тестирования, давайте попытаемся составить рейтинг эффективности видеокарт. Для этого мы соберём воедино результаты всех игровых тестов и сопоставим их с ценой решения. За основу возьмём рекомендованные цены, то есть без наценок конкретных магазинов. Конечно, поначалу
Как мы видим, по производительности GeForce 8800 GTX обходит практически все решения, включая сдвоенные CrossFire и SLI. В абсолютных показателях GeForce 8800 GTX очень быстра. Но как насчёт цены?
Цена у
Наконец разделим fps на деньги. Мы видим, что у
GeForce 8800 GTX и GTS | Тестовая конфигурация
Мы решили дополнить наш обзор результатами тестов американской лаборатории THG, где также участвовала карта GeForce 8800 GTS. Обратите внимание, что из-за различий в тестовой конфигурации не следует напрямую сравнивать результаты, приведённые выше, с результатами американской лаборатории.
Карта GeForce 8800GTX длиннее, чем Radeon X1950XTX и большинство других карт на рынке. 8800GTS несколько короче.
Как и другие тесты графических видеокарт в 2006 году, мы проводили тестирование на платформе AMD Athlon FX-60. Также мы приведём результаты конфигураций с несколькими GPU. Кроме того, оценим, как ведут себя новые видеокарты, когда производительность упирается в CPU (низкое разрешение и качество картинки).
Системное аппаратное обеспечение | |
Процессоры | AMD Athlon 64 FX-60, 2,6 ГГц, 1,0 ГГц HTT, кэш L2 1 Мбайт |
Платформа | nVidia: Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205 |
Память | Corsair CMX1024-4400Pro, 2x 1024 Мбайт DDR400 (CL3,0-4-4-8) |
Жёсткий диск | Western Digital Raptor, WD1500ADFD, 150 Гбайт, 10 000 об/мин, кэш 16 Мбайт, SATA150 |
Сеть | Встроенная nForce4 Gigabit Ethernet |
Видеокарты | ATi Radeon X1950XTX 512 Мбайт GDDR4, 650 МГц ядро, 1000 МГц память (2,00 ГГц DDR) Карты nVidia: nVidia GeForce 8800GTX 768 Мбайт GDDR3, 575 МГц ядро, 1,350 ГГц потоковые процессоры, 900 МГц память (1,80 ГГц DDR) XFX GeForce 8800GTS 640 Мбайт GDDR3, 500 МГц ядро, 1,200 ГГц потоковые процессоры, 800 МГц память (1,60 ГГц DDR) nVidia GeForce 7900GTX 512 Мбайт GDDR3, 675 МГц ядро, 820 МГц память (1,64 ГГц DDR) |
Блок питания | PC Power & Cooling Turbo-Cool 1000 Вт |
Кулер CPU | Zalman CNPS9700 LED |
Системное ПО и драйверы | |
ОС | Microsoft Windows XP Professional 5.10.2600, Service Pack 2 |
Версия DirectX | 9.0c (4.09.0000.0904) |
Графические драйверы | ATi - Catalyst 6.10 WHQL nVidia - ForceWare 96.94 Beta |
GeForce 8800 GTX и GTS | 3DMark05
Во время первого прогона 3DMark мы проводили тесты на всех разрешениях, но с выключенными полноэкранным сглаживанием и анизотропной фильтрацией. Во втором прогоне мы включили опции улучшения картинки 4xAA и 8xAF.
nVidia в 3DMark05 явно находится на первом месте. GeForce 8800 GTX даёт такой же результат в разрешении 2048x1536, что ATi Radeon X1950 XTX в разрешении по умолчанию 1024x768. Впечатляет.
GeForce 8800 GTX и GTS | Doom 3
В Doom 3 обычно доминируют карты nVidia, поскольку их дизайн хорошо подходит для этой игры. Но ATi не так давно смогла "взять" эту игру с новыми картами.
Здесь мы впервые сталкиваемся с ограничениями вычислительной мощности CPU, поскольку при низком разрешении результат составляет где-то 126 кадров в секунду. Карта ATi способна дать более высокое число кадров в секунду на данной системной конфигурации. Причина кроется в драйверах. Дело в том, что ATi выпускает драйверы, которые меньше нагружают CPU. В результате CPU находится в более выгодных условиях и может дать больше производительности для графической подсистемы.
В целом же, победителем становятся новые карты 8800. Если посмотреть на результаты при всех разрешениях, новые карты DX10 обходят Radeon X1950 XTX, начиная от 1280x1024 и выше.
GeForce 8800 GTX и GTS | F.E.A.R.
В F.E.A.R. обычно лидируют карты nVidia. Но, опять же, здесь заметна меньшая нагрузка на CPU у драйверов ATi. Конечно, с более скоростной платформой результаты будут иными, но если ваш компьютер не является передовым, то данный тест наглядно показывает, как карты G80 будут на нём работать. Но если не считать теста в разрешении 1024x768, G80 просто убивает Radeon X1950 XTX. GTX - это монстр. И не важно, какую нагрузку мы даём на GeForce 8800 GTX, карта всегда обеспечивает более 40 кадров в секунду.
GeForce 8800 GTX и GTS | Oblivion
Elder Scrolls IV: Oblivion позволяет очень сильно нагрузить видеокарты. Это единственная игра, в которой даже GeForce 8800 GTX не может выдать больше 30 кадров в секунду. Но подобная ситуация происходит лишь с разрешением, раздутым до 4 мегапикселей на кадр (2560x1600), причём со всеми опциями повышения качества. Если перейти на 2048x1536 со всеми опциями качества, то на внешних сценах мы получаем всегда больше 30 fps, что не может не впечатлить.
Ниже приведены два скриншота из нашего тестирования. Первый мы получили на ATi X1950 XTX в разрешении 2560x1600.
![]() |
Нажмите на картинку для увеличения.
Второй скриншот (ниже) взят на 8800 GTX с теми же настройками.
![]() |
Нажмите на картинку для увеличения.
Картинка nVidia по качеству намного превосходит скриншот ATi. Похоже, в этом отношении nVidia вновь вышла в лидеры. Перед нами ещё одно преимущество, которым обладают карты nVidia на чипе G80.
GeForce 8800 GTX и GTS | Новые опции повышения качества
Перед вами таблица новых возможностей улучшения качества на картах G80.
Кроме новых видеокарт DX10, nVidia также показала несколько функций, которые будут доступны на картах G80. И первая из них - патентованная технология улучшения качества картинки под названием Coverage Sampled Antialiasing (CSAA).
Новая версия полноэкранного сглаживания использует область из 16 субсэмплов. По информации nVidia, в результате можно сжать "избыточную информацию о цветах и глубине в область памяти и пропускную способность четырёх или восьми мультисэмплов". Новый уровень качества работает более эффективно, снижая объём данных на сэмпл. Если CSAA не заработает с какой-либо игрой, то драйвер вернётся к традиционным методам сглаживания.
![]() |
По данной таблице видно, где снижается объём данных. Нажмите на картинку для увеличения.
Ниже приведён пример улучшения качества 16xQ CSAA по сравнению с традиционным 4xAA. Охват чуть больше, чем у 4xMSAA, но даёт лучший результат.
![]() |
Нажмите на картинку для увеличения.
GeForce 8800 GTX и GTS | Не только графика
Перед тем, как мы закончим этот обзор, позвольте поговорить ещё о двух аспектах видеокарт, которые уже давно разрабатываются и со временем станут более важными. Первый аспект - воспроизведение видео. Во время правления GeForce 7 по качеству воспроизведения видео лидировали карты ATi Radeon X1900. Но ситуация изменилась с появлением унифицированных шейдеров с выделенным ядром Pure Video.
Благодаря умным алгоритмам и 128 вычислительным блокам, GeForce 8800 GTX смогла получить 128 из 130 баллов в HQV. В ближайшем будущем мы планируем выпустить более подробную статью, касающуюся качества картинки, так что следите за новостями на нашем сайте.
Наконец, очень сильной стороной G80 является то, что nVidia называет CUDA. Многие годы учёные и энтузиасты ищут способы, чтобы выжать больше производительности из мощных параллельных процессоров. Кластер Beowulf, конечно, не всем по карману. Поэтому обычные смертные предлагают разные способы, как можно использовать для вычислений видеокарту.
Проблема здесь следующая: графический процессор хорош для параллельных вычислений, но вот с ветвлениями он справляется плохо. Здесь как раз хорошо подходит CPU. Кроме того, если вы хотите использовать видеокарту, то следует программировать шейдеры, как это делают игровые разработчики. nVidia вновь решила выйти вперёд, представив архитектуру Compute Unified Device Architecture или CUDA.
Так может работать CUDA для симуляции жидкости.
nVidia выпустила компилятор C+, получающиеся программы которого могут масштабироваться под вычислительные мощности GPU (например, 96 потоковых процессоров в 8800 GTS или 128 в 8800 GTX). Теперь программисты получили возможность создавать программы, которые масштабируются по ресурсам как CPU, так и GPU. CUDA наверняка понравится разным программам распределённых вычислений. Впрочем, CUDA может использоваться не только для просчёта блоков, но и для симуляции других эффектов: объёмной жидкости, одежды и волос. Через CUDA на GPU можно потенциально перенести расчёты физики и даже других игровых аспектов.
Разработчикам будет представлен полный набор SDK.
GeForce 8800 GTX и GTS | Заключение
Те, кто сейчас перейдёт с GeForce 6 на
Система охлаждения работает тихо, 80-миллиметровый кулер на эталонной карте было не услышать. Даже при полной нагрузке скорость вращения кулера невысока. Интересно, чем на это ответит компания ATi. В любом случае, nVidia проделала чертовски хорошую работу и выпустила действительно мощную "железку".
Недостатки
Следуя давним традициям, карты nVidia уже доступны в онлайновых магазинах. На международном рынке рекомендованная цена GeForce 8800GTX составляет $599, а GeForce 8800GTS - $449. Да и игры под DX10 должны вскоре появиться. Но что не менее важно, вы получите более качественную картинку уже в существующих играх.
![]() |
Вот так может выглядеть супермодель, выведенная с помощью DX10. Нажмите на картинку для увеличения.
GeForce 8800 GTX и GTS | Мнение редактора
Лично я впечатлён реализацией DX10/D3D10 от nVidia. Просмотр Crysis в реальном времени и многочисленных демонстраций впечатляет. Реализация CUDA позволяет превратить видеокарту в нечто большее, чем просто устройство рендеринга кадров. Теперь программы смогут использовать не только ресурсы CPU, но и всю параллельную мощь универсального шейдерного ядра GPU. Не терпится посмотреть на подобные решения в реальности.
Но G80 оставляет желать лучшего. Чего же? Конечно, новых игр. Господа разработчики, будьте так добры, поскорее выпустите игры DX10.
GeForce 8800 GTX | Фотогалерея
![]() | ![]() | ![]() |
![]() | ![]() | ![]() |
![]() | ![]() |