РЕКЛАМА
ИНФОРМАЦИЯ
ПОЛЕЗНЫЕ ССЫЛКИ
Обзор Asus VG248QE: 24-дюймовый игровой монитор с частотой обновления 144 Гц за $400

Обзор GeForce GTX 680: Kepler против Tahiti

Обзор GeForce GTX 650 Ti Boost: революция в среднем ценовом диапазоне

GeForce GTX 770: видеокарта, бросающая вызов Radeon HD 7970?

Crysis 3: анализ производительности на 16-ти видеокартах

Battlefield 4: тест 16 видеокарт в бета-версии игры

На что способен Thunderbolt? Тест с хранилищем объёмом 240 Тбайт

Производительность USB 3.0: изучаем UASP и Turbo Mode

Thunderbolt: всё, что необходимо знать об интерфейсе

Обзор технологии G-Sync: меняем правила игры

Rambler's Top100 Рейтинг@Mail.ru

СОБЕРИ САМ

Обзор технологии G-Sync: меняем правила игры
Краткое содержание статьи: Геймеры часто сталкиваются с дилеммой: отключить вертикальную синхронизацию и играть с разрывами изображения или включить вертикальную синхронизацию и терпеть задержки и притормаживания? Nvidia обещает решить этот вопрос путём внедрения технологии регулируемой частоты обновления, которую мы сегодня и рассмотрим.

Обзор технологии G-Sync: меняем правила игры


Редакция THG,  20 декабря 2013
Страница: Назад  1 2 3 Далее


Обзор технологии G-Sync | Краткая история фиксированной частоты обновления

Давным-давно мониторы были громоздкими и содержали электронно-лучевые трубки и электронные пушки. Электронные пушки бомбардируют экран фотонами для освещения цветных люминофорных точек, которые мы зовём пикселями. Они прорисовывают слева направо каждую "сканирующую" строку от верхней до нижней. Регулировка скорости электронной пушки от одного полного обновления до следующего не очень практиковалась ранее, да и особой нужды до появления трёхмерных игр в этом не было. Поэтому ЭЛТ и связанные с ними аналоговые стандарты видео были разработаны с фиксированной частотой обновления.

ЖК-мониторы постепенно заменили ЭЛТ, а цифровые разъёмы (DVI, HDMI и DisplayPort) заменили аналоговые (VGA). Но ассоциации, отвечающие за стандартизацию видеосигналов (во главе с VESA), не перешли с фиксированной частоты обновления. Кино и телевидение по-прежнему опираются на входящий сигнал с постоянной частотой кадров. И снова переход на регулируемую частоту обновления не кажется столь необходимым.

Регулируемые частоты кадров и фиксированные частоты обновления не совпадают

Обзор технологии G-Sync: тест и обзор

До появления современной 3D-графики фиксированная частота обновления проблемой для дисплеев не являлась. Но она возникла, когда мы впервые столкнулись с мощными графическими процессорами: частота, на которой GPU визуализировал отдельные кадры (что мы называем частотой кадров, обычно выражающейся в FPS или кадрах в секунду), непостоянна. Она меняется с течением времени. В тяжёлых графических сценах карта может обеспечивать 30 FPS, а если смотреть на пустое небо - 60 FPS.

Обзор технологии G-Sync: тест и обзор

Отключение синхронизации приводит к разрывам

Выходит, что переменная частота кадров графического процессора и фиксированная частота обновления ЖК-панели вместе работают не очень хорошо. В такой конфигурации мы сталкиваемся с графическим артефактом под названием "разрыв". Он появляется, когда два и более неполных кадра визуализируются вместе в течение одного цикла обновления монитора. Обычно они смещаются, что даёт очень неприятный эффект во время движения.

Обзор технологии G-Sync: тест и обзор

На изображении выше показаны два хорошо известных артефакта, которые часто встречаются, но их трудно зафиксировать. Поскольку это артефакты дисплея, на обычных игровых скриншотах вы такого не увидите, однако наши снимки показывают, что вы на самом деле видите во время игры. Чтобы их снять, нужна камера с высокоскоростным режимом съёмки. Или если у вас есть карта с поддержкой видеозахвата, вы можете записать несжатый поток видео с порта DVI и чётко увидеть переход от одного кадра к другому; именно этот способ мы используем для тестов FCAT. Однако лучше всего наблюдать описанный эффект собственными глазами.

Эффект разрыва виден на обоих изображениях. Верхнее сделано с помощью камеры, нижнее - через функцию видеозахвата. Нижняя картинка "разрезана" по горизонтали и выглядит смещённой. На верхних двух изображениях левый снимок сделан на экране Sharp с частотой обновления 60 Гц, правый – на дисплее Asus с частотой 120 Гц. Разрыв на 120-герцевом дисплее выражен не так сильно, поскольку частота обновления вдвое выше. Тем не менее, эффект виден, и проявляется так же, как и на левом изображении. Артефакт такого типа – явный признак того, что изображения были сделаны при отключённой вертикальной синхронизации (V-sync).

Обзор технологии G-Sync: тест и обзор

Battlefield 4 на GeForce GTX 770 с отключённой V-sync

Второй эффект, который виден на снимках BioShock: Infinite, называется двоение (ghosting). Он особенно хорошо виден в нижней части левого снимка и связан с задержкой обновления экрана. Если коротко, то отдельные пиксели не достаточно быстро меняют цвет, что приводит к свечению такого типа. Отдельно взятый кадр не может передать, какой эффект двоение оказывает на саму игру. Панель со временем отклика от серого к серому 8 мс, такая как Sharp, будет в результате давать размытое изображение при любом движении на экране. Вот почему эти дисплеи, как правило, не рекомендуют для шутеров от перового лица.

V-sync: "шило на мыло"

Вертикальная синхронизация, или V-sync – это очень старое решение проблемы разрывов. При активации этой функции видеокарта пытается соответствовать частоте обновления экрана, полностью удаляя разрывы. Проблема в том, что если ваша видеокарта не сможет удержать частоту кадров выше 60 FPS (на дисплее с частотой обновления 60 Гц), эффективная частота кадров будет скакать между значениями, кратными частоте обновления экрана (60, 30, 20, 15 FPS и т.д.), что в свою очередь приведёт к ощутимым притормаживаниям.

Обзор технологии G-Sync: тест и обзор

Когда частота кадров падает ниже частоты обновления при активной V-sync, вы ощутите притормаживания

Более того, поскольку вертикальная синхронизация заставляет видеокарту ждать и иногда полагается на буфер невидимых поверхностей, V-sync может добавлять в цепочку визуализации дополнительную задержку ввода. Таким образом, V-sync может быть как спасением, так и проклятием, решая одни проблемы, но при этом провоцируя другие недостатки. Неофициальный опрос наших сотрудников показал, что геймеры, как правило, отключают вертикальную синхронизацию, и включают лишь тогда, когда разрывы становятся невыносимыми.

Креативный подход: Nvidia представляет G-Sync

Обзор технологии G-Sync: тест и обзор

При запуске новой видеокарты GeForce GTX 680 компания Nvidia включила режим драйвера под названием Adaptive V-sync (адаптивная вертикальная синхронизация), который пытается нивелировать проблемы при включении V-sync, когда частота кадров выше частоты обновления монитора и быстро отключая её, когда происходит резкое падение производительности ниже частоты обновления. Хотя технология добросовестно выполняла свои функции, это был лишь обход проблемы, который не позволял избавиться от разрывов, если частота кадров была ниже частоты обновления монитора.

Реализация G-Sync гораздо интереснее. Если говорить в общем, Nvidia показывает, что вместо того, чтобы заставлять видеокарты работать на фиксированной частоте дисплея, мы можем заставить новые мониторы работать на непостоянной частоте.

Обзор технологии G-Sync: тест и обзор

Частота кадров GPU определяет частоту обновления монитора, убирая артефакты, связанные с включением и отключением V-sync

Пакетный механизм передачи данных разъёма DisplayPort открыл новые возможности. Используя переменные интервалы гашения в видеосигнале DisplayPort и заменяя устройство масштабирования монитора на модуль, работающий с переменными сигналами гашения, ЖК-панель может работать на переменной частоте обновления, связанной с частотой кадров, которую выводит видеокарта (в пределах частоты обновления монитора). На практике Nvidia креативно подошла к использованию особых возможностей интерфейса DisplayPort и попыталась поймать двух зайцев одновременно.

Ещё перед началом тестов хочется отдать должное за творческий подход к решению реальной проблемы, влияющей на игры на ПК. Это инновации во всей красе. Но каковы результаты G-Sync на практике? Давайте выяснять.

Nvidia прислала нам инженерный образец монитора Asus VG248QE, в котором устройство масштабирования заменено на модуль G-Sync. С этим дисплеем мы уже знакомы. Ему посвящена статья "Обзор Asus VG248QE: 24-дюймовый игровой монитор с частотой обновления 144 Гц за $400", в которой монитор заработал награду Tom's Hardware Smart Buy. Теперь пришло время узнать, как новая технология Nvidia повлияет на самые популярные игры.

Обзор технологии G-Sync | 3D LightBoost, встроенная память, стандарты и 4K

Просматривая материалы для прессы от Nvidia, мы задавали себе немало вопросов, как о месте технологии в настоящем, так и её роли в будущем. Во время недавней поездки в головной офис компании в Санта-Клара наши коллеги из США получили некоторые ответы.

G-Sync и 3D LightBoost

Первое, что мы заметили, - это то, что Nvidia прислала монитор Asus VG248QE, модифицированный для поддержки G-Sync. Этот монитор также поддерживает технологию Nvidia 3D LightBoost, которая изначально была разработана для повышения яркости 3D-дисплеев, но долгое время неофициально использовалась в 2D-режиме, применяя пульсирующую фоновую подсветку панели для уменьшения эффекта двоения (или размытия движений). Естественно, стало интересно, используется ли данная технология в G-Sync.

Nvidia дала отрицательный ответ. Хотя использование обеих технологий одновременно было бы идеальным решением, сегодня стробирование фоновой подсветки на переменной частоте обновления приводит к проблемам с мерцанием и яркостью. Решить их невероятно сложно, поскольку необходимо настроить яркость и отслеживать импульсы. Как результат, сейчас приходится выбирать между двумя технологиями, хотя компания пытается найти способ использовать их одновременно в будущем.

Обзор технологии G-Sync: тест и обзор

Встроенная память модуля G-Sync

Как мы уже знаем, G-Sync устраняет пошаговую задержку ввода, связанную с V-sync, поскольку больше нет необходимости ожидать завершения сканирования панели. Тем не менее, мы заметили, что модуль G-Sync имеет встроенную память. Модуль может буферизировать кадры самостоятельно? Если так, сколько времени потребуется кадру, чтобы пройди через новый канал?

По данным Nvidia, кадры не буферизуются в памяти модуля. По мере поступления данных они отображаются на экране, а память выполняет некоторые другие функции. Тем не менее, время обработки для G-Sync заметно меньше одной миллисекунды. Фактически почти с такой же задержкой мы сталкиваемся при выключённой V-sync, и она связана с особенностями игры, видеодрайвера, мышки и т.д.

Будет ли G-Sync стандартизирована?

Такой вопрос задавался в последнем интервью с AMD, когда читатель хотел узнать реакцию компании на технологию G-Sync. Однако нам захотелось спросить это непосредственно у разработчика и узнать, планирует ли Nvidia вывести технологию на промышленный стандарт. В теории компания может предлагать G-Sync как апгрейд для стандарта DisplayPort, обеспечивающего переменные частоты обновления. В конце концов, Nvidia является членом ассоциации VESA.

Однако новые спецификации для DisplayPort, HDMI или DVI не планируются. G-Sync и так поддерживает DisplayPort 1.2, то есть стандарт менять не нужно.

Как уже отмечалось, Nvidia работает над совместимостью G-Sync с технологией, которая сейчас называется 3D LightBoost (но скоро будет носить другое имя). Кроме того, компания ищет способ снизить себестоимость модулей G-Sync и сделать их более доступными.

Обзор технологии G-Sync: тест и обзор

G-Sync на разрешениях Ultra HD

Nvidia обещает появление мониторов с поддержкой G-Sync и разрешениями до 3840x2160 пикселей. Однако модель от Asus, которую мы сегодня рассмотрим, поддерживает только 1920x1080 точек. На данный момент мониторы Ultra HD используют контроллер STMicro Athena, имеющий два устройства масштабирования для создания поделённого на плитки дисплея. Нам интересно, будет ли модуль G-Sync поддерживать конфигурацию MST?

По правде говоря, дисплеев 4K с переменой частотой кадров ещё придётся подождать. Ещё не существует отдельного устройства масштабирования, поддерживающего разрешение 4K, ближайшее должно появиться в первой четверти 2014 года, а мониторы, ими оснащённые, - только во второй четверти. Поскольку модуль G-Sync заменяет устройство масштабирования, совместимые панели начнут появляться после этого момента. К счастью, модуль изначально поддерживает Ultra HD.

Что происходит до 30 Гц?

G-Sync может изменять частоту обновления экрана вплоть до 30 Гц. Объясняется это тем, что при очень низких частотах обновления экрана изображение на ЖК-экране начинает разрушаться, что приводит к появлению визуальных артефактов. Если источник обеспечивает менее 30 FPS, модуль будет обновлять панель автоматически, избегая возможных проблем. Это означает, что одно изображение может воспроизводиться более одного раза, но нижний порог составляет 30 Гц, что обеспечит максимальное качественное изображение.
Страница: Назад  1 2 3 Далее


СОДЕРЖАНИЕ

Обзор технологии G-Sync. Отзывы в Клубе экспертов THG [ 11 отзывов] Обзор технологии G-Sync. Отзывы в Клубе экспертов THG [ 11 отзывов]


РЕКЛАМА
РЕКОМЕНДУЕМ ПРОЧЕСТЬ!

История мейнфреймов: от Harvard Mark I до System z10 EC
Верите вы или нет, но были времена, когда компьютеры занимали целые комнаты. Сегодня вы работаете за небольшим персональным компьютером, но когда-то о таком можно было только мечтать. Предлагаем окунуться в историю и познакомиться с самыми знаковыми мейнфреймами за последние десятилетия.

Пятнадцать процессоров Intel x86, вошедших в историю
Компания Intel выпустила за годы существования немало процессоров x86, начиная с эпохи расцвета ПК, но не все из них оставили незабываемый след в истории. В нашей первой статье цикла мы рассмотрим пятнадцать наиболее любопытных и памятных процессоров Intel, от 8086 до Core 2 Duo.

ССЫЛКИ
Офисная мебель Мытищи. . #бет бум букмекерская# контора . Только тут - Зеркало 365Bet
Реклама от YouDo
erid: LatgC7Kww