| Скажи «нет»
артефактам!
Новые технологии FreeSync и G-Sync положат конец раз-
рывам, «фризам» и ошибкам отображения у приложений,
требовательным к графике. Специалисты CHIP объясняют,
как они работают.
Тот, кто использует свой ПК для игр,
знаком с чувством разочарования,
когда видеокарта и монитор действу-
ют каждый в собственном ритме. Несмо-
тря на достаточную производительность
компьютера, кадры динамичных сцен на
мониторе сменяются рывками, а отдель-
ные изображения искажаются до неузна-
ваемости. Причиной этого является от-
сутствие синхронизации видеокарты и
монитора. Монитор настроен на фикси-
рованную частоту обновления — 60 Гц. Он
«ожидает», что графическая карта 60 раз в
секунду (то есть каждые 16,7 мс) будет от-
правлять ему полностью обсчитанное от-
дельное изображение, которое он «отри-
сует» построчно сверху вниз. Это неплохо
работает в обычных программах, а вот с
играми получается хуже.
Разрывы изображения и зависания
Причина всех проблем состоит в том, что
графические процессоры «отрисовыва-
ют» картинку не с фиксированными ско-
ростями. Частота смены кадров в игре
похожа на поездку на «американских гор-
ках», в зависимости от того, какое коли-
чество деталей необходимо «обсчитать»
в одном изображении. Характерно, что
мощные видеокарты в диапазоне Full HD
достигают максимальной частоты кадров
свыше 100 в секунду, однако в отдельных
сценах, требующих большого объема вы-
числений, частота падает значительно ни-
же необходимых 60 кадров/с.
Независимо от разрешения (HD или
даже 4К), проблема одна и та же: вывод
изображения видеокартой и его воспро-
изведение на мониторе рассинхронизи-
рованы. Если видеокарта создает более
60 кадров/с, монитор во время формиро-
вания одного изображения уже переклю-
чается на следующее. Следствием явля-
ются неприглядные эффекты «разрыва
изображения». Если изображение постро-
ено наполовину, и в этот момент проис-
ходит обновление отображения следую-
щего изображения, то в верхней части
монитора еще видно предыдущую кар-
тинку, а под ней уже создается новая —
и изображение буквально «разрывается».
Совершенно другая проблема возникает
в ситуации, когда видеокарта не способ-
на достаточно быстро
рассчитывать необхо-
димые изображения.
В этом случае одинако-
вые изображения долж-
ны быть переданы не-
сколько раз, что при-
водит к «торможению»
эпизодов игры.
Технологии FreeSync (AMD) и G-Sync
(NVIDIA) призваны покончить с назван-
ными проблемами. Они просто изменя-
ют тактику и «приспосабливают» монитор
к частоте кадров видеокарты. При этом
происходит динамическая синхронизация
с выходным сигналом графического про-
цессора. Что для этого требуется? Помимо
соответствующей видеокарты — сертифи-
цированный монитор и драйвер.
Технологии синхронизации мони-
тора и видеокарты
Ассоциация стандартизации видеоэлек-
троники (VESA) называет Adaptive Sync
технологией, при которой видеокарта об-
рабатывает каждое изображение столько
времени, сколько необходимо, и немед-
ленно отправляет результат на монитор,
который «ожидает» его. Если видеокарта
создает (как в нашем примере с разреше-
нием 4К) только 50 изображений в секун-
ду, монитор также выдает только 50 ка-
дров в секунду. Если видеокарта создает
135 кадров/с, то и монитор работает с со-
ответствующей частотой 135 Гц. AMD
FreeSync представляет собой официаль-
ную реализацию стандарта Adaptive Sync.
Компания NVIDIA с технологией G-Sync
подхватила лишь основную идею, однако
разработала свое решение. Поэтому эти
две технологии во многом схожи, однако
существуют и различия. G-Sync охваты-
вает диапазон частот от 30 до 144 Гц. Тех-
нология FreeSync в теории осуществляет
синхронизацию в диапазоне 9–240 Гц, но
FreeSync-мониторы пока поддерживают
только диапазон 40–144 Гц.
В G-Sync-мониторы встроен собст-
венный аппаратный модуль (преобразо-
ватель) с процессором обработки изобра-
жений и памятью
|