Nvidia g sync нужен ли. Технология Nvidia G-Sync

Обзор технологии G-Sync | Краткая история фиксированной частоты обновления

Давным-давно мониторы были громоздкими и содержали электронно-лучевые трубки и электронные пушки. Электронные пушки бомбардируют экран фотонами для освещения цветных люминофорных точек, которые мы зовём пикселями. Они прорисовывают слева направо каждую "сканирующую" строку от верхней до нижней. Регулировка скорости электронной пушки от одного полного обновления до следующего не очень практиковалась ранее, да и особой нужды до появления трёхмерных игр в этом не было. Поэтому ЭЛТ и связанные с ними аналоговые стандарты видео были разработаны с фиксированной частотой обновления.

ЖК-мониторы постепенно заменили ЭЛТ, а цифровые разъёмы (DVI, HDMI и DisplayPort) заменили аналоговые (VGA). Но ассоциации, отвечающие за стандартизацию видеосигналов (во главе с VESA), не перешли с фиксированной частоты обновления. Кино и телевидение по-прежнему опираются на входящий сигнал с постоянной частотой кадров. И снова переход на регулируемую частоту обновления не кажется столь необходимым.

Регулируемые частоты кадров и фиксированные частоты обновления не совпадают

До появления современной 3D-графики фиксированная частота обновления проблемой для дисплеев не являлась. Но она возникла, когда мы впервые столкнулись с мощными графическими процессорами: частота, на которой GPU визуализировал отдельные кадры (что мы называем частотой кадров, обычно выражающейся в FPS или кадрах в секунду), непостоянна. Она меняется с течением времени. В тяжёлых графических сценах карта может обеспечивать 30 FPS, а если смотреть на пустое небо - 60 FPS.

Отключение синхронизации приводит к разрывам

Выходит, что переменная частота кадров графического процессора и фиксированная частота обновления ЖК-панели вместе работают не очень хорошо. В такой конфигурации мы сталкиваемся с графическим артефактом под названием "разрыв". Он появляется, когда два и более неполных кадра визуализируются вместе в течение одного цикла обновления монитора. Обычно они смещаются, что даёт очень неприятный эффект во время движения.

На изображении выше показаны два хорошо известных артефакта, которые часто встречаются, но их трудно зафиксировать. Поскольку это артефакты дисплея, на обычных игровых скриншотах вы такого не увидите, однако наши снимки показывают, что вы на самом деле видите во время игры. Чтобы их снять, нужна камера с высокоскоростным режимом съёмки. Или если у вас есть карта с поддержкой видеозахвата, вы можете записать несжатый поток видео с порта DVI и чётко увидеть переход от одного кадра к другому; именно этот способ мы используем для тестов FCAT. Однако лучше всего наблюдать описанный эффект собственными глазами.

Эффект разрыва виден на обоих изображениях. Верхнее сделано с помощью камеры, нижнее - через функцию видеозахвата. Нижняя картинка "разрезана" по горизонтали и выглядит смещённой. На верхних двух изображениях левый снимок сделан на экране Sharp с частотой обновления 60 Гц, правый – на дисплее Asus с частотой 120 Гц. Разрыв на 120-герцевом дисплее выражен не так сильно, поскольку частота обновления вдвое выше. Тем не менее, эффект виден, и проявляется так же, как и на левом изображении. Артефакт такого типа – явный признак того, что изображения были сделаны при отключённой вертикальной синхронизации (V-sync).

Battlefield 4 на GeForce GTX 770 с отключённой V-sync

Второй эффект, который виден на снимках BioShock: Infinite, называется двоение (ghosting). Он особенно хорошо виден в нижней части левого снимка и связан с задержкой обновления экрана. Если коротко, то отдельные пиксели не достаточно быстро меняют цвет, что приводит к свечению такого типа. Отдельно взятый кадр не может передать, какой эффект двоение оказывает на саму игру. Панель со временем отклика от серого к серому 8 мс, такая как Sharp, будет в результате давать размытое изображение при любом движении на экране. Вот почему эти дисплеи, как правило, не рекомендуют для шутеров от перового лица.

V-sync: "шило на мыло"

Вертикальная синхронизация, или V-sync – это очень старое решение проблемы разрывов. При активации этой функции видеокарта пытается соответствовать частоте обновления экрана, полностью удаляя разрывы. Проблема в том, что если ваша видеокарта не сможет удержать частоту кадров выше 60 FPS (на дисплее с частотой обновления 60 Гц), эффективная частота кадров будет скакать между значениями, кратными частоте обновления экрана (60, 30, 20, 15 FPS и т.д.), что в свою очередь приведёт к ощутимым притормаживаниям.

Когда частота кадров падает ниже частоты обновления при активной V-sync, вы ощутите притормаживания

Более того, поскольку вертикальная синхронизация заставляет видеокарту ждать и иногда полагается на буфер невидимых поверхностей, V-sync может добавлять в цепочку визуализации дополнительную задержку ввода. Таким образом, V-sync может быть как спасением, так и проклятием, решая одни проблемы, но при этом провоцируя другие недостатки. Неофициальный опрос наших сотрудников показал, что геймеры, как правило, отключают вертикальную синхронизацию, и включают лишь тогда, когда разрывы становятся невыносимыми.

Креативный подход: Nvidia представляет G-Sync

При запуске новой видеокарты GeForce GTX 680 компания Nvidia включила режим драйвера под названием Adaptive V-sync (адаптивная вертикальная синхронизация), который пытается нивелировать проблемы при включении V-sync, когда частота кадров выше частоты обновления монитора и быстро отключая её, когда происходит резкое падение производительности ниже частоты обновления. Хотя технология добросовестно выполняла свои функции, это был лишь обход проблемы, который не позволял избавиться от разрывов, если частота кадров была ниже частоты обновления монитора.

Реализация G-Sync гораздо интереснее. Если говорить в общем, Nvidia показывает, что вместо того, чтобы заставлять видеокарты работать на фиксированной частоте дисплея, мы можем заставить новые мониторы работать на непостоянной частоте.

Частота кадров GPU определяет частоту обновления монитора, убирая артефакты, связанные с включением и отключением V-sync

Пакетный механизм передачи данных разъёма DisplayPort открыл новые возможности. Используя переменные интервалы гашения в видеосигнале DisplayPort и заменяя устройство масштабирования монитора на модуль, работающий с переменными сигналами гашения, ЖК-панель может работать на переменной частоте обновления, связанной с частотой кадров, которую выводит видеокарта (в пределах частоты обновления монитора). На практике Nvidia креативно подошла к использованию особых возможностей интерфейса DisplayPort и попыталась поймать двух зайцев одновременно.

Ещё перед началом тестов хочется отдать должное за творческий подход к решению реальной проблемы, влияющей на игры на ПК. Это инновации во всей красе. Но каковы результаты G-Sync на практике? Давайте выяснять.

Nvidia прислала нам инженерный образец монитора Asus VG248QE , в котором устройство масштабирования заменено на модуль G-Sync . С этим дисплеем мы уже знакомы. Ему посвящена статья "Обзор Asus VG248QE: 24-дюймовый игровой монитор с частотой обновления 144 Гц за $400" , в которой монитор заработал награду Tom"s Hardware Smart Buy. Теперь пришло время узнать, как новая технология Nvidia повлияет на самые популярные игры.

Обзор технологии G-Sync | 3D LightBoost, встроенная память, стандарты и 4K

Просматривая материалы для прессы от Nvidia, мы задавали себе немало вопросов, как о месте технологии в настоящем, так и её роли в будущем. Во время недавней поездки в головной офис компании в Санта-Клара наши коллеги из США получили некоторые ответы.

G-Sync и 3D LightBoost

Первое, что мы заметили, - это то, что Nvidia прислала монитор Asus VG248QE , модифицированный для поддержки G-Sync . Этот монитор также поддерживает технологию Nvidia 3D LightBoost, которая изначально была разработана для повышения яркости 3D-дисплеев, но долгое время неофициально использовалась в 2D-режиме, применяя пульсирующую фоновую подсветку панели для уменьшения эффекта двоения (или размытия движений). Естественно, стало интересно, используется ли данная технология в G-Sync .

Nvidia дала отрицательный ответ. Хотя использование обеих технологий одновременно было бы идеальным решением, сегодня стробирование фоновой подсветки на переменной частоте обновления приводит к проблемам с мерцанием и яркостью. Решить их невероятно сложно, поскольку необходимо настроить яркость и отслеживать импульсы. Как результат, сейчас приходится выбирать между двумя технологиями, хотя компания пытается найти способ использовать их одновременно в будущем.

Встроенная память модуля G-Sync

Как мы уже знаем, G-Sync устраняет пошаговую задержку ввода, связанную с V-sync, поскольку больше нет необходимости ожидать завершения сканирования панели. Тем не менее, мы заметили, что модуль G-Sync имеет встроенную память. Модуль может буферизировать кадры самостоятельно? Если так, сколько времени потребуется кадру, чтобы пройди через новый канал?

По данным Nvidia, кадры не буферизуются в памяти модуля. По мере поступления данных они отображаются на экране, а память выполняет некоторые другие функции. Тем не менее, время обработки для G-Sync заметно меньше одной миллисекунды. Фактически почти с такой же задержкой мы сталкиваемся при выключённой V-sync, и она связана с особенностями игры, видеодрайвера, мышки и т.д.

Будет ли G-Sync стандартизирована?

Такой вопрос задавался в последнем интервью с AMD, когда читатель хотел узнать реакцию компании на технологию G-Sync . Однако нам захотелось спросить это непосредственно у разработчика и узнать, планирует ли Nvidia вывести технологию на промышленный стандарт. В теории компания может предлагать G-Sync как апгрейд для стандарта DisplayPort, обеспечивающего переменные частоты обновления. В конце концов, Nvidia является членом ассоциации VESA.

Однако новые спецификации для DisplayPort, HDMI или DVI не планируются. G-Sync и так поддерживает DisplayPort 1.2, то есть стандарт менять не нужно.

Как уже отмечалось, Nvidia работает над совместимостью G-Sync с технологией, которая сейчас называется 3D LightBoost (но скоро будет носить другое имя). Кроме того, компания ищет способ снизить себестоимость модулей G-Sync и сделать их более доступными.

G-Sync на разрешениях Ultra HD

Nvidia обещает появление мониторов с поддержкой G-Sync и разрешениями до 3840x2160 пикселей. Однако модель от Asus, которую мы сегодня рассмотрим, поддерживает только 1920x1080 точек. На данный момент мониторы Ultra HD используют контроллер STMicro Athena, имеющий два устройства масштабирования для создания поделённого на плитки дисплея. Нам интересно, будет ли модуль G-Sync поддерживать конфигурацию MST?

По правде говоря, дисплеев 4K с переменой частотой кадров ещё придётся подождать. Ещё не существует отдельного устройства масштабирования, поддерживающего разрешение 4K, ближайшее должно появиться в первой четверти 2014 года, а мониторы, ими оснащённые, - только во второй четверти. Поскольку модуль G-Sync заменяет устройство масштабирования, совместимые панели начнут появляться после этого момента. К счастью, модуль изначально поддерживает Ultra HD.

Лучшие мониторы для игр | Модели с поддержкой технологий Nvidia G-Sync

Технология переменной или адаптивной частоты обновления экрана представлена двумя разновидностями: AMD FreeSync и Nvidia G-Sync. Они выполняют одну и ту же функцию – сводят частоту обновления источника (видеокарты) и дисплея, чтобы предотвратить раздражающие разрывы кадров во время быстрых движений в игре. FreeSync является частью спецификации DisplayPort, а G-Sync требует дополнительных аппаратных средств, под лицензией Nvidia. Реализация G-Sync добавляет к цене монитора порядка $200. Если у вас уже есть современная видеокарта GeForce, выбор очевиден. Если вы пока не определились, вам следует знать, что у G- Sync есть одно преимущество. Когда частота кадров опускается ниже порога G-Sync, то есть 40 кадров/с, кадры дублируются для предотвращения разрывов изображения. У FreeSync такой функции нет.


Сводная таблица


Модель AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Категория FHD FHD QHD QHD
Лучшая цена в РФ, руб. 24300 28990 31000 58100
Тип панели/фоновой подсветки TN / W-LED TN / W-LED edge array TN / W-LED edge array AHVA / W-LED edge array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Радиус закругления нет нет нет нет
1920x1080 @ 144 Гц 1920x1080 @ 144 Гц, 180 Гц с разгоном 2560x1440 @ 144 Гц, 165 Гц с разгоном 2560x1440 @ 165 Гц
Диапазон работы FreeSync нет нет нет нет
Глубина цвета/цветовой охват 8-бит (6-бит с FRC) / sRGB 8-бит / sRGB 8-бит / sRGB 8-бит / sRGB
Время отклика (GTG), мс 1 1 1 4
Яркость, кд/м2 350 350 350 350
Динамики нет нет нет (2) 2 Вт
Видео входы (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудио разъёмы нет (1) 3.5 мм выход на наушники (1) 3.5 мм Stereo in, (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники
USB v3.0: (1) вход, (2) выхода; v2.0: (2) выхода v3.0: (1) вход, (2) выхода v3.0: (1) вход, (4) выхода v3.0: (1) вход, (2) выхода
Энергопотребление, Вт 40 типичн. 65 макс. 33 типичн. 90 макс., 0.5 ожид.
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Толщина панели, мм 50 70 52 66
Ширина рамки, мм 16-26 11 сверху/сбоку: 6, снизу: 15 8-12
Вес, кг 6,5 6,6 5,8 7
Гарантия 3 года 3 года 3 года 3 года

Модель Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Категория UHD UHD WQHD QHD
Лучшая цена в РФ, руб. 43900 62000 102000 58000
Тип панели/фоновой подсветки AHVA / W-LED edge array IPS / W-LED edge array AH-IPS / W-LED edge array AMVA / W-LED, edge array
Диагональ экрана/соотношение сторон 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Радиус закругления нет нет 3800 мм 1800 мм
Максимальное разрешение/част. обновления 3840x2160 @ 60 Гц 3840x2160 @ 60 Гц 3440x1440 @ 75 Гц, 100 Гц с разгоном 2560x1080 @ 144 Гц, 200 Гц с разгоном
Диапазон работы FreeSync нет нет нет 8-бит / sRGB
Глубина цвета/цветовой охват 10-бит / sRGB 10-бит / sRGB 10-бит / sRGB 10-бит / sRGB
Время отклика (GTG), мс 4 4 5 4
Яркость, кд/м2 300 350 300 300
Динамики (2) 2 Вт, DTS (2) 2 Вт, DTS (2) 2 Вт (2) 3 Вт, DTS
Видео входы (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудио разъёмы (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники (1) 3.5 мм выход на наушники
USB v3.0: (1) вход, (4) выхода v3.0: (1) вход, (4) выхода v3.0: (1) вход, (4) выхода v3.0: (1) ввход, (3) выхода
Энергопотребление, Вт 71.5 типичн. 56 типичн. 100 макс. 34 Вт при 200 нит
Габариты ДхВхШ (с основанием), мм 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Толщина панели, мм 63 62 73 118
Ширина рамки, мм сверху/сбоку: 8, снизу: 22 сверху/сбоку: 13, снизу: 20 сверху/сбоку: 12, снизу: 24 сверху/сбоку: 12, снизу: 20
Вес, кг 7 11,5 11,2 9,7
Гарантия 3 года 3 года 3 года 3 года

AOC G2460PG – FHD 24 дюйма


  • Лучшая цена в России: 24300 руб.

ДОСТОИНСТВА

  • Отличная реализация G-Sync
  • Частота обновления экрана 144 Гц
  • Подавление размытия движения ULMB
  • Высокое качество сборки
  • Очень высокое качество цветопередачи и оттенков серого

НЕДОСТАТКИ

  • Нестандартная гамма
  • Недостаточно яркости для оптимальной работы ULMB
  • Не IPS

ВЕРДИКТ

Несмотря на то, что G-Sync остаётся премиальной и дорогой опцией, AOC G2460PG является первым монитором в это сегменте, который ориентирован на покупателя с относительно небольшим бюджетом. Он стоит примерно вдвое дешевле Asus ROG Swift, поэтому вы можете немного сэкономить, либо установить на своём столе сразу два монитора.

Asus RoG PG248Q – FHD 24 дюйма


  • Лучшая цена в России: 28990 руб.

ДОСТОИНСТВА

  • G-Sync
  • 180 Гц
  • Низкая задержка
  • Отзывчивость
  • Точность цветопередачи с калибровкой
  • Изящный внешний вид
  • Качество сборки

НЕДОСТАТКИ

  • Чтобы добиться лучшей картинки, требуется регулировка
  • Контрастность
  • Дорогой

ВЕРДИКТ

PG248Q похож на экзотический спорткар – дорогой и непрактичный в эксплуатации. Но если во время установки выставить верные настройки, то вы получите превосходный игровой опыт. По плавности и скорости отклика этот монитор – пожалуй, лучший из того, что мы протестировали на сегодняшний день. Он стоит потраченных денег и времени. Настоятельно рекомендуем.

Dell S2417DG


  • Лучшая цена в России: 31000 руб.

    ДОСТОИНСТВА

    • Превосходное качество обработки движений
    • Точность цветопередачи на заводских настройках
    • Разрешение QHD
    • Частота обновления165 Гц
    • Игровые функции
    • Рамка 6 мм

    НЕДОСТАТКИ

    • Контрастность
    • Точность гамма-кривой
    • ULMB снижает светоотдачу и контрастность
    • Углы обзора

    ВЕРДИКТ

    Если бы Dell исправила проблемы с гаммой, с которыми мы столкнулись в ходе тестирования, то S2417DG заслужил бы нашу награду Editor’s Choice. Монитор невероятно плавно передаёт движения, совершенно без ореолов, дрожания и разрывов – глаз не оторвать. Польза от функции ULMB незначительная, тем не менее, она присутствует. Это не самый дешёвый игровой монитор с диагональю экрана 24 дюйма, но он превосходит более дорогих конкурентов и заслуживает место в списке.

    Asus RoG Swift PG279Q – QHD 27 дюймов


    • Лучшая цена в России: 58100 руб.

    ДОСТОИНСТВА

    • Стабильная работа при 165 Гц
    • G-Sync
    • Яркое и резкое изображение
    • Насыщенный цвет
    • GamePlus
    • Джойстик для экранного меню
    • Стильный внешний вид
    • Высокое качество сборки

    НЕДОСТАТКИ

    • Значительное снижение светового потока в режиме ULMB
    • Для достижения наилучшего качества изображения необходима калибровка
    • Дорогой

    ВЕРДИКТ

    Новое пополнение Asus в линейке ROG не идеально, но определённо заслуживает внимания. У PG279Q есть всё, что нужно энтузиасту, включая чёткую и яркую панель IPS, частоту обновления 165 Гц и G-Sync. Этот монитор недёшев, но мы пока не слышали о пользователях, сожалеющих о покупке. Нам понравилось играть на этом мониторе, и вам тоже наверняка понравится.

    Acer Predator XB271HK – UHD 27 дюймов


    • Лучшая цена в России: 43900 руб.

    ДОСТОИНСТВА

    • Насыщенные цвета
    • Точность изображения на заводских настройках
    • G-Sync
    • Разрешение Ultra HD
    • Углы обзора
    • Качество сборки

    НЕДОСТАТКИ

    • Дорогой

    На этом снимке видно, как кадр из игры будто поделился на двое. Из-за чего это произошло? Всё более чем просто. Видеокарта формирует изображение кадр за кадром, каждый новый кадр попадает к вам на экран монитора. Но не сразу после его создания, а только при очередном обновление изображения на экране монитора. Изображение на нём обновляется строго определённое количество раз в секунду, и, что важно в нашем случае, не сразу на всём экране, а строчка за строчкой сверху вниз. Тем временем видеокарта подготавливает кадры не с одной скоростью, а каждый с совершенно разной, в зависимости от сложности сцены. Для того, чтобы хоть как-то синхронизировать подготовку кадров графическим адаптером и выход этих кадров на монитор, в видеоадаптерах используется два так называемых буфера: из одного буфера монитор считывает новый кадр, в другом формируется следующий. Однако зачастую этого оказывается мало для обеспечения плавной картинки, и мы видим на экране монитора по половине от двух разных кадров или даже сразу несколько кадров.

    Выход есть!

    Для того чтобы не наблюдать эту мешанину перманентно, существует технология вертикальной синхронизации - синхронизации выдачи кадров видеокартой и обновления изображения на мониторе. Однако, если ваша видеокарта «не тянет» и создание новых кадров происходит реже, чем происходит обновление картинки на мониторе, то тогда на последнем вы увидите два и более раза один и тот же последний кадр, пока не будет готов следующий. Даже если в среднем ваш графический ускоритель в той или иной игре при определённых настройках в среднем держит большое количество кадров в секунду, стоит только одному из многочисленных кадров не успеть к очередному циклу обновления изображения на экране, как время до появления этого кадра удвоится. Это и называется «фризом». Если вы играете в динамичные шутеры, то, конечно, любая задержка отображения может стоить вам одного неубитого противника или даже жизни вашего виртуального альтер-эго.

    Избавить геймеров сразу от обоих «мониторных» недугов и призвана технология NVIDIA G-SYNC. Правда, это не первая попытка «зелёных» найти средство, устраняющее разрывы и фризы. Предыдущим была другая технология под названием Adaptive V-Sync. Правда, она всего лишь автоматически включает и выключает вертикальную синхронизацию в зависимости от частоты кадров.

    А что же AMD? И эта компания понимает, что надо беречь нервы геймерам, ведь они практически двигатель ПК-индустрии и многого того, что с ней связано. Благодаря AMD в грядущую ревизию DisplayPort, названную 1.2a, включена технология, позволяющая регулировать частоту обновления монитора с тем, чтобы синхронизировать её с частотой «производства» кадров видеокартой. И при этом никаких проприетарных плат в мониторах. Это интересная и определённо менее дорогая альтернатива, но свет она ещё пока не увидела, а вот мониторы с G-SYNC анонсировал уже не один производитель.

    Помимо реалистичной, красивой картинки для максимального наслаждения компьютерной игрой нужна стабильная частота кадров. Небольшие ее проседания, а также визуальные артефакты вроде разрыва кадра могут сделать ее неиграбельной. В прошлом для решения таких проблем применялась технология вертикальной синхронизации V-Sync, однако ее результаты часто оставляют желать лучшего. В настоящий момент оба главных производителя графических процессоров, NVIDIA и AMD, разработали свои технологии синхронизации под названием G-Sync и FreeSync, соответственно, благодаря которым игры отличаются гораздо более плавным изображением, чем раньше.

    Если частоты не синхронизированы…

    Почему во время игры возникает эффект торможения или разрыва кадра? Дело в том, что частота обновления экрана у компьютерных мониторов обычно зафиксирована на уровне 60 Гц, то есть экран обновляется 60 раз в секунду. Количество же кадров, создаваемых в секунду видеокартой во время игры, не является постоянным. Именно тогда, когда частота обновления экрана не совпадает с частотой вывода кадров видеокартой, мы можем наблюдать вышеупомянутые эффекты, неприятно влияющие на восприятие игры. Учитывая, что производительность видеокарт постоянно улучшается, частота кадров в играх растет – даже при высоких настройках качества изображения, а вот частота обновления экрана у большинства мониторов так и осталась равной 60 Гц. В результате этого несоответствия мы получаем еще больше нежелательных визуальных артефактов во время игры.

    Технология V-Sync

    В прошлом, для того, чтобы сделать картинку в играх плавной, мы включали вертикальную синхронизацию V-Sync. Данная функция подсказывает видеокарте, что нужно выводить ровно 60 кадров в секунду на дисплей, обновляемый те же самые 60 раз в секунду. Результат – никакого разрыва кадров. Однако при этом ограничивается производительность флагманских видеокарт. Кроме того, если скорость игры не достигает 60 кадров в секунду, например потому что какая-то сцена является чересчур графически сложной, видеокарта будет вынуждена выдавать еще меньше – 30 кадров в секунду, пока не будет достигнута менее сложная сцена, и тогда частота кадров снова поднимется до 60. Поскольку колебания частоты кадров слишком большие, такое переключение между 30 и 60 кадрами в секунду будет заметно глазу как «притормаживание» картинки.

    Технология NVIDIA G-Sync

    Оба крупнейших производителя графических процессоров, NVIDIA и AMD, стремятся улучшить качество изображения в играх, поэтому оба они решили задачу синхронизации видеокарты и монитора, но разными способами. Первой свою технологию под названием G-Sync представила компания NVIDIA. Это аппаратное решение, которое требует встраивания специального чипа непосредственно в монитор. В чипе имеется буферная память, через которую идет обмен данными с видеокартой серии NVIDIA GeForce. Чип G-Sync считывает кадры с видеокарты и автоматически изменяет частоту обновления экрана монитора в соответствии с текущей скоростью игры, чтобы те совпадали друг с другом. При этом частота обновления экрана может динамически варьироваться в диапазоне от 0 до 240 Гц в режиме реального времени. Результат – полное отсутствие в играх всевозможных визуальных артефактов, таких как разрыв кадра, притормаживание, мерцание экрана.

    Технология AMD FreeSync

    Технология AMD FreeSync появилась позже, но уже доросла до второй версии. Как и G-Sync, она обеспечивает динамическое изменение частоты обновления экрана монитора – в соответствии с частотой вывода кадров видеокартой серии Radeon. Таким образом решается проблема «притормаживаний», типичная для традиционной вертикальной синхронизации V-Sync, что делает изображение в игре более плавным.

    В отличие от технологии NVIDIA G-Sync, которая требует применения дискретных чипов, FreeSync реализуется на уровне интерфейса. Она представляет собой реализацию промышленного стандарта DisplayPort Adaptive-Sync, который позволяет изменять частоту обновления в режиме реального времени посредством интерфейса DisplayPort. Новейшая версия интерфейса HDMI также поддерживает FreeSync. Технология FreeSync не требует добавления каких-либо чипов в мониторы, но для ее работы требуется монитор с интерфейсом DisplayPort или HDMI, а также видеокарта с графическим процессором Radeon.

    Помимо улучшенной плавности изображения, технология FreeSync 2 повышает качество картинки. Компенсация низкой частоты кадров (Low Framerate Compensation – LFC) расширила диапазон изменения частоты обновления экрана мониторов с FreeSync, что обеспечивает плавность изображения, даже когда скорость игры падает ниже 30 кадров в секунду. Кроме того, FreeSync 2 поддерживает удвоенный цветовой охват sRGB и расширенный динамический диапазон HDR.


    Заключение

    Обе технологии адаптивной синхронизации, NVIDIA G-Sync и AMD FreeSync, работают эффективно. Улучшение изображения после их активации будет заметным, особенно в динамичных играх со сложными сценами, таких как шутеры от первого лица, гонки, спортивные симуляторы. Однако очень сложно сравнить обе технологии между собой на основе каких-либо количественных данных. Можно полагаться лишь на наши собственные глаза, поэтому у каждого пользователя будет свое субъективное мнение о том, какая из них лучше.

    Объективным различием между двумя технологиями является стоимость. Помимо наличия совместимой видеокарты с соответствующим графическим процессором, для работы NVIDIA G-Sync требуется монитор с дополнительным дискретным чипом и платной лицензией от NVIDIA, что отражается на себестоимости и цене готового продукта. Мониторы с G-Sync стоят дороже, чем их аналоги с технологией AMD FreeSync, и именно поэтому мониторов с FreeSync на рынке больше. С другой стороны, оно того действительно стоит: мониторы с G-Sync обычно более высокого класса с точки зрения технических характеристик и, в сочетании с высокопроизводительными видеокартами GeForce, выдают великолепную картинку. Если же брать в расчет ценовую разницу, мониторы с FreeSync и видеокарты Radeon представляют собой более выгодное решение с точки зрения максимальной отдачи от вложенных средств.

    В этой статье можно узнать, как настроить технологию FreeSync для конфигурации из трех мониторов.

    У вас есть монитор с поддержкой G-SYNC и видеокарта NVIDIA? Рассмотрим, что такое G-SYNC как ее включить и правильно настроить, чтобы в полной мере использовать потенциал и возможности этой технологии. Имейте в виду, что само ее включение это еще не все.

    Каждому геймеру известно, что такое вертикальная синхронизация (V-Sync). Эта функция синхронизирует кадры изображения таким образом, чтобы исключить эффект разрыва экрана. Если отключить вертикальную синхронизацию на обычном мониторе, то уменьшиться input lag (задержка) при этом заметите, что игра станет лучше реагировать на ваши команды, но тем самым кадры не будут соответствующим образом синхронизированы и дойдет до разрыва экрана (англ. screen tearing).

    V-Sync устраняет разрывы экрана, но вызывает одновременно увеличение задержки вывода картинки относительно управления, так что играть становиться менее комфортно. Каждый раз, когда перемещаете мышь появляется впечатление, что эффект движения происходит с небольшой задержкой. И здесь в помощь приходит функция G-SYNC, которая позволяет устранить эти оба недостатка.

    Что собой представляет G-SYNC?

    Довольно дорогим, но эффективным решением для видеокарт NVIDIA GeForce является использование технологии G-SYNC, которая устраняет разрывы экрана без использования дополнительной задержки (input lag). Но для ее реализации нужен монитор, который включает модуль G-SYNC. Модуль подстраивает частоту обновления экрана к количеству кадров в секунду, благодаря чему не возникает дополнительная задержка и исключается эффект разрыва экрана.

    Многие пользователи после покупки такого монитора только включают поддержку NVIDIA G-SYNC в настройках панели управления NVIDIA с убеждением, что это все, что должны сделать. Теоретически да, потому что G-SYNC будет работать, но если хотите полностью максимизировать использование этой технологии, то нужно задействовать ряд дополнительных функций, связанных с соответствующей настройкой классической вертикальной синхронизации и ограничением FPS в играх до числа меньшего на несколько кадров, чем максимальная частота обновления монитора. Почему? Все это узнаете из следующих рекомендаций.

    Включение G-SYNC на панели управления NVIDIA

    Начнем с простейшего базового решения, то есть с момента включения модуля G-SYNC. Это можно сделать с помощью панели управления NVIDIA. Кликните правой кнопкой мыши на рабочем столе и выберите NVIDIA Control Panel (Панель управления NVIDIA).

    Затем перейдите на вкладку Дисплей – Настройка G-SYNC. Здесь сможете включить технологию с помощью поля «Enable G-SYNC». Отметьте его.

    Затем сможете указать, будет ли работать только в полноэкранном режиме, или может также активировать в играх, запущенных в оконном режиме или полноэкранного окна (без границ).

    Если выберите опцию «Enable G-SYNC for full screen mode», то функция будет работать только в играх, которые имеют установленный режим на весь экран (эту опцию можно изменить в настройках конкретных игр). Игры в оконном режиме или полноэкранного окна не будут использовать эту технологию.

    Если хотите, чтобы «оконные» игры также использовали технологию G-SYNC, то включите опцию «Enable G-SYNC for windowed and full screen mode». Когда выбран этот параметр, функция перехватывает текущее активное окно и накладывает на него свое действие, активируя в нем поддержку измененного обновления экрана. Для активации этой опции возможно потребуется перезагрузка компьютера.

    Как проверить, что эта технология включена. Для этого откройте меню Display в верхней части окна и отметьте в нем поле «G-SYNC Indicator». Благодаря этому вы будете проинформированы о том, что G-SYNC включен при запуске игры.

    Затем перейдите на вкладку «Manage 3D Settings» (Управление параметрами 3D) в боковом меню. В разделе «Global settings» (Общие настройки) найдите поле «Preferred refresh rate» (Предпочтительная частота обновления экрана).

    Установите здесь значение «Highest available» (Максимальное возможное). Некоторые игры могут навязывать себе свою частоту обновления, это может привести к тому, что G-SYNC не будет полностью задействован. Благодаря этому параметру все настройки игры будут проигнорированы и всегда будет включена возможность использования максимальной частоты обновления монитора, которая в устройствах с G-SYNC чаще всего составляет 144Гц.

    В общем, это базовая настройка, которую нужно выполнить, чтобы включить G-SYNC. Но, если вы хотите в полной мере использовать потенциал своего оборудования, то следует ознакомиться с дальнейшими инструкциями.

    Что делать с V-SYNC, если у меня G-SYNC? Оставить включенным или отключить его?

    Это самая распространенная дилемма владельцев мониторов с G-SYNC. Принято думать, что эта технология полностью заменяет классическую V-SYNC, которую можно полностью отключить в панели управления NVIDIA или просто проигнорировать.

    Сначала нужно понять разницу между ними. Задача обеих функций теоретически та же – преодоление эффекта разрыва экрана. Но способ действия существенно отличается.

    V-SYNC синхронизирует кадры, подстраивая их к постоянной частоте обновления монитора. Следовательно, функция действует в качестве посредника, захватывая картинку и, соответственно, отображение кадра, так чтобы адаптировать их к постоянной частоте кадров, тем самым предотвратить разрывы изображения. В итоге это может привести к возникновению input lag (задержки), потому что V-SYNC сначала должен «захватить и упорядочить» изображение, а только потом его вывести на экран.

    G-SYNC работает в точности наоборот. Подстраивает не изображение, а частоту обновления монитора к количеству кадров, отображаемых на экране. Все делается аппаратно с помощью модуля G-SYNC, встроенного в монитор, поэтому не возникает дополнительная задержка отображения картинки, как это имеет место в случае с вертикальной синхронизацией. В этом ее основное преимущество.

    Вся проблема заключается в том, что работает G-SYNC хорошо только в случае, когда FPS находится в поддерживаемом диапазоне частот обновления. Этот диапазон захватывает частоты от 30 Гц до того значения, сколько максимально поддерживает монитор (60Гц или 144Гц). То есть эта технология работает в полную меру, когда FPS не падает ниже 30 и не превышает 60 или 144 кадров в секунду в зависимости от максимально поддерживаемой частоты обновления. Выглядит очень хорошо, приведенная ниже инфографика, созданная сервисом BlurBusters.

    Что произойдет, если частота кадров в секунду выйдет за пределы этого диапазона? G-SYNC не сможет настроить обновление экрана, поэтому что за пределами диапазона не работает. Вы обнаружите точно такие же проблемы как на обычном мониторе без G-SYNC и работать будет классическая вертикальная синхронизация. Если она будет выключена, то возникнуть разрывы экрана. Если будет включена, то эффекта разрыва не увидите, но появится iput lag (задержка).

    Поэтому в ваших интересах оставаться в диапазоне обновления G-SYNC, который составляет минимум 30 Гц и максимум от того, сколько максимально поддерживает монитор (чаще всего 144 Гц, но и есть дисплеи 60 Гц). Как это сделать? С помощью соответствующих параметров вертикальной синхронизации, а также через ограничение максимального количества FPS.

    Какой, следовательно, из этого вывод? В ситуации, когда количество кадров в секунду падает ниже 30 FPS нужно оставить по-прежнему включенную вертикальную синхронизацию. Это редкие случаи, но если до них дойдет, то V-SYNC гарантирует, что не возникнет эффект разрыва картинки. Если превышен верхний предел, то здесь все просто – нужно ограничить максимальное количество кадров в секунду, чтобы не приближаться к верхней границе, при пересечении которой включается V-SYNC, тем самым обеспечивая непрерывную работу G-SYNC.

    Следовательно, если у вас монитор 144 Гц нужно включить ограничение FPS на уровне 142, чтобы не приближаться к верхнему пределу. Если монитор 60 Гц – установите предел 58. Если даже компьютер находится в состоянии сделать больше FPS, то он этого не сделает. Тогда не включится V-SYNC и будет активен только G-SYNC.

    Включение вертикальной синхронизации в настройках NVIDIA

    Откройте панель управления NVIDIA и перейдите на вкладку «Manage 3D Settings» ” (Управление параметрами 3D). В разделе Global Setting найдите опцию Vertical Sync (Вертикальная синхронизация) и установите опцию «On» (Включено).

    Благодаря этому, вертикальная синхронизация будет всегда готова включится, если FPS упадет ниже 30 FPS, и монитор с технологией G-SYNC с этим бы не справился.

    Ограничение FPS до меньшего значения, чем максимальная частота обновления экрана

    Лучшим способом ограничения кадров в секунду является использование программы RTSS (RivaTuner Statistics Server). Безусловно, лучшим решением является использование ограничителя, встроенного в игру, но не у всех он имеется.

    Скачайте и запустите программу, затем в списке игр по левой стороне отметьте поле Global. Здесь можно установить общий ограничитель для всех приложений. С правой стороны найдите поле «Framerate limit». Установите здесь лимит для мониторов 144Гц – 142 FPS, соответственно, для устройств 60Гц -58 FPS.

    Когда установлен лимит, то не будет возникать задержка с активацией классической вертикальной синхронизацией и играть станет намного более комфортно.

  • Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.