Компания Nvidia представила на CES 2024 новый этап развития технологии G-Sync — G-Sync Pulsar.
Похоже, что под новым именем в целом скрыты «старые» технологии: собственно, сама G-Sync, то есть переменная адаптивная кадровая частота монитора, и Ultra Low Motion Blur 2 (ULMB 2). Конечно, последнюю старой назвать никак нельзя, потому что дебютировала она лишь в конце весны, а первые мониторы появились на рынке буквально несколько месяцев назад.
Итак, G-Sync Pulsar объединяет в себе технологию адаптивной кадровой частоты монитора, что уже давно привычно, и то, что сама Nvidia называет технологией стробирования подсветки. Подсветка монитора включается только тогда, когда каждый пиксель имеет правильное значение цвета. Идея состоит в том, чтобы не показывать переход пикселей, а показывать их только тогда, когда их цвет точен. Для решения появляющихся при таком подходе проблем Nvidia придумала, как контролировать время отклика в зависимости от того, где находится вертикальная развёртка. Nvidia называет это «вертикальным зависимым овердрайвом».
Итог — новый показатель «чёткости движения», выражаемый в герцах. Для первых мониторов с ULMB 2 он заявлен равным 1000 Гц и более.
Судя по всему, для реализации G-Sync Pulsar нужен проприетарный чип Nvidia — как на заре развития G-Sync. Напомним, тогда в итоге технология Nvidia фактически проиграла открытому стандарту AMD FreeSync.
Первым монитором с поддержкой Pulsar будет Asus ROG Swift PG27, который выйдет позже в этом году.
61 комментарий
Добавить комментарий
Отсутствие шлейфов и размытое изображение, которое видит человек не имеют ничего общего. Почтите статьи на blurbusters о том, как устроен человеческий глаз и как получить четкое изображение.
Если кратко, глаз имеет непрерывный вектор движения, а изображение меняется на мониторе дискретно, => на сетчатке изображение будет размываться в виду того, что глаз двигается, а картинка стоит на месте. С oled можно добиться четкого изображения, но для этого нужно условные 500гц на мониторе и 500fps на видеокарте. В противном случае, нужно лишь изредка подсвечивать изображение на мониторе и отключать, чтоб не было наслоения изображения на сетчатке.
P.S. У меня есть oled монитор и я знаю о чем говорю)
На каждый кадр уходит 16,(6)мс
Если половину этого времени показывать просто черный экран, картинка будет четче.
В том и смысл новинки от nvidia, чтобы совместить BFI и динамическую развертку.
Но тут нужно, чтоб CPU обеспечивал 0,1%FPS близким к 100%, ибо сейчас на оледах при включении синхронизации кадров экран может неприятно мерцать при просадках FPS.
А про съемку смартфоном повеселил. Конечно же камера смартфона с интерполяцией кадров отличный измерительный инструмент (нет).
Отсутствие шлейфов и размытое изображение, которое видит человек не имеют ничего общего. Почтите статьи на blurbusters о том, как устроен человеческий глаз и как получить четкое изображение.
Если кратко, глаз имеет непрерывный вектор движения, а изображение меняется на мониторе дискретно, => на сетчатке изображение будет размываться в виду того, что глаз двигается, а картинка стоит на месте. С oled можно добиться четкого изображения, но для этого нужно условные 500гц на мониторе и 500fps на видеокарте. В противном случае, нужно лишь изредка подсвечивать изображение на мониторе и отключать, чтоб не было наслоения изображения на сетчатке.
P.S. У меня есть oled монитор и я знаю о чем говорю)
Добавить комментарий