Почему у мониторов именно 144 Гц, а не 150 или 140?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Первые мониторы с частотой обновления 144 Гц появились более 10 лет назад, и с тех пор это число стало «золотым стандартом» среди игровых компьютерных мониторов, дисплеев ноутбуков и даже среди экранов мощных смартфонов и планшетов. Игровые мониторы проделали большой путь, не являются редкостью модели с частотой, превышающей 300 Гц. А мониторы с частотой обновления 144 Гц — это теперь вполне доступные «народные» устройства, но уже мало кто вспомнит, с чем связана эта цифра в 144 Гц.


Источник: www.expertreviews.co.uk

Нестандартные 144 Гц

Для начала стоит отметить, что нет никакого зафиксированного на бумаге стандарта, который бы обязывал производителей выпускать модели именно на 144 Гц, а не 140 или 150 Гц. Стандартизированными можно назвать те частоты обновления, что связаны с соответствующими широко распространенными кадровыми частотами различного видеоконтента. К таким относят 24, 25, 30, 50, 60, 100 и 120 Гц (и некоторые варианты с дробями, типа 23.976 Гц). Их все можно увидеть в стандарте ITU-R BT.2020 от Международного союза электросвязи, см. скриншот ниже.

Источник: www.itu.int

Получается, что киноделов и телевизионщиков частоты обновления свыше 120 Гц пока что не интересуют, так как 120 Гц оказались очень удобными (подробнее об этом чуть позже). Стандартизацию более высоких частот могла бы провести VESA (ответственная за DisplayPort и DisplayHDR), но и там не видят в этом необходимости. Выходит, что с одной стороны у производителей дисплеев и мониторов развязаны руки, а с другой стороны они всё равно все как один лепят кучу моделей именно на 144 Гц. Чтобы разобраться в причине, нужно вспомнить, как вообще в мониторах появились 144 Гц.

Как появились игровые LCD и почему они изначально были на 120 Гц

LCD-мониторы не всегда были «игровыми»: даже топовые модели середины 2000-х не могли похвастаться низким временем отклика. В видеоиграх это выражалось в «смазанности» границ любых быстро движущихся объектов. Учитывая, что тогда в продаже были и ЭЛТ-мониторы, то выбор любого уважающего себя геймера был очевиден: у ЭЛТ много преимуществ, и околонулевое время отклика — одно из них.

Впрочем, у крупных игроков не было сомнений в том, что будущее за LCD. Уже в 2003 году LCD обошли по продажам ЭЛТ, правда в основном за счет офисных моделей. Требовалось что-то новое и интересное, чтобы окончательно убедить любителей видеоигр переходить на LCD. На вторую половину 2000-х пришлось повальное увлечение 3D-контентом, и ViewSonic совместно с Nvidia решили воспользоваться этой возможностью.

Монитор ViewSonic VX2265wm и 3D-очки от Nvidia
Источник: www.cnet.com

В августе 2008 года на мероприятии NVISION 08 в Калифорнии компания ViewSonic продемонстрировала первый в мире монитор с частотой 120 Гц, большой шаг вперед по сравнению с распространенными тогда 60 Гц и 75 Гц. Эта была модель VX2265wm FuHzion 22″, которая стала первым монитором с поддержкой Nvidia 3D Visions Kit. Для того чтобы насладиться трехмерными видеоиграми, монитору требовалось обладать частотой как минимум в 120 Гц, которые с помощью 3D-очков с активным затвором от Nvidia превращались в 60 Гц на каждый глаз.

В 2009 — 2011 годах появился целый ряд моделей мониторов с частотой обновления 120 Гц. Это оказалось довольно удобным значением, отчасти поэтому 120 Гц впоследствии попали в стандарт ITU-R BT.2020. Дело в том, что число 120 кратно 60, 30 и 24 одновременно, благодаря чему видеоконтент с соответствующей кадровой частотой отображался на таких мониторах максимально плавно. В случае стандартного для голливудских фильмов видеоряда с 24 к/с каждый кадр отображался на таком мониторе равное количество времени — в течение 5 обновлений экрана.


Кадры №2 и №4 на экране 60 Гц будут отображаться в полтора раза дольше, чем кадры №1 и №3

А вот к примеру на 60 Гц мониторе так не получится: разные кадры будут отображаться на дисплее в течение неодинаковых промежутков времени, из-за чего плавные движения камеры в фильмах выглядят слегка дергаными. Одним словом, 120 Гц отлично себя показали, появился устойчивый спрос на игровые LCD мониторы, но прогресс не стоял на месте и нужно было что-то еще более быстрое, правда была одна проблема.

Как и почему появились мониторы именно на 144 Гц

Разрешение первых LCD мониторов с частотой 120 Гц было сравнительно небольшим— 1050 x 1680 точек. Оно недолго было популярным, вскоре его вытеснили экраны с 1080 x 1920 пикселей, то есть Full HD. Но чем выше разрешение, тем большая необходима пропускная способность интерфейса для видеосигнала.

Автор: TechCloud Источник: youtu.be

Первым монитором с частотой обновления 144 Гц стал ASUS VG278HE в июле 2012 года. Из разъемов у него были только DVI-D Dual Link и HDMI. Режим 144 Гц был доступен только через DVI-D, а при подключении через HDMI монитор работал лишь на 60 Гц. Почему? Да потому что HDMI не умел в 144 Гц (и даже в 120) до появления версии HDMI 1.4b. Релиз этой версии состоялся в октябре 2011 года, и к моменту выхода монитора она была очень слабо распространена.

Низкой распространенностью объясняется и отсутствие у данного монитора DisplayPort: он тогда встречался только у наиболее свежих моделей видеокарт. Зато DVI был практически повсюду, но что там у него с пропускной способностью? Фактическая пропускная способность DVI-D Dual Link составляет 7.92 Гбит/сек. Сколько кадров в секунду он сможет передать при разрешении Full HD со стандартной глубиной цвета в 24 бит?

7.92 x 1000000000 / 1080 / 1920 / 24 = 159.14

Кабель DVI-D Dual Link
Источник: www.cmple.com

Получается, что DVI-D Dual Link был способен передать и 159 к/с. Однако у ASUS VG278HE только 144 Гц, потому что на мониторе с частотой 159 Гц абсолютно любой видеоконтент выглядел бы «дерганым» по причине, рассмотренной в предыдущей части. 159 Гц не кратно ни 24 кадрам в секунду, ни 25, ни чему-либо ещё. Следовательно, нужно было установить «потолок» для монитора пониже, выбрав более «удобное» значение. Им могло бы стать 150 Гц (что кратно 50, 30 и 25 к/с), либо 144 Гц (что кратно 48 и 24 к/с). Так как контент в 24 к/с более распространен (в конце концов это почти весь голливудский кинематограф), то остановились на варианте 144 Гц.

Модель от Asus оказалась весьма удачной, и в следующие пару лет свои варианты 1080p/144 Гц мониторов представили Acer, BenQ и AOC. Все они вместе взятые и дали начало тренду на «144 Гц для игор».

Почему 144 Гц распространены до сих пор, хотя не должны

Итак, прошло 11 лет после выхода ASUS VG278HE. До нас добрались новые ревизии HDMI, а DisplayPort теперь есть в каждой видеокарте. Следовательно, прежних ограничений по пропускной способности интерфейсов больше нет.


С появлением технологий адаптивной синхронизации кадров (AMD FreeSync, Nvidia G-Sync и VRR) у производителей мониторов полностью отпала необходимость устанавливать герцовку своих устройств кратной 24 к/с или какому-либо ещё значению. В итоге на рынке появилось множество моделей с самой разной частотой обновления: 155 Гц, 165 Гц, 170 Гц и тому подобное, ничему нужному не кратное. При этом зачастую они лишь немногим дороже вариантов на 144 Гц.

Тем не менее между выходом 144 Гц мониторов и массовым внедрением вышеназванных технологий успело пройти несколько лет. За это время 144 Гц успело стать не просто нормой. Именно это число прочно ассоциируется с игровыми мониторами, многие покупатели при выборе монитора ожидают увидеть логотип «144Hz» на коробке. Сформировалась так называемая «инерция потребителя», чем до сих пор и пользуются производители мониторов.