Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Минус G-Sync/FreeSync/VRR — несовместимость с ULMB стробом — что бы яркость не плавала нужно исхитряться с драйвингом подсветки (привет ASUS ELMB), потому G-Sync обычно блокирует работу ULMB — или или
В остальном — G-Sync и FreeSync работают абсолютно одинаково, только у нвидии к сертификации мониторов требования строже
avatar
«Нормально», «не косячить» и нвидия? Несовместимые понятия однако
Не косячить — это одно, нвидия же действует (зло)умышленно
Забудем пока про «декоративную» g-sync fpga — просто посмотрите на внутренности пирамидки Nvidia 3D Vision и оцените степень упоротости и ада
avatar
Крутые «фичи гсинка» — это обязательный аналог FreeSync LFC — то есть беспроблемное отображение фпс во всём заявленном диапазоне фпс без провалов.
Если у первых FreeSync мониторов могли быть провалы (например монитор 50-80гц не мог отображать фпс с 40 до 50), то G-Sync\FreeSync LFC\FreeSync 2 отображают полный диапазон (наприер 50-80гц отображают любой фпс до 80)
Всё.
Весь остальной G-Sync делится на просто развод и сертификацию качества экрана… только вот раньше G-Sync Ultimate всегда означал FALD, а сейчас он ничего не значит — привет EdgeLED и засветы
avatar
В чем проблема использовать связку Nvidia + FreeSync? Просто берите монитор с DisplayPort (FreeSync по hdmi — только для AMD_
avatar
nikolayv81
Бред — G-Sync FPGA никакие кадры не дорисовывает — там идёт банальное дублирование предыдущего кадра, как и в FreeSync LFC и g-sync без платы
Дорисовка промежуточных кадров в игровых режимах воообще нигде не используется, потому что даёт слишком большой инпутлаг
avatar
У амд и нвидии без микросхем — одни плюсы.
g-sync fpga абсолютно ненужный атавизм, добавлявший глюки
avatar
Аппаратный G-Sync — пустой пшик для развода людей на бабки, а возможно ещё и слив неликвидных fpga заодно
Все манипуляции идут с V-Blank сигналом edp — видеокарта уже оснащена всем необходимым — и буферами для повторения кадра, и возможностью «дёргать пин» обновления. Костыль с отдельной платой лишь создавал глюки и инпут лаг, пока дровами не починили.
Если Вы видите разницу между fpga g-sync и новый с g-sync compatible — значит во втором случае что-то не так настроено и vrr не работает (либо «скорость» ah-ips/va даёт о себе знать)
avatar
Поймали — не поймали, исправили — не исправили
Посмотрим попробуют ли они провернуть "+0.5Gb" в третий раз
avatar
Для оледа давно пора было снизить требования к яркости, как это сделано в VESA HDR True Black — нечего выжигать глаза и матрицу яркостью, если и без этого контрастность отличная.
Но вот EdgeLED… обесценили сертификацию — теперь наклейка ultimate означает лишь дополнительные траты, а не качество — нвидия в своём репертуаре
avatar
Посмотрим
В идеале в самом начале нужно сделать равномерный многочасовой «прогар» заливками для выхода на рабочий режим
А так… Это профессиональный инструмент, а жк тоже начинают уходить через несколько лет, а равномерной яркости и цвета по всему экрану у них и с самого начала не бывает
avatar
Если 240гц шим оледа не нравится (хотя у половины жк тв именно такой), то хорошая новость — у LG тв шима нет вообще.
Как будет в этом мониторе — ждите тестов
avatar
Обычно усегда есть некоторая светимость чёрного даже на плазмах и современных оледах — правда она в десятки и даже сотни раз ниже жк
avatar
Хочется 120гц и VRR, только боюсь и без этого цена будет как у экранов для кинопроизводства
avatar
«кулед» начнёт конкурировать только тогда, когда появится на рынке.
Сейчас «Qled» — это просто qled подсветка для жк VA и AH-IPS — просто белая с цветофильтрами, даже не люминофор за субпикселями. У LG это называется Nanocell
жк с соответствующими недостатками жк, н
Когда появятся матрицы с qled субпикселями тогда и будем смотреть
avatar
Эти огромные телевизоры на самом деле не микролед, а минилед — дискретные светодиоды
А микролед с единой подложкой пока что делают только совсем мелких диагоналей — подойдёт разве что в смартчасы или индикаторы
avatar
Ну не норм, но более-менее
avatar
Да, с амд можно что-то сделать и быть молодцом
А с 1050 ничего не сделать — изначально была зарезанной бюджеткой и задранными в хлам частотами и прыгающими фреймтаймами
avatar
С постоянной подгрузкой текстурок и фризами, но да — занизить настройки и жить можно
avatar
У него то отлично подучается, в отличии от тех, кому защитить свои 4 и 6 гиговые карты дороже правды
avatar
Тесты нормальные, самые что ни на есть настоящие — это не аля оверсру «нужно продать gtx1060 3Gb» поэтому RE7 тестируем ровно до входа внутрь дома, а Nier Automata над морем до момента высадки"
«Порты с консолей под 15гигов» — сейчас всё является мультиплатформой и «портами с консолей» — заморачиваться с поддержкой вёдер на 4-6 гигов VRAM будут только в F2P — в AAA запросто забивают со словами «на минималках пойдёт и ладно», только вот покупать игру и играть на минималках без удовольствия так себе метод.
Даже прекрасно оптимизированный Doom Eternal еле в 8 гигов влезает.
«ловите копрофила» — сказал человек, защищающий псевдобюджетные карты на 4 и 6 гигов
А теперь вспомним про ПК эксклюзивы… если Civilization 6 хватает 4 гигов vram для FHD, то вот Frostpunk сожрёт до 7.5 гигов, Phoenix Point по сырости до 8 гигов отжирал.
Flight Simulator 2020 — 7 гигов в FullHD, но стоит включить dense terrain — улетает за 10