Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Разница в реализации: в отличии от dlss, fsr не выдумывает детали, а использует ту информацию, что есть в предыдущих кадрах — эта реализация похожа на темпоральное сглаживание, и использует четкий, давно известный и отлаженный, матаппарат, в результате получается более естественная картинка, и без артефактов, что и отмечают многие игроки: если fsr чего-то и не может вытянуть, она не пытается дорисовать мусор, она просто оставляет исходные детали, по которым уже глаз и мозг, используя уже наши, намного более мощные и совершенные нейросети и огромный жизненный опыт, могут более эффективно достроить недостающее, не отвлекаясь на то чтобы понять артефакт это или реальная деталь картинки.
И работает это не на избранных карточках, а практически везде, где есть поддержка более-менее современных шейдеров.
Разница и в подходах: dlss это хипстерская технология — по-быстрому прикрутить нейросеточку и надеяться на чудо, т.к. контролировать нейросети толком нельзя, они так или иначе выдают мусор, или артефакты, что и наблюдается. fsr — это матан, сложный в разработке, но дающий качественный и стабильный результат.
Из моих знакомых слабать нейросеточку может человек 20, по гайдам в сети — тут ничего сложного, результат будет быстрый, но плохой. А вот реализовать тоже самое матаном смогут от силы двое — подбирать корректное решение на матане сложно, и требует понимания всего используемого матаппарата, т.е. дорогого и качественного образования, чем мало кто может похвастаться.
Схожий матаппарат кстати используется учеными для повышения качества космических снимков — там важно не намусорить артефактами, и использовать исключительно данные из исходников. И в самых топовых камерофонах, таких как пиксели например — по ним в сети даже целый трактат есть, называется «вычислительная фотография», это такая фотография, которая полагается на оптические детали, а не на хипстерские лайфхаки типа «давайте прикрутим нейросеточку, и она будет распознавать луну и заменять ее на заранее приложенную картинку высокого разрешения».
avatar
конпелятор шейдеров, очевидно же
avatar
Технически так и есть: при векторной интерполяции генерируется не целый кадр, а разница — та группа пикселей, что в кадре движется. Малоподвижные группы пикселей остаются общим для кадров и отсекаются на этапе вычисления векторов смещения. Так что новый кадр состоит из старого, смешанного с помощью вычисленных векторов со смещенной группой подвижных пикселей.
Но детали не так и важны детали — суть таже: удвоение кадровой частоты.
И эффект хорош: даже более примитивные технологии интерполяции, без апскейла, без fsr, уже на 25к/с дают шикарный результат. Уже лет 10 пользуюсь ими: тот же svp и аналоги, для просмотра видео, фильмов, ютуба.
avatar
Вот, совершенно точно про кисельный. У них и дрова такие: я знатно прифигел, когда увидел, как простенький интерфейс дров шевелится с заметными задержкам, как будто пинг огромный, и это без каких-либо спецэффектов в интерфейсе и на современном топовом многоядернике с кучей памяти и самым быстрым nvme. Весь софт под пальцами летает, а дрова нвидии тормозят, лол. При этом дрова у амд гораздо круче выглядят, накручены спецэффекты в них, но самое главное, все переключается и нажимается мгновенно, что только добивает: что же там такого в нвидиа накрутили, что их драйвера с простым интерфейсом времен xp начали так тормозить.
avatar
На самом деле можно использовать два последних кадра, вычислить по ним вектора движения, и получить из них будущий промежуточный кадр, который и вставить после второго кадра. Тогда задержки практически не вносится, кроме времени на вычисление шейдера на текстуре размером с экран.
Но тут нужен небольшой кадровый буфер.
Сейчас огромный буфер часто уже встроен в конвеер — он используется для темпорального сглаживания, где происходят схожие процессы, но не для предсказания новых кадров, а для сглаживания старых.
avatar
Молодцы, что не стали выдумывать велосипед, а воспользовались своими старыми и проверенными технологиями.
Кто-нибудь помнит svp, уплавнялку для фильмов, генерирующую промежуточные кадры силами векторных видеокодеков?
У амд много лет в дровах работал аналог этой технологии, использовался в основном для смягчения и стабилизации видео, корректировал любые видеопотоки, которые проходили через карточку.
Теперь же обе эти технологии будут работать вместе.
На самом деле решение очевидное: оно использовалось для интерполяции за много лет до появления dlss, и хорошо себя зарекомендовало, на столько, что разошлось почти по всем современным телевизорам — смотреть 25к/с на современной 60-120гц панели без интерполяции просто больно.
Теперь тоже самое будет и с играми.
Про 60к/с говорят правильно: технология известна своими небольшими артефактами, т.к. она предсказывает движение групп пикселей на основе векторов их движения, но точно все предсказать нереально, поэтому высокая кадровая частота эффективно скроет эти артефакты.
К слову, принцип сжатия видеокодеков основан на том же вычислении векторов — очень заманчиво использовать аппаратные видеокодеки под задачу интерполяции, они уже присутствуют на всех карточках. Если у амд получится их задействовать, интерполяция ещё и будет практически бесплатной по вычислительным ресурсам, что вообще идеально. Ну а если не получится — придется пожертвовать долей процента ресурсов gpu на вычисление простенького полноэкранного шейдера.
Не очень понятно почему в нвидиа обошли стороной это очевидное, простое и дешевле, решение и устроили целый цирк с dlss. Но это корпоративные игры, вероятно тут ключевую роль сыграл маркетинг и/или лицензии/патенты. Нвидиа давно известна своими закрытыми технологиями, которые раз за разом умирают из-за закрытости, как тот же аппаратный physx.
avatar
Аналогично
Он по плотности как обычный моник — так и использую, на расстоянии вытянутой руки
В работе хорош, приноровился
А в играх и фильмах эффект погружения — экран больше чем можно взглядом охватить, картинка тебя обволакивает
Обычные мониторы теперь кажутся очень маленькими, как планшеты воспринимаются, а этот стал нормального размера
avatar
Кстати, у Гугла реально есть живые фото, технология так и называется. Живые фото — это как портреты из Гарри Поттера, короткие фрагменты видео, упакованные в фотографию. Что интересно, весят они столько же, как и обычная фотка. А вот воспроизводить их умеет наверное только галерея гуглфото. Работает это и на смартах Сяоми, если установить гуглокамеру и гуглогалерею.
avatar
Напрямую нет, но все зависит от прямоты рук разработчиков. Чем грамотнее разработчики, тем больше могут выжать, тем больше настроек и возможностей предлагают. Как например с лучами: в большинстве игр есть только on/off-переключатель, в некоторых есть еще крутилка качества low/middle/high, ну а например в киберпанке есть отдельные настройки качества лучей для общего и для локального освещения, для теней, для солнца, для отражений — можно гораздо более гибко и эффективно настроить под свои желания и возможности.
Так что зависит от игры.
Но в некоторых играх есть подстройка под желаемый фреймрейт, одни игры динамически снижают настройки качества, стараясь поддерживать требуемую частоту кадров, другие снижают разрешение кадра, третьи умеют в гибридный режим, рулят и качеством и разрешением. Вот с помощью этого механизма можно регулировать фпс, а апскейлер просто улучшит результат.
avatar
Т.е. fsr не зависит ни от чего и одинаково хорошо работает для любой игры, а dlss зависит от nvidia, и хорошо работает только для тех игр и для тех сцен, для которых nvidia потрудились вычислить дельта-матрицы. Ну такое себе, как по мне.
avatar
FSR не требует поддержки со стороны игры — в драйвере его можно активировать для любой игры. Разница только в настройках и функционале: если оно интегрировано в игру, то и настраивается оно из игры, и апскейлит только картинку, интерфейс же в нативном разрешении идёт, с максимальным качеством, а если оно включено через драйвер, то и настраивается оно через драйвер, и апскейлит полный кадр, вместе с интерфейсом, что естественно даёт немного худший результат, чем если бы интерфейс был сразу в нативе, грубо говоря немного портит шрифты интерфейса из-за того что апскейлится полный кадр, вместе со всеми надписями.
А так поддержка игры не требуется.
avatar
Кстати куда они его дели на 6000-7000 сериях? Из дров как будто вырезали. Годная штука была, часто пользовался, годами, даже на ютубах работало. Теперь приходится potplayer насиловать.
Может сейчас хотят уплавнялку с fsr скрестить — было бы супер, и вполне органично: обе технологии у них давно есть и хорошо обьезжены.
avatar
Так кстати астроснимки апскейлят, и передовые камеры шумы убирают, стекинг называется: берут несколько кадров и складывают их, и т.к. кадры немного друг от друга смещены, то в субпикселях у них получается закодирована отличающаяся инфа из-за смещения пиксельной решетки, так и получается кратное увеличение итогового разрешения при низком разрешении исходников.
И чем больше кадров складывается, тем больше инфы можно вытащить, но и тем выше задержки.
В астрономии складывают сотни кадров и из мыльного пятна получают хайрезы.
В мобильной фотографии камеры складывают десятки кадров, эффективно гася шумы.
Ну а в играх ситуация похуже, в ход идут всего от 2 до 16 кадров. Но все равно результат неплох.
avatar
Да нет, fsr2 сильно отличается от шарпа. 1080p растянутые до 2160p на глаз практически не отличаются, если не знать про апскейлер, т.е. вполне комфортно играется. Но если знать, где искать, то разницу видно. В частности это видно на шрифтах — они становятся мультяшные, не идеально ровные. А также разница видна в динамике: при удалении от объекта, с апскейлером мелкие детали размываются гораздо ближе, чем без него, появляется эффект близорукости, когда четко видишь только до определённого расстояния, но это и понятно, т.к. разрешение и так низкое, при удалении от объекта апскейлеру просто перестает хватать информации для дорисовки, э. Последний эффект частично должен компенсироваться настройками игры: если игра про апскейлер не знает, она рубит детали ближе к экрану, т.к. ориентируется на разрешение рендеринга когда вычисляет границы зон понижения детализации и отсечения, эти границы можно отодвинуть настройками, или же их должен отодвигать fsr, если он интегрирован в игру, а не навешен на нее сверху (fsr легко активировать и для игр, в которые он даже не интегрирован, например в старых играх).
Верно и обратное: если игра не умеет в 2160p, то при активации апскейлера мы получаем не только гораздо более приятную картинку, но и как побочный эффект, текстуру становятся чётче, и что интересно, некоторые нечитаемые в оригинале надписи, замыленные прямо в текстурках, становятся читаемыми, вот это прям вообще неожиданный бонус.
avatar
Зато это слово хорошо продается, а в детали мало кто будет погружаться
avatar
У амд она была в дровах, работала на rx500-серии, возможно и на 6000 тоже было, на 7000 уже выпилили зачем-то. Может пилят комбо: уплавнялку + апскейлер. Сам апскейлер в 7000 серии добавили для всех 3d-приложкний, даже если сами приложения не умеют с ним работать — это конечно круто.
avatar
Именно так
7950x превзошел все ожидания по производительности, в работе он ощущается как некое волшебство: невероятная мощность, заключенная в крохотном камне
7950x 3d только улучшает этот результат
avatar
Так это ничем не отличается от прошлого поколения: у исходных чипов и так чиплеты разные — один быстрый и горячий, другой помедленнее но энергоэффективный. Неоднократно это в разных обзорах подчёркивалось. Разный кремний: один с низким барьером, другой подороже, с высоким. Без разъяснения этой особенности даже и в голову такое прийти не могло бы, что чиплеты могут отличаться хоть чем-то.
Как нетрудно догадаться, задачи между чиплетами тоже не случайно распределяются, иначе нет смысла от этих приседаний с разнородными чиплетами.
avatar
Это каким образом? На текущем уровне развития на месте до таких скоростей снаряд не разогнать. Рельсотрон туда незаметно не протащишь, огромная махина а крохотная кумулятивная воронка оставляет характерные следы, пропустить их сложно.
Попасть же горошиной на противовитке в корабль — это что-то из области фантастики. Единственная реальная возможность — накрыть вероятную область станции целым облаком дроби, в надежде что хоть один шарик да зацепит корабль, вот только станцию тогда вообще побьёт — она гораздо больше.
То что повреждено два корабля — невероятное везение. Именно его невероятность заставляет поискать еще, вдруг дело не только а везении. Например может быть так, что там много мусора, он регулярно бьёт по станции, и этого никто не замечает из-за противометеоритного экрана, а у корабля просто нашлось слабое незащищённое место, которое и проявляет прохождение облака такого мусора.
avatar
Больше интересно на сколько киловатт будет этот проц