Почему с оптимизацией современных игр всё настолько плохо
Последний год у меня вызывает ощущения, словно развитие инженерно-технической мысли откатилось в конец 90-х… начало 00-х. Вот прямо туда, где 12 FPS уже считались играбельными на постсоветском пространстве, видеокарту надо было обновлять раз в год и, желательно, на хотя бы предтоповую версию, и даже тогда у вас будут рваные 20-30 кадров в новинках.
Собственно, сегодня я с мобильной RTX 3070 — мягко говоря, не самой слабой видеокартой на рынке и по сей день, в разрешении 2K вижу от 12-16 до, в лучшем случае, 25-30 кадров в новинках на средне-высоких настройках. Что, мягко говоря, вызывает вопросы. В основном, из разряда «кто виноват».
Неужели прогресс остановился? Неужели мы зашли в тупик и больше не можем выжимать больше производительности из железа? Предлагаю разбораться, кто же довел нас до такой жизни такой.
Unreal Engine 5 — главный корень зла
Unreal Engine 5 — главный виновник происходящего. За год с даты его релиза не вышло ни одной игры, которая бы не ставила любую систему, кроме шестнадцатиядерного монстра при RTX 4090, в разные позы зодиака…
И если первые раз пять можно было сказать, что это разработчики с движком работать не умеют, то десятое наступание на грабли подряд уже показывает закономерность: UE5 — днище. Именно поэтому я в рецензиях (как на этом сайте, так и вне его), если игра сделана на этом движке, срезаю один балл из пяти сразу и безапелляционно, безотносительно вообще всего остального, что есть в игре. А то и полтора, если на убогость движка накладывается криворукость разработчиков.
Создаётся впечатление, что в Epic Games взяли курс не на оптимизацию, а на «громкие фичи» вроде люменов, нанитов и ультра-качественных сканов реальных объектов. Все это, безусловно, выглядит потрясающе. Но производительность при этом ни разу не являлась приоритетом. И так хочется, знаете ли, спросить: какой смысл во всех этих технологиях, если игра превращается в слайд-шоу?
DLSS и FSR, слуги его
Следующий виновник проблем с оптимизацией 2020-х годов — технологии апскейлинга. Я искренне презираю DLSS и FSR — и у меня есть на то две веские причины:
- Во-первых, это заметные даже невооруженным глазом артефакты. Пиксельная муть, размытость по краям, огрехи при быстром движении — все эти недостатки DLSS и FSR видны невооруженным взглядом.
- Во-вторых, они вносят существенный инпутлаг, причём если речь идёт ещё и о генерации промежуточных кадров с помощью нейросетей (а я уже успел потрогать эту технологию на 40-й серии), то этот вопрос из «проблемного» првращается в просто-напросто неприемлемый: персонажи начинают плавать, как в резине.
Но это было бы не так страшно. В конце концов, кнопку «Выкл.» у меня никто не отбирал. Гораздо хуже то, что разработчики восприняли появление DLSS и FSR как индульгенцию, полностью снимающую ответственность за оптимизацию. Когда эти технологии только презентовали, нам обещали, что с ними производительность станет выше для тех, кто будет готов мириться с недостатками. А на деле получилось, что без них FPS ниже, чем был на видеокартах того же ценового сегмента раньше.
В общем, технологии наподобие DLSS создают лишь иллюзию решения проблемы плохой оптимизации. На деле же они лишь ухудшают графику и добавляют задержки. Ленивым разработчикам просто подсунули универсальную «отмазку» — мол, включите DLSS/FSR и наслаждайтесь… 20-30 кадрами, ага. С артефактами и задержкой ввода. Спасибо, блин, большое!
Криворукие разработчики, миньоны его
Наконец, многие разработчики способны сделать из плохого — худшее. И если совместить убогость движка с криворукостью разработчиков, то можно достичь вообще удивительных результатов, вплоть до достижения однозначных цифр в счетчике кадров!
Прецеденты уже были, самый отличившийся — русофобский игропродукт The Thaumaturge, на который у меня был отдельный обзор. Именно там я впервые увидел «волшебные» 12 кадров, и имел что по этому поводу сказать.
Причина такой некомпетентности кроется, по-видимому, в общей тенденции смотреть на разработку игр, как на DIY. Графон, физика, масштабы — есть движки вроде Unreal, которые всё это реализуют и магазины ассетов и кода с готовыми техническими решениями, которые достаточно «слепить» вместе и кое-как замазать швы. Зачем париться с оптимизацией своего кода, если есть «коробки» с готовыми решениями?
Увы, такой подход не работает. Движок, покупные ассеты и готовый код — это лишь основа, фундамент для дальнейшей стройки. И если возводить на нем здание наспех, без должных архитектурных расчетов и продуманной конструкции, то результат будет плачевным. В смысле, ещё более плачевным.
Игроки — плебс, взрастающий зло
Рыба гниёт, конечно, с головы. Но пока игроки готовы жрать «игросодержащий продукт с элементами слайд-шоу» на Unreal Engine 5 и комментировать «но зато какой геймплей, какой сюжет, и плевать, что 15 кадров», отдавая свои деньги — разработчики будут продолжать давать нам игросодержащий продукт на этом, с позволения сказать, «движке».
Складывается парадоксальная ситуация.
- Epic Games не стремится улучшить производительность своего детища.
- Разработчики игр берут что дали, лишь бы побыстрее выкатить свой продукт, не особо вдаваясь в тонкости оптимизации.
- А игроки проглатывают все это, закрывая глаза на технические недостатки ради «крутого» геймплея и сюжета.
И в этой ситуации никто не будет ни переходить на другие движки вроде Unity (а ведь десять лет назад я бы в жизни не назвал Unity хорошо оптимизированным движком — что называется, «смотря с чем сравнивать»), ни оказывать давление на Epic Games, ни, на худой конец, оставаться на UE4 с более-менее приличной производительностью.
Получается замкнутый круг, где каждый участник процесса ищет виноватых, но сам не хочет ничего менять.
Заключение: пора апгрейда?
Кто бы ни был виноват — ясно одно: дымящуюся кучу навоза под названием Unreal Engine 5 с рынка никто не уберёт, а новые технологии лишь сделают хуже в плане производительности. По крайней мере, в ближайшем будущем.
Так что… К сожалению, мне пора копить на новый ноутбук. Теперь — с RTX 4080, а лучше 4090, чтобы был хоть какой-то запас производительности на будущее. Пусть даже от текущих цен на новейшие видеокарты хочется застрелиться напильником.
Но выбора, похоже, не остаётся. Либо мириться с подтормаживаниями и общим ощущением «возврата в нулевые», когда каждая новая игра ставила все старые карты колом, либо переплачивать за ТОП-решение, которое сможет (хотя бы временно) выдержать напор следующей волны игр-расточителей. И хотя бы намёка на светлое будущее я тут… Не вижу. Совсем.
Источник: www.flickr.com





56 комментариев
Добавить комментарий
«Но выбора, похоже, не остаётся. Либо мириться с подтормаживаниями и общим ощущением «возврата в нулевые», когда каждая новая игра ставила все старые карты колом, либо переплачивать за ТОП-решение». Выбор есть: надо просто не покупать игры с ужасной оптимизацией. 99% игр от ААА издателей — не шедевры десятилетия, в которых обязательно играть в первые секунды релиза. Ничего страшного не будет, если вы подождёте, пока игру доведут до адекватного состояния (к этому времени игра станет лучше и в геймплейном плане благодаря балансным правкам, дополнениям и т.д.).
Перечитал два раза. Так и не понял как связана плохая оптимизация и ue5. В данный момент очень мало игр вышло на ue5. Это darker and darker, fortnite, Palworld, Remnant II, Lords of the Fallen, RoboCop: Rogue City
Все остальное все еще в разработке. На четвертой версии движка намного больше игр. Но опять же, там где были проблемы с тормозами и статтерами была проблема компиляции шейдеров. И те разработчики которые не умели решать это проблему — либо забивали на нее, либо все же решали спустя кучу жалоб. Так Callisto Protocol ввел компиляцию, перед стартом самой игры. А вот разработчики System Shock Remake проделали гигантскую работу по оптимизации сразу до релиза.
В общем примеров навалом.
Если мы говорим о dlss и fsr, не знаю как у автора но у меня лично инпут лага нет. Гостинг да. В старых версиях этих технологий он действительно есть. И я лично наблюдал как он менялся. От жутчайших черных теней в первых версиях и размытия, до современной версии где он не заметен. Но опять же. Если вам нужен длсс или фср это значит что вы что то делаете не так.
На юнити никто не будет переходить, потому что политику выплат и комиссий они так и не исправили. Никто не знает сколько новые версии Unity затребуют денег. Godot физически плохо вывозит 3д. Cryengine давно мертв. Его заменили на Lamberyard новую версию, которой теперь владеет Amazon. Больше альтернатив не существует физически. У индюков нет денег, что бы хотя бы просто платить комиссию, у средних компаний нет денег на разработку собственных движков. Что остается? Два стула — Unity или Unreal. Как я выше написал, учитывая непонятную до сих пор ситуацию с политикой монетизации Unity — остается только UE.
В заключении стоит написать что автор явно не разбирается в технологиях, не следит за железом, не следит за развитием движков. Как пример можно привести огромные проблемы с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов, явно не знает что 5.3 версия UE давно исправила все проблемы шейдеров, что ноутбучные(мобильные) чипы всегда слабее десктопных версий. Я не оправдываю движки. Но любой движок это инструмент. Если разработчик не в состоянии писать код — дай ему любой движок и проблемы будут те же. Точно так же и с пользователем и его пк. Апгрейдиться сейчас вообще не нужно, если только вы не адепт 120ггц + 2-4к и что б обязательно все на ультрах было.
Более чем достаточно. В дополнение к перечисленным вами — The Finals, The Thaumaturge, «Смута», Winter Survival, плюс мы уже видели бету Frostpunk 2. Это если не считать инди-проекты.
И все они, за вычетом Fortnite и The Finals с их простой до примитивности графикой (и то, там за 100 кадров должно бы быть при такой графике уровня TF2, а не 40-60 как в Finals), в той или иной степени тормозили. Какие-то меньше, как Смута или Робокоп, какие-то больше, как Тауматург… Но 30 рваных кадров — абсолютный, блин, рекорд, если не резать настройки до визуальной каши. Что, повторюсь, заставляет заключить: дело не в руках (ибо это всё проекты от разных студий), а в движке.
> Как пример можно привести огромные проблемы с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов, явно не знает что 5.3 версия UE давно исправила все проблемы шейдеров, что ноутбучные(мобильные) чипы всегда слабее десктопных версий
Спасибо, я в курсе. Но позвольте три вопроса:
1) Как хардварные проблемы «с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов» относятся к софтверным тормозам?
2) Вы заметили, что моя главная претензия — не к пролагам из-за шейдеров (с этим я готов мириться, и многие игры с этой проблемой проходил, не обращая внимания на полусекундные фризы), а к стабильно (!) удручающе низкому фреймрейту? Я предпочту пролаги от шейдеров просадкам до 12- кадров и среднему 16-30 в 10 случаях из 10.
3) Допустим, мобильная 3070 аналогична десктопной 3060. Но это, как бы, тоже далеко не самый слабый видеочип в мире, а я играю не в 4К. Как бы поколение назад человек мог купить 1066 на релизе и 5-7 лет в ус не дуть. Разницу видите?
Перечисленные версии используют не боевую версию движка а переходную. Разница между переходной и боевой существенна. Например вы начинаете разработку на preview версии. То есть сырой версии, бета версии если хотите. И потом по мере обновлении движка вы мигрируете проект на более новую версию. Finals разрабатывался на ue4 и перешел на 5.0 с релизом превью версии. Thaumaturge на 5.0 preview, Смута — 5.1 патч движка. Winter survival — тут не знаю. Frostpunk — могу предположить что обновят до 5.3 с релизом. Все это можно легко найти просто посмотрев свойства экзешника при установленном движке.
Другими словами. Есть переходная не стабильная версия — и есть стабильная боевая. На боевых версиях проблем нет. Я не отрицаю что в предыдущих версиях были проблемы со статтерами. Но эти проблемы решались выносом компиляции шейдеров до начала игры. На что очень большое кол-во разработчиков положило болт.
То есть по вашему, если вы молотком себе по пальцу случайно заденете когда будете гвоздь забивать — это будет молоток виноват? Согласитесь бред же.
Очень просто. Вот вам пример. Высокий вольтаж при высокой нагрузке — вызывает сбой всей системы. При этом никто не разгоняет процессоры. Это просто изначально кривая архитектура, которая уводит в бсод всю систему под нагрузкой. А компиляция тех же шейдеров = высокая нагрузка на CPU так как работает по принципу swarm. То есть задействование всех ядер сразу для быстрейшей обработки и переархивации.
Ссылка: https://www.digitaltrends.com/computing/intel-13th-14th-gen-cpus-stability-issues/
Цитируя специалистов из статьи: “As far as we can tell, there is not any software bug in Oodle or Unreal that is causing this. Due to what seem to be overly optimistic BIOS settings, some small percentage of processors go out of their functional range of clock rate and power draw under high load, and execute instructions incorrectly,”
Из вашей статьи не заметил. Но тогда давайте логически пойдем. Какие у вас настройки, какое железо? Это ведь играет большую роль. Я например не обладаю в данный момент какой то мощной системой и сижу на 1080p со своей 2060s. И знаете, как то нет проблем. Играю во всех новинки либо на средне-высоких, либо высоких если игра не особо требовательна. В своих стабильных 60ггц и 60 кадрах. Можно возразить мол но на 2к же нет стабильных 60fps. Конечно нет. Ведь чем выше разрешение — тем больше нагрузка на слои GPU. Соответственно имея 120ггц монитор без сопроцессора и нормальной выгрузкой в слои, вы получите не только 12 кадров а то и вообще краш движка-игры-системы.
1066 это разгонная версия 1060. Что касается чипов 1000 cерии от нвидиа, тут вот в чем дело. Это был максимально мощный чип. Даже сейчас многие сидят на 1600 серии и в ус не дуют. Архитектура та же, просто чуть разоганные.
Что изменилось по сравнению с 2000 серии и 3000 и 4000. Все очень просто, изменилась распайка и архитектура в целом. 2000-3000-4000 серии имеют более мелкий нанометр и более плотную распайку. Что неизменно ведет к нестабильности.
Если же мы говорим про производительность, то я могу повторить самого куртку. (глава Nvidia) вся современная архитектура заточена под нейросети.
По этому если вы надеетесь на то, что кто то одумается, то нет. Даже я упертый фанат Nvidia не собираюсь покупать 5000 серию их карт для апгрейда. А смотрю в сторону красных. Если амд выпустит обновленную видюху в этом-следующем году, уйду к ним, потом что их техпроцесс сейчас банально стабильнее и менее плотен в отличии от Nvidia.
Что касается самой Nvidia то они не отказались от 16 пинового разьема в 5xxx серии. А это значит что там та же архитектура что и в 4000 только более плотная. А значит стабильность упала еще ниже. По этому если вы не программист нейросетей, не их пользователь — Nvidia в играх больше не будет показывать стабильности или мощностей. Их инвестиции в открытые модели уже это подтвердили. Майкрософт совместно с интелом тестируют свою линейку видюх Arc. Зачем? для того же самого = нейросети.
По этому если падет последний оплот — амд. То считайте больше стабильного железа для игр не будет, либо пока не пройдет шум вокруг нейросетей. ну либо пока не придумают новую технологию распайки и не изобретут нормальную стабильную архитектуру. Ну и последние 4 года показали, что мощности железа будут постоянно наращиваться для нейросетей. Да вот такая вот жестокая реальность.
Переходная — это когда вы выкатываете паблик бету с ограничением на только некоммерческое использование. Понимаю, раньше граница между релизным билдом и сырьём была четче и проходила по зоне «когда DVD ушел в серию», но и сейчас, ИМХО, если вы выпускаете что-то в паблик и разрешаете делать на этом коммерческий продукт (а не ловить баги и готовиться к переходу) — это и есть боевая версия. Но если они пытаются исправиться — честь им и хвала. Починят — посмотрим.
> Какие у вас настройки, какое железо? Это ведь играет большую роль.
Легион 16ACH6H, R7 5800H/16g/3070m, полный теплопакет (охлад недавно обслужен). Играть пытаюсь на средне-высоких без люменов, RTX и прочей техноереси, в 2К. Большинство игр на UE4/Unity работает на ультрах в 30+ стабильных кдров без дропов ниже 16, даже Тарков 30 кадров вывозит (кроме улиц).
> По этому если вы надеетесь на то, что кто то одумается, то нет
Я уже ни на что не надеюсь и коплю денег не апгрейд. Скорее всего, к концу лета-началу осени на 4090 брать буду. 320 тыр, конечно, жалко, но таков путь.
> Если амд выпустит обновленную видюху в этом-следующем году, уйду к ним, потом что их техпроцесс сейчас банально стабильнее и менее плотен в отличии от Nvidia.
Я бы и рад, но мне по второй работе нужен CUDA. Так что, увы, облом.
Слушай, не позорься. Сходи, хотя бы, на hwbot.org и просветись на тему, сколько народу весело и успешно гонит 12-13 и до каких результатов.
Как и всегда, смотря во что играть. Никаких чудес долголетия 1066 не показала, если стремиться к высоким настройкам в новых ААА. В нетребовательные игры и во всякий онлайн — пожалуйста. Но уже спустя три года в каком нибудь RDR2 на высоких 30-40 фпс. Нынче примерно столько же фпс дают 6600 и 3060 в Alan Wake 2.
$250 за 1060 в 2016 году — это $325 сейчас.
Godot 3D плохо вывозит, говоришь? Ну-ну, расскажи это инди-разрабам, которые на нем уже кучу проектов запилили. Видимо, Amazon тоже ничего не понимает в движках, раз Lamberyard юзает.
А про 4090 и 16-pin коннекторы это вообще топ. Да, проблемы были, но их решили, и карта сейчас работает как часы. Так что, может, не стоит судить по первым неделям после релиза?
И да, мобильные чипы всегда слабее десктопных, спасибо, Кэп. Только вот речь шла о том, что даже на 3070 (не самой слабой, как бы) игры лагают.
В общем, много слов, мало дела. С оптимизацией сейчас беда, и никакие твои рассуждения об инструментах и умении писать код этого не меняют.
Могу предположить, что в вашем случае виноват Хуанг, который в, мягко говоря, не самую слабую видеокарту на рынке и по сей день положил всего 8гб видеопамяти, когда даже для более слабых карт вроде RX 7600 и 4060, которые для 1080р, 8гб считаются впритык и систематически за эти 8гб критикуются. А в 2К 8гб — да, мало, и можно ловить статтеры в новых требовательных играх. Не потому что разработчики злодеи, а потому что размеры текстур растут, а 8гб в мидле появились ещё в далёком 2016-ом с выходом RX 470/480. Взяли 3070 с 8гб для 2К — выстрелили себе в ногу.
.
Hardware Unboxed даже в играх 2023-го даже в 1080р умудрялись ставить такие настройки, что 3070 уходила в статтеры до 5-10 фпс.
Таки стоит сделать поправку на то, что эти технологии вполне норм для старых карт, которые не тянут новьё. По логике, для этого апскейлеры и создавались изначально. Но всё испортили тупорылые фанаты Нвидии, для которых немного более качественно работающий DLSS стал одним из главных козырей в противостоянии Гефорс против Радеон и зелёные фанбои носились с этим мылом, как с писаной торбой, всем доказывая, что DLSS чуть ли не лучше оригинала и надо всегда его включать. Разработчики не могли этого не заметить и теперь в их игры без апскейлеров поиграть можно только на топовом железе.
Не могу не согласиться, но почему тогда кадры не становятся лучше, скажем, в VK облаке, где стоит железо самую чуть мощнее, с RX 6700 XT на 12 Гбайт, лаги не отступают? И почему в играх на UE4/Unity проблем нет, лишнее просто уходит в оперативку и ты имеешь ненамного меньший фреймрейт, чем мог бы?
> Таки стоит сделать поправку на то, что эти технологии вполне норм для старых карт, которые не тянут новьё. По логике, для этого апскейлеры и создавались изначально.
Допустим, возможно, в статье я и перегнул — но гос-с-паде, как же горит!
А в целом — спасибо за профессиональный комментарий.
10 лет назад имея топовую мобильную карту, в лучшем случае можно было поиграть на средних в актуальные релизы на fullhd.
Сейчас имея не топовую и уже не актуальную карту, вообще скорее удивительно, что можно играть в актуальные релизы в 2к с dlss и очень приличным уровнем графики.
Есть конечно примеры типо remnant 2 где реально всё очень плохо, но в основном наоборот — получается оптимизация стала даже лучше.
И что-то мне подсказывает, что на момент релиза относительно своих коллег 6650M послабее была, чем мобильная 3070 сегодня.
… Какие топовые решения?? Да в 90 и 00 годах за каждый бит бились, оптимизировали все, что можно и нельзя… Видеокарта HD 6790 тянет на средних ворлд оф танк на 40-60 фпс и нвидиа 730 танки тянет еле еле 35 фпс… О каких 6-12 фпс вообще идёт речь? Я по оглавлению думаю услышу хоть немного разбора и технической инфы, но тут просто статья не о чём…
А вообще, сходи поешь, попей, поспи. Может, прояснится в голове.
Осталось понять, как получить 120 кадров в КП 2077 на ультрах без них и без генератора кадров.
Неожиданно ))
И суть не в разрешении, а в количестве точек на дюйм. Т.е. с маленьким монитором FullHD графика чётче, чем на большом 2K или очень большом 4К. Маленький монитор можно просто придвинуть поближе и эффект будет тот же, как и от большого монитора издалека. В этом ракурсе возникает вопрос: ради чего люди вбухивают такие бабки в дорогие видяхи и мониторы, если можно серьёзно сэкономить, всего лишь немного включив голову?
Когда я перешел на 32" 2.5К я стал ловить 'ступняки' в играх — когда просто останавливаешься и смотришь с открытым ртом. Когда купил 42" 4К — это привело лишь к тому, что такие моменты стали происходить еще чаще. Но самое показательное, что это стало происходить и в старых по несколько раз пройденных играх. А это и является приговором для небольших мониторов с малым разрешением — значит они физически не способны обеспечить такое удовольствие от картинки.
Ну а по поводу расходов — все относительно. Если упростить — лично я предпочту играть в более старые игры в 4К, чем в новье в FHD. Ну и второе — сейчас, собрав комп, хорошо справляющийся с FHD, с помощью DLSS получим с небольшими потерями такую же играбельность и в 4К.
Интересно, молодые игроки, с какой-нибудь вполне достижимой 1060. Они играют в хиты прошлых лет? Даже некоторые 20-летние игры выглядят бодро, но обходят современные по гейплею. Я молчу про 10-летние. А ведь такие игры эта самая 1060 на ультрах потянет в 4К. У меня у самого есть пропущенные хиты прошлых лет, обязательно к ним постараюсь вернуться.
Я это к тому, что если так и дальше пойдет, что флагманы будут по 3К зелени стоить, а при этом игры массово будут допиливаться до нормального состояния по 2-3 года — так я лучше предпочту о них лет 5 вообще ничего не слышать. Думаю, в киберпанк на какой-нибудь 6060Ti вполне можно будет поиграть в 4К с лучами… Равно как и в весь этот тормозящий сейчас треш — о нем либо забудут, либо доведут хоть до состояния на троечку.
А киберпанк к почти 4 годам допиливания вообще отличился — с каждым годом он становился лишь тяжелее и тяжелее. Ну ладно, хоть видна разница, и pathtracing и в самом деле выглядит красиво.
А теперь лично мне остался один шаг — покупка 144Гц монитора. И будет 'все пропало') Вангую — 5090 не потянет четырехлетний киберпанк, выдавая стабильные овер 150фпс. Щас 4090 выдает на DLSS quality + frame generation 80 фпс. Кто-то реально думает, что 5090 будет в два раза быстрее? А сколько она стоить будет, когда она явно будет под запретом из-за производительности? Это за каким мне рожном карта за 3 штуки баксов, неспособная уже из коробки тянуть игры 4-х летней давности?
В общем, добро пожаловать в мир старых игр — пропатченных, дешевых и летающих на видеокарте средней руки)
PS: ПК мне только поиграть поэтому в железе не разбираюсь.
«Согласно нашим совокупным результатам тестов, RTX 3070 превосходит RTX 3070 Mobile на впечатляющие 56%.»
«RTX 3060 опережает RTX 3070 Mobile на умеренные 19% в нашем суммарном рейтинге производительности.»
UE5 отличный движок и его разработчики нацелены не только на игры, но и на кинематограф, где он отлично используется как для задников, так и для передников. Им теперь что, убивать свои технологии и прикручивать их красоту, чтобы какой-то васян с 3050 мог запускать новые игры на максимальных супер ультра настройках в 2-4K и тешить тем самым своё эго? Самому настройки прикрутить религия не позволяет или что? Почекай новости за май. Увидишь, что новую версию движка оптимизировали не менее чем на 40%. Москва не сразу строилась. К тому же FSR и другие апскейлеры отлично работают, по крайней мере их последние версии. К предыдущим было много вопросов, да и то как правило только если сидеть выискивать артефакты с лупой на zoom x4, а не в игру играть. То есть в статике. В динамике они вообще как правило незаметны. Один клоун тоже жаловался на FSR, пока я не подрубил его ему без палева, пока он курил, и о чудо, он ничего не заметил. Facepalm.
Frostpunk2 на 3060 нормально пошел только с framegen и dlss, это КАК вообще, где там графика-то. Ее там нету.
Мощность современных карт колоссальная!!! И если раньше как-то было подозрительно, графика на месте, а карты надо новые покупать,
То сейчас уже тренд такой, что нужно отдавать 100к за карту, что бы играть в игру с графоном хуже + DLSS + фреймген и инпут лаг. Потому что UE5.
Не надо приводить никакие сраные аргументы, это просто уже факт и что тут пишут защитники урины пятой всем пофигу в общем-то.
Просто есть закономерность, которую люди видят и ее не скрыть не какими аргументами.
UE5 — 95% что игра будет полной херотой с убитой производительностью, резиновыми врагами и непонятной точечно-сеточной текстурой мелких элементов. Это просто уже БАЗА, статистика.
Добавить комментарий