Почему с оптимизацией современных игр всё настолько плохо

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Мнение | Игры

Последний год у меня вызывает ощущения, словно развитие инженерно-технической мысли откатилось в конец 90-х… начало 00-х. Вот прямо туда, где 12 FPS уже считались играбельными на постсоветском пространстве, видеокарту надо было обновлять раз в год и, желательно, на хотя бы предтоповую версию, и даже тогда у вас будут рваные 20-30 кадров в новинках.

Собственно, сегодня я с мобильной RTX 3070 — мягко говоря, не самой слабой видеокартой на рынке и по сей день, в разрешении 2K вижу от 12-16 до, в лучшем случае, 25-30 кадров в новинках на средне-высоких настройках. Что, мягко говоря, вызывает вопросы. В основном, из разряда «кто виноват».

Неужели прогресс остановился? Неужели мы зашли в тупик и больше не можем выжимать больше производительности из железа? Предлагаю разбораться, кто же довел нас до такой жизни такой.

Unreal Engine 5 — главный корень зла

Unreal Engine 5 — главный виновник происходящего. За год с даты его релиза не вышло ни одной игры, которая бы не ставила любую систему, кроме шестнадцатиядерного монстра при RTX 4090, в разные позы зодиака…

Автор: Epic Games, Isatar6790 (CC BY-SA 4.0 Deed) Источник: commons.wikimedia.org

И если первые раз пять можно было сказать, что это разработчики с движком работать не умеют, то десятое наступание на грабли подряд уже показывает закономерность: UE5 — днище. Именно поэтому я в рецензиях (как на этом сайте, так и вне его), если игра сделана на этом движке, срезаю один балл из пяти сразу и безапелляционно, безотносительно вообще всего остального, что есть в игре. А то и полтора, если на убогость движка накладывается криворукость разработчиков.

Создаётся впечатление, что в Epic Games взяли курс не на оптимизацию, а на «громкие фичи» вроде люменов, нанитов и ультра-качественных сканов реальных объектов. Все это, безусловно, выглядит потрясающе. Но производительность при этом ни разу не являлась приоритетом. И так хочется, знаете ли, спросить: какой смысл во всех этих технологиях, если игра превращается в слайд-шоу?

DLSS и FSR, слуги его

Следующий виновник проблем с оптимизацией 2020-х годов — технологии апскейлинга. Я искренне презираю DLSS и FSR — и у меня есть на то две веские причины:

  • Во-первых, это заметные даже невооруженным глазом артефакты. Пиксельная муть, размытость по краям, огрехи при быстром движении — все эти недостатки DLSS и FSR видны невооруженным взглядом.
  • Во-вторых, они вносят существенный инпутлаг, причём если речь идёт ещё и о генерации промежуточных кадров с помощью нейросетей (а я уже успел потрогать эту технологию на 40-й серии), то этот вопрос из «проблемного» првращается в просто-напросто неприемлемый: персонажи начинают плавать, как в резине.

Но это было бы не так страшно. В конце концов, кнопку «Выкл.» у меня никто не отбирал. Гораздо хуже то, что разработчики восприняли появление DLSS и FSR как индульгенцию, полностью снимающую ответственность за оптимизацию. Когда эти технологии только презентовали, нам обещали, что с ними производительность станет выше для тех, кто будет готов мириться с недостатками. А на деле получилось, что без них FPS ниже, чем был на видеокартах того же ценового сегмента раньше.

В общем, технологии наподобие DLSS создают лишь иллюзию решения проблемы плохой оптимизации. На деле же они лишь ухудшают графику и добавляют задержки. Ленивым разработчикам просто подсунули универсальную «отмазку» — мол, включите DLSS/FSR и наслаждайтесь… 20-30 кадрами, ага. С артефактами и задержкой ввода. Спасибо, блин, большое!

Криворукие разработчики, миньоны его

Наконец, многие разработчики способны сделать из плохого — худшее. И если совместить убогость движка с криворукостью разработчиков, то можно достичь вообще удивительных результатов, вплоть до достижения однозначных цифр в счетчике кадров!

Прецеденты уже были, самый отличившийся — русофобский игропродукт The Thaumaturge, на который у меня был отдельный обзор. Именно там я впервые увидел «волшебные» 12 кадров, и имел что по этому поводу сказать.

Автор: Fool's Theory

Причина такой некомпетентности кроется, по-видимому, в общей тенденции смотреть на разработку игр, как на DIY. Графон, физика, масштабы — есть движки вроде Unreal, которые всё это реализуют и магазины ассетов и кода с готовыми техническими решениями, которые достаточно «слепить» вместе и кое-как замазать швы. Зачем париться с оптимизацией своего кода, если есть «коробки» с готовыми решениями?

Увы, такой подход не работает. Движок, покупные ассеты и готовый код — это лишь основа, фундамент для дальнейшей стройки. И если возводить на нем здание наспех, без должных архитектурных расчетов и продуманной конструкции, то результат будет плачевным. В смысле, ещё более плачевным.

Игроки — плебс, взрастающий зло

Рыба гниёт, конечно, с головы. Но пока игроки готовы жрать «игросодержащий продукт с элементами слайд-шоу» на Unreal Engine 5 и комментировать «но зато какой геймплей, какой сюжет, и плевать, что 15 кадров», отдавая свои деньги — разработчики будут продолжать давать нам игросодержащий продукт на этом, с позволения сказать, «движке».

Автор: Official GDC (CC BY 2.0 Deed) Источник: www.flickr.com

Складывается парадоксальная ситуация.

  1. Epic Games не стремится улучшить производительность своего детища.
  2. Разработчики игр берут что дали, лишь бы побыстрее выкатить свой продукт, не особо вдаваясь в тонкости оптимизации.
  3. А игроки проглатывают все это, закрывая глаза на технические недостатки ради «крутого» геймплея и сюжета.

И в этой ситуации никто не будет ни переходить на другие движки вроде Unity (а ведь десять лет назад я бы в жизни не назвал Unity хорошо оптимизированным движком — что называется, «смотря с чем сравнивать»), ни оказывать давление на Epic Games, ни, на худой конец, оставаться на UE4 с более-менее приличной производительностью.

Получается замкнутый круг, где каждый участник процесса ищет виноватых, но сам не хочет ничего менять.

Заключение: пора апгрейда?

Кто бы ни был виноват — ясно одно: дымящуюся кучу навоза под названием Unreal Engine 5 с рынка никто не уберёт, а новые технологии лишь сделают хуже в плане производительности. По крайней мере, в ближайшем будущем.

Так что… К сожалению, мне пора копить на новый ноутбук. Теперь — с RTX 4080, а лучше 4090, чтобы был хоть какой-то запас производительности на будущее. Пусть даже от текущих цен на новейшие видеокарты хочется застрелиться напильником.

Но выбора, похоже, не остаётся. Либо мириться с подтормаживаниями и общим ощущением «возврата в нулевые», когда каждая новая игра ставила все старые карты колом, либо переплачивать за ТОП-решение, которое сможет (хотя бы временно) выдержать напор следующей волны игр-расточителей. И хотя бы намёка на светлое будущее я тут… Не вижу. Совсем.

Изображение в превью:
Автор: Official GDC (CC BY 2.0 Deed)
Источник: www.flickr.com
PCPS5Xbox Series XДругой
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Наношу добро, причиняю пользу, благодарен за лайки и содержательные (дополняющие статьи) комментарии.

56 комментариев

1
Я согласен, что игроки тоже виноваты: если бы они перестали покупать сырые игры, то издатели были бы вынуждены заботиться о качестве игр на релизе.
«Но выбора, похоже, не остаётся. Либо мириться с подтормаживаниями и общим ощущением «возврата в нулевые», когда каждая новая игра ставила все старые карты колом, либо переплачивать за ТОП-решение». Выбор есть: надо просто не покупать игры с ужасной оптимизацией. 99% игр от ААА издателей — не шедевры десятилетия, в которых обязательно играть в первые секунды релиза. Ничего страшного не будет, если вы подождёте, пока игру доведут до адекватного состояния (к этому времени игра станет лучше и в геймплейном плане благодаря балансным правкам, дополнениям и т.д.).
LeVK
Ждать можно или до посинения, или до апгрейда, вот в чем проблема. Потому что патчами могут поправить баги, но, увы, не движок…
Gridon
ага, щас. не буду покупать игры вообще, буду сидеть ждать пока шедевры доведут до ума. а жить на что, фотоны жрать?
T
Unreal Engine 5 — главный корень зла

Перечитал два раза. Так и не понял как связана плохая оптимизация и ue5. В данный момент очень мало игр вышло на ue5. Это darker and darker, fortnite, Palworld, Remnant II, Lords of the Fallen, RoboCop: Rogue City
Все остальное все еще в разработке. На четвертой версии движка намного больше игр. Но опять же, там где были проблемы с тормозами и статтерами была проблема компиляции шейдеров. И те разработчики которые не умели решать это проблему — либо забивали на нее, либо все же решали спустя кучу жалоб. Так Callisto Protocol ввел компиляцию, перед стартом самой игры. А вот разработчики System Shock Remake проделали гигантскую работу по оптимизации сразу до релиза.
В общем примеров навалом.
они вносят существенный инпутлаг

Если мы говорим о dlss и fsr, не знаю как у автора но у меня лично инпут лага нет. Гостинг да. В старых версиях этих технологий он действительно есть. И я лично наблюдал как он менялся. От жутчайших черных теней в первых версиях и размытия, до современной версии где он не заметен. Но опять же. Если вам нужен длсс или фср это значит что вы что то делаете не так.
на другие движки вроде Unity

На юнити никто не будет переходить, потому что политику выплат и комиссий они так и не исправили. Никто не знает сколько новые версии Unity затребуют денег. Godot физически плохо вывозит 3д. Cryengine давно мертв. Его заменили на Lamberyard новую версию, которой теперь владеет Amazon. Больше альтернатив не существует физически. У индюков нет денег, что бы хотя бы просто платить комиссию, у средних компаний нет денег на разработку собственных движков. Что остается? Два стула — Unity или Unreal. Как я выше написал, учитывая непонятную до сих пор ситуацию с политикой монетизации Unity — остается только UE.
Заключение: пора апгрейда?

В заключении стоит написать что автор явно не разбирается в технологиях, не следит за железом, не следит за развитием движков. Как пример можно привести огромные проблемы с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов, явно не знает что 5.3 версия UE давно исправила все проблемы шейдеров, что ноутбучные(мобильные) чипы всегда слабее десктопных версий. Я не оправдываю движки. Но любой движок это инструмент. Если разработчик не в состоянии писать код — дай ему любой движок и проблемы будут те же. Точно так же и с пользователем и его пк. Апгрейдиться сейчас вообще не нужно, если только вы не адепт 120ггц + 2-4к и что б обязательно все на ультрах было.
LeVK
> В данный момент очень мало игр вышло на ue5.
Более чем достаточно. В дополнение к перечисленным вами — The Finals, The Thaumaturge, «Смута», Winter Survival, плюс мы уже видели бету Frostpunk 2. Это если не считать инди-проекты.
И все они, за вычетом Fortnite и The Finals с их простой до примитивности графикой (и то, там за 100 кадров должно бы быть при такой графике уровня TF2, а не 40-60 как в Finals), в той или иной степени тормозили. Какие-то меньше, как Смута или Робокоп, какие-то больше, как Тауматург… Но 30 рваных кадров — абсолютный, блин, рекорд, если не резать настройки до визуальной каши. Что, повторюсь, заставляет заключить: дело не в руках (ибо это всё проекты от разных студий), а в движке.
> Как пример можно привести огромные проблемы с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов, явно не знает что 5.3 версия UE давно исправила все проблемы шейдеров, что ноутбучные(мобильные) чипы всегда слабее десктопных версий
Спасибо, я в курсе. Но позвольте три вопроса:
1) Как хардварные проблемы «с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов» относятся к софтверным тормозам?
2) Вы заметили, что моя главная претензия — не к пролагам из-за шейдеров (с этим я готов мириться, и многие игры с этой проблемой проходил, не обращая внимания на полусекундные фризы), а к стабильно (!) удручающе низкому фреймрейту? Я предпочту пролаги от шейдеров просадкам до 12- кадров и среднему 16-30 в 10 случаях из 10.
3) Допустим, мобильная 3070 аналогична десктопной 3060. Но это, как бы, тоже далеко не самый слабый видеочип в мире, а я играю не в 4К. Как бы поколение назад человек мог купить 1066 на релизе и 5-7 лет в ус не дуть. Разницу видите?
T
The Finals, The Thaumaturge, «Смута», Winter Survival, плюс мы уже видели бету Frostpunk 2

Перечисленные версии используют не боевую версию движка а переходную. Разница между переходной и боевой существенна. Например вы начинаете разработку на preview версии. То есть сырой версии, бета версии если хотите. И потом по мере обновлении движка вы мигрируете проект на более новую версию. Finals разрабатывался на ue4 и перешел на 5.0 с релизом превью версии. Thaumaturge на 5.0 preview, Смута — 5.1 патч движка. Winter survival — тут не знаю. Frostpunk — могу предположить что обновят до 5.3 с релизом. Все это можно легко найти просто посмотрев свойства экзешника при установленном движке.
Другими словами. Есть переходная не стабильная версия — и есть стабильная боевая. На боевых версиях проблем нет. Я не отрицаю что в предыдущих версиях были проблемы со статтерами. Но эти проблемы решались выносом компиляции шейдеров до начала игры. На что очень большое кол-во разработчиков положило болт.
Но 30 рваных кадров — абсолютный, блин, рекорд, если не резать настройки до визуальной каши. Что, повторюсь, заставляет заключить: дело не в руках (ибо это всё проекты от разных студий), а в движке.

То есть по вашему, если вы молотком себе по пальцу случайно заденете когда будете гвоздь забивать — это будет молоток виноват? Согласитесь бред же.
Как хардварные проблемы «с 12-13 поколениями интеловских чипов, проблемы с 4090 на старте из-за 16 pin разьемов» относятся к софтверным тормозам?

Очень просто. Вот вам пример. Высокий вольтаж при высокой нагрузке — вызывает сбой всей системы. При этом никто не разгоняет процессоры. Это просто изначально кривая архитектура, которая уводит в бсод всю систему под нагрузкой. А компиляция тех же шейдеров = высокая нагрузка на CPU так как работает по принципу swarm. То есть задействование всех ядер сразу для быстрейшей обработки и переархивации.
Ссылка: https://www.digitaltrends.com/computing/intel-13th-14th-gen-cpus-stability-issues/
Цитируя специалистов из статьи: “As far as we can tell, there is not any software bug in Oodle or Unreal that is causing this. Due to what seem to be overly optimistic BIOS settings, some small percentage of processors go out of their functional range of clock rate and power draw under high load, and execute instructions incorrectly,”
а к стабильно (!) удручающе низкому фреймрейту?

Из вашей статьи не заметил. Но тогда давайте логически пойдем. Какие у вас настройки, какое железо? Это ведь играет большую роль. Я например не обладаю в данный момент какой то мощной системой и сижу на 1080p со своей 2060s. И знаете, как то нет проблем. Играю во всех новинки либо на средне-высоких, либо высоких если игра не особо требовательна. В своих стабильных 60ггц и 60 кадрах. Можно возразить мол но на 2к же нет стабильных 60fps. Конечно нет. Ведь чем выше разрешение — тем больше нагрузка на слои GPU. Соответственно имея 120ггц монитор без сопроцессора и нормальной выгрузкой в слои, вы получите не только 12 кадров а то и вообще краш движка-игры-системы.
Как бы поколение назад человек мог купить 1066 на релизе и 5-7 лет в ус не дуть

1066 это разгонная версия 1060. Что касается чипов 1000 cерии от нвидиа, тут вот в чем дело. Это был максимально мощный чип. Даже сейчас многие сидят на 1600 серии и в ус не дуют. Архитектура та же, просто чуть разоганные.
Что изменилось по сравнению с 2000 серии и 3000 и 4000. Все очень просто, изменилась распайка и архитектура в целом. 2000-3000-4000 серии имеют более мелкий нанометр и более плотную распайку. Что неизменно ведет к нестабильности.
Если же мы говорим про производительность, то я могу повторить самого куртку. (глава Nvidia) вся современная архитектура заточена под нейросети.
По этому если вы надеетесь на то, что кто то одумается, то нет. Даже я упертый фанат Nvidia не собираюсь покупать 5000 серию их карт для апгрейда. А смотрю в сторону красных. Если амд выпустит обновленную видюху в этом-следующем году, уйду к ним, потом что их техпроцесс сейчас банально стабильнее и менее плотен в отличии от Nvidia.
Что касается самой Nvidia то они не отказались от 16 пинового разьема в 5xxx серии. А это значит что там та же архитектура что и в 4000 только более плотная. А значит стабильность упала еще ниже. По этому если вы не программист нейросетей, не их пользователь — Nvidia в играх больше не будет показывать стабильности или мощностей. Их инвестиции в открытые модели уже это подтвердили. Майкрософт совместно с интелом тестируют свою линейку видюх Arc. Зачем? для того же самого = нейросети.
По этому если падет последний оплот — амд. То считайте больше стабильного железа для игр не будет, либо пока не пройдет шум вокруг нейросетей. ну либо пока не придумают новую технологию распайки и не изобретут нормальную стабильную архитектуру. Ну и последние 4 года показали, что мощности железа будут постоянно наращиваться для нейросетей. Да вот такая вот жестокая реальность.
LeVK
> Перечисленные версии используют не боевую версию движка а переходную
Переходная — это когда вы выкатываете паблик бету с ограничением на только некоммерческое использование. Понимаю, раньше граница между релизным билдом и сырьём была четче и проходила по зоне «когда DVD ушел в серию», но и сейчас, ИМХО, если вы выпускаете что-то в паблик и разрешаете делать на этом коммерческий продукт (а не ловить баги и готовиться к переходу) — это и есть боевая версия. Но если они пытаются исправиться — честь им и хвала. Починят — посмотрим.
> Какие у вас настройки, какое железо? Это ведь играет большую роль.
Легион 16ACH6H, R7 5800H/16g/3070m, полный теплопакет (охлад недавно обслужен). Играть пытаюсь на средне-высоких без люменов, RTX и прочей техноереси, в 2К. Большинство игр на UE4/Unity работает на ультрах в 30+ стабильных кдров без дропов ниже 16, даже Тарков 30 кадров вывозит (кроме улиц).
> По этому если вы надеетесь на то, что кто то одумается, то нет
Я уже ни на что не надеюсь и коплю денег не апгрейд. Скорее всего, к концу лета-началу осени на 4090 брать буду. 320 тыр, конечно, жалко, но таков путь.
> Если амд выпустит обновленную видюху в этом-следующем году, уйду к ним, потом что их техпроцесс сейчас банально стабильнее и менее плотен в отличии от Nvidia.
Я бы и рад, но мне по второй работе нужен CUDA. Так что, увы, облом.
1
1000 и 1600 разные архетиктуры. иди учи уроки. Чушь написал, мозг у тебя не стабилен.
A
Цитата: «При этом никто не разгоняет процессоры. „
Слушай, не позорься. Сходи, хотя бы, на hwbot.org и просветись на тему, сколько народу весело и успешно гонит 12-13 и до каких результатов.
D
Как бы поколение назад человек мог купить 1066 на релизе и 5-7 лет в ус не дуть.

Как и всегда, смотря во что играть. Никаких чудес долголетия 1066 не показала, если стремиться к высоким настройкам в новых ААА. В нетребовательные игры и во всякий онлайн — пожалуйста. Но уже спустя три года в каком нибудь RDR2 на высоких 30-40 фпс. Нынче примерно столько же фпс дают 6600 и 3060 в Alan Wake 2.
s
1060 лишь в два раза слабее 4060ти, а между ними три поколения и двойная накрутка ценника. Получается выгоды нет, цена за фпс одинаковая. И кто же наваривается? Где нм и прирост?
D
1060 в три раза слабее, чем 4060ти. Зачастую более чем в три раза.
$250 за 1060 в 2016 году — это $325 сейчас.
s
Ох брат, ты как минимум только половину игра назвал на анриале за прошлый год, их было гораздо больше, и везде одни и те-же симптомы, как бегающие зайчики артефакты света, так и низкий фпс, из всех только робокоп был играбелен на 1060. А почему причина в движке, потому что он бесплатный, завлекалка, имеет купленную обширную библиотеку сканов, квикселя мегаскана, которую встроили в движок и стало бесплатной, плюс все технологии по накрутки графики, включая и автоматическую оптимизацию в лице нанитов, но которая плохо работает даже на 4090. Возможно ещё и нвидиа вливает бабосы, которая за год в 3раза подняла свою капитализацию, подняла хуангу зп на 60%, и ей выгоден ход таких событий, ведь каждый год надо впаривать железки, они демонстрируют и продавливают ненужные лучи, и ненужные проф решения типа точек гауса, замены облаку точек, ии для фотограметрии, все это требует 4090, но при этом выдаёт результат хуже обычных аналогов на среднем пк. Вся эта хрень буквально происходит везде. Даже адоба показывает новый 3д пакет называет его рилтайм рендерингом, но при этом в рекламном ролике, картинка рендерить я несколько секунд, и видна задержка в отклике при работает в меню. Попробуй поработай когда каждое нажатие команды сопровождается секундной задержкой. И лучи везде, в каждом софте. А ты с ии пробовал работать на среднем пк? Вот попробуй. Это не нормально!
A
Ещё один… Все твои примеры — это те же самые «чьи-то руки из жопы» или у разрабов или у пользователей (одного из этих двух всегда достаточно для появления проблемы), что 12-13, нормально работающие в адекватных руках, что нормально воткнутые и охлаждаемые 4090.
s
ты о чем вообще?20фпс в хомволд3 на 4090 по твоему нормально в 4к? предлагаешь длсс включать? для стратегии в космосе?
A
Где я писал про какой-то хом и его 20 фпс? (речь про 12-13 и 4090) Не можешь сам определить «у кого руки из жопы»? Давай я тебе разок помогу: если в твоём хоме будет 20 фпс на моих разогнанных и не тротлящих 14900кф и 4090, значит Р из Ж у разраба, а если я увижу 100+ фпс, то значит у тебя. Всё же просто. ))
s
будет только не в первых миссиях, где всего 5 корабликов или бенчмарки, где все скриптовано, а запусти последнюю миссию и потести нормально. да и лучи не забудь включить ведь с ними красивее, что челюсть сводит(нет). да и не забудь замедлить свой 14900кф, а то говорят игры на анриале вылетают со стоковыми лимитами
A
Не играл в хом и не хочу. А совет твой — мимо кассы. У меня безлимит и частоты 6000-6300/4800 (эффективные, т.е. без дропов) на постоянку. Так что, это ты сам поучись сначала разгонять, а потом приходи советы давать. ;))
Gridon
Прям все разработчики такие балбесы, движок не осилили, а ты один такой умный, все знаешь.
Godot 3D плохо вывозит, говоришь? Ну-ну, расскажи это инди-разрабам, которые на нем уже кучу проектов запилили. Видимо, Amazon тоже ничего не понимает в движках, раз Lamberyard юзает.
А про 4090 и 16-pin коннекторы это вообще топ. Да, проблемы были, но их решили, и карта сейчас работает как часы. Так что, может, не стоит судить по первым неделям после релиза?
И да, мобильные чипы всегда слабее десктопных, спасибо, Кэп. Только вот речь шла о том, что даже на 3070 (не самой слабой, как бы) игры лагают.
В общем, много слов, мало дела. С оптимизацией сейчас беда, и никакие твои рассуждения об инструментах и умении писать код этого не меняют.
D
Собственно, сегодня я с мобильной RTX 3070 — мягко говоря, не самой слабой видеокартой на рынке и по сей день, в разрешении 2K вижу от 12-16 до, в лучшем случае, 25-30 кадров в новинках на средне-высоких настройках. Что, мягко говоря, вызывает вопросы. В основном, из разряда «кто виноват».

Могу предположить, что в вашем случае виноват Хуанг, который в, мягко говоря, не самую слабую видеокарту на рынке и по сей день положил всего 8гб видеопамяти, когда даже для более слабых карт вроде RX 7600 и 4060, которые для 1080р, 8гб считаются впритык и систематически за эти 8гб критикуются. А в 2К 8гб — да, мало, и можно ловить статтеры в новых требовательных играх. Не потому что разработчики злодеи, а потому что размеры текстур растут, а 8гб в мидле появились ещё в далёком 2016-ом с выходом RX 470/480. Взяли 3070 с 8гб для 2К — выстрелили себе в ногу.
.
Hardware Unboxed даже в играх 2023-го даже в 1080р умудрялись ставить такие настройки, что 3070 уходила в статтеры до 5-10 фпс.
Я искренне презираю DLSS и FSR

Таки стоит сделать поправку на то, что эти технологии вполне норм для старых карт, которые не тянут новьё. По логике, для этого апскейлеры и создавались изначально. Но всё испортили тупорылые фанаты Нвидии, для которых немного более качественно работающий DLSS стал одним из главных козырей в противостоянии Гефорс против Радеон и зелёные фанбои носились с этим мылом, как с писаной торбой, всем доказывая, что DLSS чуть ли не лучше оригинала и надо всегда его включать. Разработчики не могли этого не заметить и теперь в их игры без апскейлеров поиграть можно только на топовом железе.
LeVK
> Могу предположить, что в вашем случае виноват Хуанг, который в, мягко говоря, не самую слабую видеокарту на рынке и по сей день положил всего 8гб видеопамяти
Не могу не согласиться, но почему тогда кадры не становятся лучше, скажем, в VK облаке, где стоит железо самую чуть мощнее, с RX 6700 XT на 12 Гбайт, лаги не отступают? И почему в играх на UE4/Unity проблем нет, лишнее просто уходит в оперативку и ты имеешь ненамного меньший фреймрейт, чем мог бы?
> Таки стоит сделать поправку на то, что эти технологии вполне норм для старых карт, которые не тянут новьё. По логике, для этого апскейлеры и создавались изначально.
Допустим, возможно, в статье я и перегнул — но гос-с-паде, как же горит!
А в целом — спасибо за профессиональный комментарий.
102770682642610300125@google
Хотел поправить автора, но увидел кто он и смысл пропал. Понимания — ноль, аналитика — не потопталась. Расходимся, графомания.
1
Аплодирую стоя, коротко, точно и все по фактам
102655606630750839533@google
Имея мобильную rtx 3070 очень странно хотеть высокий фпс при среднем графоне на 2к без трюков.
10 лет назад имея топовую мобильную карту, в лучшем случае можно было поиграть на средних в актуальные релизы на fullhd.
Сейчас имея не топовую и уже не актуальную карту, вообще скорее удивительно, что можно играть в актуальные релизы в 2к с dlss и очень приличным уровнем графики.
Есть конечно примеры типо remnant 2 где реально всё очень плохо, но в основном наоборот — получается оптимизация стала даже лучше.
LeVK
Вот не соглашусь. У меня ОЧЕНЬ долго (с релиза до где-то выхода GTX 9XX, точно не помню) был в роли «боевого» ноутбука Pavilion DV7-6000er. Это второй феном на 2 ядра вместо процессора и Radeon HD 6650M вместо видеокарты, на минуточку. И я на нем на средне-высоких играл во все новинки, пока не уперся в два ядра. В 20 кадров, но играл. И дропов до однозначных значений не видел. Отпахал он по итогу 5 лет или около того, реперная точка — где-то год после выхода BF4, который на нем просто не пошел.
И что-то мне подсказывает, что на момент релиза относительно своих коллег 6650M послабее была, чем мобильная 3070 сегодня.
Gridon
Ну ты конечно сравнил. «Топовые» карты десять лет назад и 3070 — небо и земля. Ясен пень, что раньше на средних в FullHD кое-как тянуло, сейчас то прогресс должен быть, а не вот это вот все. Игры-то не сильно навороченнее стали. Или ты хочешь сказать, что графон в новых играх прям революция по сравнению с тем, что было? DLSS это вообще отдельная песня, мыло мыльное, никакого удовольствия, а без него слайд-шоу. Так что не надо тут про «удивительно, что вообще работает» — должно работать, и нормально работать.
1
Автор правильно написал, играет в игры, читает про них, но не дописал, что не фига не разбирается в них. Чтобы говорить про игры 90-х и 00-х годах, нужно кроме историю игр прочитать паралельно развития технологий и как ЭВМ превратились в ПК… Коротко, первая видеочип был разработан в 1973 году, но он от современных видеокарт отличался очень сильно, нужно понимать, что как такакого понятия видеокарты в то время не было, а было понятие видео адаптер… Грубо сказать это что то встроенной графики сегодня, которая не работала с 3-д графикой и только в 1994 году появился первый в мире 3-д ускоритель, даже не видеокарта… О каком фпс вообще речь, как вообще менять ее на топовую версию, если пока первая и единственная вещь в мире ??? Я уже начал рвать волосы на себе, но вспомнил что ps2 появилась только в 2004 годах примерно… Автор походу курнул перед чем написать… Только в 1996 году был прорыв 3-д ускорителей, а это ещё не полноценные видеокарты, но компанию 3dfx можно считать про родителем современных видеокарт и вот Первое поколение DirectX 7 видеокарт включало в себя NVIDIA Riva TNT и ATI Rage 128. Riva TNT была выпущена в 1998 году и была оснащена графическим процессором TNT с 16 МБ памяти и шиной памяти 128-бит. ATI Rage 128 была выпущена в 1999 году и была оснащена графическим процессором Rage 128 с 16 МБ памяти и шиной памяти 128-бит
… Какие топовые решения?? Да в 90 и 00 годах за каждый бит бились, оптимизировали все, что можно и нельзя… Видеокарта HD 6790 тянет на средних ворлд оф танк на 40-60 фпс и нвидиа 730 танки тянет еле еле 35 фпс… О каких 6-12 фпс вообще идёт речь? Я по оглавлению думаю услышу хоть немного разбора и технической инфы, но тут просто статья не о чём…
Gridon
Чувак, ты походу пропустил пару апдейтов реальности. Никто не спорит, что 3dfx были богами текстур, но сейчас-то не 98-й год. 3070 мобильная — это не титан криэйтив, а скорее бюджетка, которая с трудом 2к тянет. И да, игры стали жрать больше ресурсов, чем Пакман на денди. Так что не надо тут про «за каждый бит бились». Щас разрабы забили на оптимизон, пилят графон на UE5, который даже 4090 не всегда вывозит.
А вообще, сходи поешь, попей, поспи. Может, прояснится в голове.
1
В первом абзаце автор пишет про возврат в девяностые, во втором про то, что игры в 2к не выдают нужное количество фпс. А ниче что в 90-е за счастье было иметь монитор хотя 1024х768? Вот в этом разрешении играй и сравнивай, аналитик доморощенный.
1
Уважаемый… 800на600… Это можно даже вспомнить по старым играм Диабло 2, Фаллаут 1 у них в настройках максималка 800на600, а 1024 это уже нулевые… https://habr.com/ru/companies/productivity_inside/articles/492178/
C
«Я искренне презираю DLSS и FSR»
Осталось понять, как получить 120 кадров в КП 2077 на ультрах без них и без генератора кадров.
P
Проорал с дилетантов из комментов.
A
Уот это наброс, на Unreal Engine. О_о
Неожиданно ))
E
Топовые конфиги игровых ПК взаимно подгоняются под ультра настройки в играх для актуального разрешения монитора. Нет денег на топовый конфиг — экономь на красоте картинки ради производительности, либо производительностью ради качества картинки. То есть недостаточно денег — иди на компромиссы. К примеру я, выбрал качество картинки, по этому ещё в лохматом 2008 году сменил монитор 1024х768 на 2560х1600 30-дюймовой диагонали (проигнорировав дешманский 1920х1080), за тем, в 2009 году собрал трехмониторный сетап 4960х1600 докупив две 20-ки по 1600х1200 и установив по бокам основного в портретной ориентации. И все это ещё 15 лет назад! И все это ради высокого разрешения, большей плотности пикселей, и в итоге, безусловно качественной по меркам того времени, топовой картинки. И уже под это разрешение я подгонял конфиг ПК, собирая его, по возможности, из топовых или предтоповых комплектующих. Но денег как это обычно бывает всегда не хватало на конфиги мечты, по этому ради качественной, детализированной картинки я готов был жертвовать fps. И так как я в основном играл в оффлайн шутеры от первого лица, то даже 30 fps для меня были вполне играбельны. За то картинка в отличие от мутно-пиксельного fhd отличалась в лучшую сторону очень сильно. А вот некоторые мои друзья в то же время играли и работали в fhd, и терпели все проблемы связанные с маленьким размером рабочего стола Винды и дискретной картинкой в играх. Но за то, у них было больше fps! На мой вопрос, зачем столько мучений ради лишних 15 кадров в сравнении с моим ПК, если они не являются кибер-спортсменами готовыми терпеть ужасное качество картинки вплоть до отключения текстур ради выжимания нескольких дополнительных fps, за что им ещё и деньги на турнирах платят не малые, объяснений у них не нашлось… На rtx4090 я перешёл с gtx1080ti, на которой с 2015 года играл в 4К. А в 4К, напомню, пространство рабочего стола больше в сравнении с fhd на 400%! А в играх с качественными моделями и текстурами картинка просто загляденье! Но на этой прошлой видеокарты, опять таки никакие не 165 или 120, но в основном ниже 60 fps, что меня нисколько не парило. За то я не страдал от грустной картинки в fhd но каждую секунду наслаждался супер-четкой в 4К. Вот и думайте, ездить на Мерседесе но на скорости не выше 60 км/ч, либо «летать» на Ладе.
1
У многих абсолютно противоположный подход: толку мне с хорошей графики, если играть некомфортно? В глубокой интересной игре перестаёшь обращать внимание на графику уже на втором-третьем часу.
И суть не в разрешении, а в количестве точек на дюйм. Т.е. с маленьким монитором FullHD графика чётче, чем на большом 2K или очень большом 4К. Маленький монитор можно просто придвинуть поближе и эффект будет тот же, как и от большого монитора издалека. В этом ракурсе возникает вопрос: ради чего люди вбухивают такие бабки в дорогие видяхи и мониторы, если можно серьёзно сэкономить, всего лишь немного включив голову?
a
Не соглашусь. В упускаете, что как правило к 4К все идут одной и той же дорожкой, поэтому не имеет никакого смысла объяснять людям выгоды от FHD. Мы лишь посмеемся. И наоборот, огромная часть людей только теоретически способны рассуждать о плюсах и минусах 4К. А в сухом остатке, к великому сожалению, FHD жестоко уступает во всем. Четкость не страдает, потому что это надо вчетверо увеличить площадь монитора, чтобы она начала падать. Зато погружаемость на порядок больше. Глаза отдыхают, шея не дубеет. Отдельная песня — это работа на большой 4К панели.
Когда я перешел на 32" 2.5К я стал ловить 'ступняки' в играх — когда просто останавливаешься и смотришь с открытым ртом. Когда купил 42" 4К — это привело лишь к тому, что такие моменты стали происходить еще чаще. Но самое показательное, что это стало происходить и в старых по несколько раз пройденных играх. А это и является приговором для небольших мониторов с малым разрешением — значит они физически не способны обеспечить такое удовольствие от картинки.
Ну а по поводу расходов — все относительно. Если упростить — лично я предпочту играть в более старые игры в 4К, чем в новье в FHD. Ну и второе — сейчас, собрав комп, хорошо справляющийся с FHD, с помощью DLSS получим с небольшими потерями такую же играбельность и в 4К.
m
Производительность ртх 3070м ниже ртх 3060 десктопной… О чем вообще речь?
m
Ну, если так-то по хорошему прикинуть: зачем чего-то добиваться, если все вокруг виноваты? Можно просто на форуме высраться — и сразу же полегчает. База.
a
А что не так с 4070? Разве что щас выгоднее 4070S, конечно. По статистике стима, 4070 в верхней части списка популярности, причем все более популярные карты — слабее. Так, навскидку она быстрее, чем карты у 95% игроков. Итого, мягко говоря, почти любой геймер бы с вами махнулся не глядя)
1
4070 Asus ProArt: в «Хогвартсе» и «A Plague Tale Requiem» 100+ FPS на ультра FullHD с умеренной трассировкой. В 2К 60+ FPS.
1
1
UE5 банально сырой. Его ещё доведут до ума. Сейчас он плохо работает с многоядерными процами, но, возможно, к этому моменту уже частично исправили. Так что не стоит разводить по этому поводу такую трагикомедию.
a
Я пока не видел настолько плохую реализацию DLSS, чтобы в нем становилось хуже, чем при понижении разрешения до того, на основании которого оно и выполняет апскейл. Это вообще была бы супер-фича для слабых карт, если бы я не был вынужден включать ее, купив текущий флагман)
Интересно, молодые игроки, с какой-нибудь вполне достижимой 1060. Они играют в хиты прошлых лет? Даже некоторые 20-летние игры выглядят бодро, но обходят современные по гейплею. Я молчу про 10-летние. А ведь такие игры эта самая 1060 на ультрах потянет в 4К. У меня у самого есть пропущенные хиты прошлых лет, обязательно к ним постараюсь вернуться.
Я это к тому, что если так и дальше пойдет, что флагманы будут по 3К зелени стоить, а при этом игры массово будут допиливаться до нормального состояния по 2-3 года — так я лучше предпочту о них лет 5 вообще ничего не слышать. Думаю, в киберпанк на какой-нибудь 6060Ti вполне можно будет поиграть в 4К с лучами… Равно как и в весь этот тормозящий сейчас треш — о нем либо забудут, либо доведут хоть до состояния на троечку.
EvgeniyKryukoff0101
Я как-то пытался посчитать, сколько есть старых игр в которые мне хотелось бы поиграть, и которые ещё не были мной пройдены. Для удобства открыл сайт xataba, светлая ему память. Но насчитав под две сотни игр плюнул и забил, не стал листать дальше. Так что теоретически можно хоть всю жизнь играть в старые игры и в моды (на сталкер и скайрим). Да и новые игры какая нибудь GTX 1066 или RX 580-90 пока тоже тянут, пусть и в 30 кадров первая и 45 кадров вторая. Всё таки два гига видеопамяти сверху на полярисах тут не лишние. Пусть не 60 кадров, зато на ультрах. Но настройки можно и прикрутить если что, или апскейлеры включить.
a
Ну вот есть несчастная категория людей, которым подавай все самое новое и самыми первыми чтоб были. Те же дети — в школе тебя сразу начнут троллить, если ты в новье не играешь) Ну тут уж ничего не поделаешь. А уравновешенного взрослого человека таким не пронять. Просто есть конечно некоторая жалость, что тут поперло просто со всех сторон — введение RT отыквило карты, сами карты подорожали, тут еще торговые ограничения на топовые гпу, так еще падает как и среднее качество выпускаемых игр по 'доделанности', так и среднее качество по геймплею — привет повестке и т п.
EvgeniyKryukoff0101
Наверное… Вроде сейчас малолетки буллят друг друга даже если кто-то играет на дефолтных скинах без доната. Дефолт это у них оскорбление. У нас в школе такого не было, когда я учился. Впрочем в популярные игры я играл, но всем было плевать кто во что играет по большому счёту. Хотя у меня даже компа не было, всё время пропадал в компьютерном салоне. Да, клубы у нас почему-то именно так назывались. Дикий запад, не иначе… Последние игры в которые я играл на релизе это RAGE2 и God of War и ещё парочку мелких. Практически во всех видел как их допиливали прямо на глазах. Скажем, как прикручивали фонарик в Рейдже и подсвечивание мелких объектов, которые хрен найдёшь концентрацией, как фиксили безумно чувствительное управление мотоциклом там же и прочее. На God of War за процесс прохождения вообще штук 7-8 патчей накатывал, хотя проходил относительно недолго после релиза, уже не помню что там исправляли, но в одном из патчей завезли FSTR и это ещё в общем весьма доделанные игры. Киберпанк вон вообще сколько лет доделывали? Года три? Но это крайний пример, конечно, но всё равно, играть в игры на релизе это в большой степени глупость. Особенно сейчас, когда разработчики считают нормальным выкинуть даже не бету а какую-то альфу под видом релизной версии, рукалицо. Куда спешить? Не лучше ли подождать пока разработчики и сообщество отловят все баги, завезут дополнительный контент, всё пофиксят, починят и пропатчат? Некоторые считают, что лучше бежать впереди паравоза, покупать дорогое железо, дешевеющее почти вдвое через год-полтора и сырые игры на релизе. Ну, флаг им в одно место и попутного ветра… Тот кто умеет ждать, получает самое лучшее. Не помню кто сказал.
a
Я на релизе покупал msfs, чтобы просто жанр жил, зная, что он не доделан. Там вообще был такой кошмар, когда существовали настройки в управлении, но тупо не были реализованы. Вообще. Патчат регулярно до сих пор. Игра с 75Гб занимает теперь 350Гб. И это под эгидой Microsoft.
А киберпанк к почти 4 годам допиливания вообще отличился — с каждым годом он становился лишь тяжелее и тяжелее. Ну ладно, хоть видна разница, и pathtracing и в самом деле выглядит красиво.
А теперь лично мне остался один шаг — покупка 144Гц монитора. И будет 'все пропало') Вангую — 5090 не потянет четырехлетний киберпанк, выдавая стабильные овер 150фпс. Щас 4090 выдает на DLSS quality + frame generation 80 фпс. Кто-то реально думает, что 5090 будет в два раза быстрее? А сколько она стоить будет, когда она явно будет под запретом из-за производительности? Это за каким мне рожном карта за 3 штуки баксов, неспособная уже из коробки тянуть игры 4-х летней давности?
В общем, добро пожаловать в мир старых игр — пропатченных, дешевых и летающих на видеокарте средней руки)
Chenz
Часто мнение моё расходится с мнением автора, но основная мысль верна. Пока народ хавает, оправдывает и требует добавки, подобное отношение будет продолжаться. Оправдания в духе «Чего вы хотели от студии новичков или от такой маленькой команды» делают только хуже. Я как итоговый потребитель хочу в итоге получить игру, отвечающую стандартным требованиям! Оправдания, как известно, есть у всех. А апгрейдиться до посинения не выйдет, ибо есть игры, лагающие даже на топовом железе. Предзаказы — зло. Покупая игру до её выхода, игроки сами добровольно отдают свои деньги ленивым разработчикам. Тем же, кто жалуется на то, что играть не во что, рекомендую вспомнить опенинг аниме «Король-шаман». Взгляни вокруг, оглянись назад. Шедевральных игр много. Может, вместо того чтобы покупать сырую новинку, лучше купить проверенную временем и сотнями тысяч людей игру, что удостоилась множества наград?
k
Дело не в анриале, а в дефиците специалистов низкого уровня, такие проблемы сейчас у каждой игры и на других движках, нету тех кто бы оптимизацию тебе хитро кодом запили, некому движок модифицировать. А игры покупают, потому что стримеры играют, стримеры имеют хомяков, которые берут пример со стримертв, представьте себе, что в мире милион стример и каждый купил игру за 100 баксов, уже неплохо так игра заработала, а потом еще и хомяки стримеров подключаются и повторяют за ними, покупают самое дорогое издание, донатят в игру и все как бы работает, а если работает, зачем куда то расти, это глупо, мы так меньше заработаем.
L
Благодарю за статью было интересно ее прочесть. Но лучше всего это коментарии. В них даже удалось прочитать историю создания первых видеокарт))
PS: ПК мне только поиграть поэтому в железе не разбираюсь.
EvgeniyKryukoff0101
Тебе что, руки колесницей переехало или у тебя мозговые слизни? Если твоя шайтан-машинка не вывозит, просто понизь настройки. Мда… Когда-то я на минималках играл в игры, на пониженном разрешении и кайфовал от них…. Сейчас если всё на минималки поставить – игры всё равно будут на порядок красивее, чем в десятые и на несколько порядков красивее, чем в нулевые. Нет, я не предлагаю ставить на минималки, но порой достаточно прикрутить несколько прожорливых настроек и знатно добавить себе кадров. К тому же зачем «козырять» своей так называемой 3070, когда мобильная версия этой карты даёт менее половины мощности от взрослой версии? Да что там взрослой версии, она даже слабее чем стандартная 3060. Так что какие 2К? Окстись!
«Согласно нашим совокупным результатам тестов, RTX 3070 превосходит RTX 3070 Mobile на впечатляющие 56%.»
«RTX 3060 опережает RTX 3070 Mobile на умеренные 19% в нашем суммарном рейтинге производительности.»
UE5 отличный движок и его разработчики нацелены не только на игры, но и на кинематограф, где он отлично используется как для задников, так и для передников. Им теперь что, убивать свои технологии и прикручивать их красоту, чтобы какой-то васян с 3050 мог запускать новые игры на максимальных супер ультра настройках в 2-4K и тешить тем самым своё эго? Самому настройки прикрутить религия не позволяет или что? Почекай новости за май. Увидишь, что новую версию движка оптимизировали не менее чем на 40%. Москва не сразу строилась. К тому же FSR и другие апскейлеры отлично работают, по крайней мере их последние версии. К предыдущим было много вопросов, да и то как правило только если сидеть выискивать артефакты с лупой на zoom x4, а не в игру играть. То есть в статике. В динамике они вообще как правило незаметны. Один клоун тоже жаловался на FSR, пока я не подрубил его ему без палева, пока он курил, и о чудо, он ничего не заметил. Facepalm.
O
UE5 гавно убивающее игры и хватит спорить. Это просто очевидно.
Frostpunk2 на 3060 нормально пошел только с framegen и dlss, это КАК вообще, где там графика-то. Ее там нету.
Мощность современных карт колоссальная!!! И если раньше как-то было подозрительно, графика на месте, а карты надо новые покупать,
То сейчас уже тренд такой, что нужно отдавать 100к за карту, что бы играть в игру с графоном хуже + DLSS + фреймген и инпут лаг. Потому что UE5.
Не надо приводить никакие сраные аргументы, это просто уже факт и что тут пишут защитники урины пятой всем пофигу в общем-то.
Просто есть закономерность, которую люди видят и ее не скрыть не какими аргументами.
UE5 — 95% что игра будет полной херотой с убитой производительностью, резиновыми врагами и непонятной точечно-сеточной текстурой мелких элементов. Это просто уже БАЗА, статистика.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Инопланетяне могут отправлять сигналы прямо сейчас: почему радиоастрономия Земли физически не способна распознать техносигнатуры

Поиск внеземного разума (SETI) на протяжении более чем шестидесяти лет строится на предпосылке о том, что технологически развитая цивилизация, желающая заявить о своем существовании, будет...

Обзор полезного инструмента для снятия заусенцев: твердосплавный риммер для 3D печатника

Выбрал гратосниматель (риммер) в качестве инструмента для финишной обработки 3D печатных изделий. Это удобный и компактный инструмент в виде ручки со сменными твердосплавными насадками,...

Обзор наушников TRN Whale Shark: экспрессия, драйв и баланс во всём

Под термином гибридные наушники многие сейчас понимают связку из динамика, одного или нескольких арматурных излучателей и, возможно, планара или микропланара по вкусу. Бывают однако и решения по...

Обновление iOS 26.3.1 от Apple: причины выпуска и стоит ли обновляться

В начале марта 2026 года компания Apple представила обновление операционной системы iOS под номером 26.3.1 для устройств iPhone, а также аналогичную версию для macOS. Хотя анонс произошел без...

Стоит ли собирать игровой ПК на DDR4 в 2026 году

Цены на оперативную память продолжают лететь вверх, ставя всё новые рекорды. Если ещё пару месяцев назад за планку памяти в 32 ГБ стандарта DDR5 просили чуть меньше 20 000 рублей, то сегодня её...

Обзор корпуса Azza Hive – сколько пространства внутри и удобно ли собирать систему

Корпус нередко определяет не только внешний вид компьютера, но и то, насколько удобно собирать систему и обслуживать ее в дальнейшем. В этом обзоре я рассмотрю AZZA Hive — ATX-корпус с...