Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Прирост?? Все к чему стремился геймдев 20 лет смыто в унитаз.
Четкость и быстрота отклика, скоростные мониторы, родное разрешение, экрана, ощущение реализма при 120 ++ герцах
Все это потеряло смысл
Теперь ты видишь смазанную
мыльную картинку с перекрученым контрастом и фильтром резкости.
Проблема не в количестве памяти. Она как раз выбирается ровно под мощности чипа. А в том что чипы в новых картах слабые.
Вот в чем суть, и о чем должны думать геймеры.
А ныть про память любят любители Нейронок и джипити, потому что видеопамять для них как воздух нужна.
Они же и заказывают эти статьи. А надо ныть, что хуанг охренел и продает откровенно слабые чипы которые не тянут больше 8 гигабайт врама!!!
мы не кадры видим, а само качество изображения, при 120 герц, если нет скачков изображение воспринимается как нечто настоящее, скорость объектов становится сопоставимой с реальной в жизни, без шлейфов, картинка резко как живая.( Что кстати не относится к ДЛСС вообще, там сколько не рисуй, а ощущение что больше 60 нет никогда). То что мы не видим разрывы в кадрах, это не значит, что их не видит глаз, он просто посылает в мозг не все. Доказательство?? А вы посмотрите боковым зрением на некоторые вещи, на грани зрения я лично вижу мерцание жк монитора и прочее.
И потом посидев на 90-120 герцах, вам будет физически дискомфортно на мониторе с 60 герцами.
Все верно, мы не кадры видим, а само качество изображения, при 120 герц, если нет скачков изображение воспринимается как нечто настоящее, скорость объектов становится сопоставимой с реальной в жизни, без шлейфов, картинка резко как живая. То что мы не видим разрывы в кадрах, это не значит, что их не видит глаз, он просто посылает в мозг не все. Доказательство?? А вы посмотрите боковым зрением на некоторые вещи, на грани зрения я лично вижу мерцание жк монитора и прочее.
Вот честно как буд-то память решает насколько сильна карта.
Если она сама по себе слабая, ей и 24 гига не помогут. Что подтверждают тесты. Даже если убрать лаги из за памяти ФПС будет в низах.
Что за истерия блин. Лучше бы равнялись на голую производительность без поганого масштабирования
Патч? ) У райзенов целые метры под каждое ядро, для игр и 3д. Интел -патч...
Ну да подкупите издателей, обзорщиков. А люди потом идят и не понимают какого черта у них проц гавно.
Ну да, так было с киберпанком, который летал на 1060. До прихода энвидии к ним. Дак те просто выкрутили детализацию и прочее дерьмо под максимум движка и пошли лаги тормоза.
Блин я как разработчик знаю, что при желании можно сделать так, чтобы тень сука от бардюров жрала только ресурсов, что ложила бы 40% мощностей видеокарты. Или типичный пример освещение лиц и теней на них, обработка эффектов вроде листьев и пыли. Накрутить туда обработчиков и все стухнет.
Так же было и в x4 реньюнион, жл прихода энвидии.
Тупо повышают бюджет кадра.
Сама же энвидия смеётся с разрабов, говоря, что тот же видебуфер видеокарты не является ограничением, просто разработчикам надо быть честнее
Хз, меня очень сильно раздражает, что расходы на ии пытаются переложить на родовых пользователей, а то и втихую отобрать мощности, Как делает тайно Виндоус 11 под чип трм, для нейросети.
Не ну такое слышать от компании для создания ЦП ещё ладно. ЦП действительно не только для игр делается. А вот действии энвидии вызывают вопросы. Хз но мне кажется надо начать разделять компании для крупного бизнеса и для обычных игроков и пользователей. А то получается, что бизнес пошел совсем в другую сторону и тянет за собой геймдев, отчего игроки и юзеры обязаны платить втридорога и покупать ускорители с чертовым АИ на борту и апскейлом, потому что дядям из энвидия не выгодно стало делать мощные чипы для вычислений им теперь АИ надо.
Четкость и быстрота отклика, скоростные мониторы, родное разрешение, экрана, ощущение реализма при 120 ++ герцах
Все это потеряло смысл
Теперь ты видишь смазанную
мыльную картинку с перекрученым контрастом и фильтром резкости.
Вот в чем суть, и о чем должны думать геймеры.
А ныть про память любят любители Нейронок и джипити, потому что видеопамять для них как воздух нужна.
Они же и заказывают эти статьи. А надо ныть, что хуанг охренел и продает откровенно слабые чипы которые не тянут больше 8 гигабайт врама!!!
И потом посидев на 90-120 герцах, вам будет физически дискомфортно на мониторе с 60 герцами.
Если она сама по себе слабая, ей и 24 гига не помогут. Что подтверждают тесты. Даже если убрать лаги из за памяти ФПС будет в низах.
Что за истерия блин. Лучше бы равнялись на голую производительность без поганого масштабирования
Ну да подкупите издателей, обзорщиков. А люди потом идят и не понимают какого черта у них проц гавно.
Блин я как разработчик знаю, что при желании можно сделать так, чтобы тень сука от бардюров жрала только ресурсов, что ложила бы 40% мощностей видеокарты. Или типичный пример освещение лиц и теней на них, обработка эффектов вроде листьев и пыли. Накрутить туда обработчиков и все стухнет.
Так же было и в x4 реньюнион, жл прихода энвидии.
Тупо повышают бюджет кадра.
Сама же энвидия смеётся с разрабов, говоря, что тот же видебуфер видеокарты не является ограничением, просто разработчикам надо быть честнее