Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
На средних настройках кстати 3060-3060Ti отлично, ну и зачем тогда платить. Тем более 3060Ti c DLSS качество будет где-то как 7900 в лучах. А с DLSS баланс и без лучей подбираться. В качество картинка как натив, в балансе играя тоже на вид разницы нет.
На уровне 3090Ti это если лучей почти нет, а где реально лучи, там 3080. Нет тестов в Портале, там, где лучей сверх много, а такие и будут игры скоро, всё печальнее явно.
В реальных настройках кстати 4090 с DLSS немного потребляет, а 4080 с DLSS редко даже 200 ватт потребляет. А 7900 да стабильно за 300. А это кстати требует уже совсем другого корпуса и продува, т.е. как 4090-3090-3090Ti.
Сказки. Читаю вас часто, у вас вроде очень старая карта Радеон. Будете эту покупать за 90 тыс?) В этих играх и так fps огромный. А вот во всех новых даже в 2К на максималке не будет 45-50 fps, ну и зачем оно.
Не знаю, вот вы будете покупать такую карту 7900XTХ? Она будет стоить где-то 85-90 тыс. Для такой суммы у неё полно огрехов, если бы стоила 55 тыс, да здорово. А у 4080 за 90-100 огрехов нет.
Вообще-то где много лучей, она как 3080. И видимо так будет в будущем почти везде. Потребляет больше 4080, громче, горячее, в лучах сильно медленнее. Без лучей где-то чуть быстрее, незначительно, а где-то и слабее, в общем паритет. Но самое главное, она колоссально медленнее, если на 4080 включить DLSS качество, а в таком режиме картинка = нативной. Ну и получается, что лучше доплатить до 4080, тем более их сейчас можно и подешевле найти.
Cпасибо, я как-нибудь обойдусь. D3 и D2 ремастер были куплены, а тут ещё лазейки искать за свои деньги?) Смешно. Если будет, то скачаю торрент версию, не будет, ничего страшного. Честно говоря все эти Диабло однообразны уже.
Вот могли бы сделать особый вариант 13900K, для игроков, где вместо встройки и мини ядер, 100+мб кэша. Стоимость сделать как у 13900К, тогда ничто не пострадает. Ну и игровой 13700К, где кэша поменьше и частоты чуток ниже.
Разъём не греется даже на 600 ваттах, а карта потребляет 450, всё хайп прошёл уже. В играх багов нет совсем, купив карточку прохожу всё подряд сейчас, тем более зима, ни одного бага.
Но у карты за 1000$ и потом снижать настройки? Ну сколько будет в Киберпанке на максималке в 2К, 25-35 fps...?
Но лучи даже не так важны, самое важное это DLSS… это буст карты в 1.5 раза. А в 4000 линейке ещё буст от DLSS3… итого до 3х раз добавка, без_снижения_качества_картинки. Но даже в DLSS баланс вы не заметите проблем, тем более играя, качество всё равно как нативное. А это ещё прирост.
В большом корпусе всё уместится, у меня даже в Микро ATX, а мой даже для такого формата один из самых мелких, при желании можно поставить 2 HDD (а вообще можно вместо одного из вентиляторов 3ий штатно, а поколхозить и 4ый). У меня 1 HDD, вместо 2ого SSD и Core i9 c RTX 4080. Но конечно всё уже так плотно упаковалось, лучше брать просторные корпуса, для 4090 это уже критично.
Драйвера под все карты (Амд-Ати, Нвидия, Интел) выходят постоянно последнии 25 лет) никогда проблем никаких не было на самом деле, сейчас ещё до выхода игры обновляется драйвер.
Если всё так, то 4000 линейка ещё лучше 7000, чем была 3000 против 6000… Т.е., к сожалению, и 6000 слабо продавались, а эти будут продаваться ещё слабее. По сути тут уровень 4070Ti в обычном рендере. Но, где лучи, а они уже везде почти, сильно хуже. А далее DLSS, включаем в режиме качество на 3060Ti, картинку невозможно отличить от натива, и получаем fps этих 7900. Ну и зачем брать красную карту за 80-90 тыс?
Я редко меняю карты: GTX 295 — GTX 670 (получена по гарантии, т.к. 295ые все были с просчётом и сломались) — GTX 1070 — RTX 4080. Вот за 14 лет 3 карты, проблем с тем, что что-то не идёт или идёт плохо не было, если не придираться, и 4080 очевидно прослужит тоже лет 5 или даже больше, конечно через пару лет где-то придётся немного снизить графику. Речь только об этом, что должен идти прогресс и в графике игрушек тоже.
Выкрутили настройки до каких-то запредельных дальностей прорисовки, количества лучей, теней, видно, что нагрузка видеокарты в % большая по метрике. Можно же снизить. Ну и про GTX 960 тоже крайность, также говорили, почему Quake 3 тормозит на Riva TNT2, а Doom3 на Geforce3, хотя эта игра и карточки делались друг к другу.
У меня 4080. Сравниваю на стоп кадрах туда сюда переключая «DLSS качество» <=> обычный рендеринг в куче игр. Нигде нет разницы, отличить какой режим не то что в слепом тесте нельзя, нельзя даже переключая и зная где что-то. Где какой-то огрех, мыльцо на текстуре или рябь, пробую, ага DLSS..., включаю натив, а там тоже самое. Может у вас какой-то постпроцессинг на телевизоре.
И кстати DLSS позволяет в ряде игр наоборот сделать картинку лучше, скажем в A Plague Tale новой включаю 200% рендеринг, сразу мыльца нет, чёткая, но сглаженная картинка без лесенок. А потом поверх DLSS и сразу отличный fps. Да там ещё и DLSS3 есть (удвоение кадров на RTX 40 серии), это тоже чудесно работает, картинка не меняется, огрехов качества нет, а fps ещё удвоился.
Но лучи даже не так важны, самое важное это DLSS… это буст карты в 1.5 раза. А в 4000 линейке ещё буст от DLSS3… итого до 3х раз добавка, без_снижения_качества_картинки. Но даже в DLSS баланс вы не заметите проблем, тем более играя, качество всё равно как нативное. А это ещё прирост.
И кстати DLSS позволяет в ряде игр наоборот сделать картинку лучше, скажем в A Plague Tale новой включаю 200% рендеринг, сразу мыльца нет, чёткая, но сглаженная картинка без лесенок. А потом поверх DLSS и сразу отличный fps. Да там ещё и DLSS3 есть (удвоение кадров на RTX 40 серии), это тоже чудесно работает, картинка не меняется, огрехов качества нет, а fps ещё удвоился.