Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
AndreyZ
Комментатор
AndreyZ
Рейтинг
+1843.60
Автор не входит в состав редакции iXBT.com (подробнее »)
Переобуваетесь вместе со сменой логина? ;)
Очередная фанатская ложь.
Вот вам конкретно на этом ресурсе, конкретно про эту проблему NVIDIA новость.
https://www.ixbt.com/news/2023/03/06/novejshij-graficheskij-drajver-nvidia-izlishne-nagruzhaet-processor.html
Да, было по разному. Например, у старых ATi (до радеонов) с драйверами было вполне нормально на общем фоне (тот-же Xpert@Work был весьма неплох по этой части), но, например, у первых Радеонов там была кривая кривота, да и у следующих, хоть и лучше, но тоже очень далеко от идеала. Например, у меня был Radeon 8500 от Manli, с ним нормально работать можно было только используя драйвера, поставлявшиеся с ним на диске, при попытке обновления на новые от производителя получался глюкодром и приходилось откатываться на фирменные.
У ноутбучного Mobiliti Radeon 5650 после выхода драйверов от AMD так-же начались проблемы связанные с тем, что при установке обновлённого драйвера от AMD (а он автоматом пытается ставиться) перестаёт работать даже Catalyst Control Center и проблему эту не стали исправлять, просто забили. До сих пор на старых ноутбучных радеонах она есть.
С драйверами, конечно не ужасужас, но проблемы случаются и иногда серьёзные.
https://www.ixbt.com/3dv/intel-arc-a380-review.html
По производительности она находится между RX6500XT и RTX3050. Причём, даже RX6500XT теперь получается что продаётся дороже этого Интела (что тоже логично, учитывая некоторую степень недопиленности последнего относительно старых игр), не говоря уже про RTX3050.
А что плохого в выборе железа под задачу?
У AMD действительно ведь хорошие процессоры получились. Почему бы их не брать?
Несмотря на наличие на этом-же сайте тестов, некоторые упорно не хотят в них верить, придумывают оправдания в стиле «а вот если эти вот эффекты поотключать, то получается быстрее» (как будто топовые и околотоповые решения берут чтобы что-то там отключать в играх ;) ) и т.п.
В чём эти утверждения? Должен вместо чёрного белое видеть если у кого-то подгорает от проигрыша любимой фирмы?
А что там в разрешении 800х600 при 256 цветах забыли написать.
Меня интересуют сценарии в которых карта будет использоваться. Покупать околотоповое решение чтобы потом эффекты в нём отключать ради того чтобы она при таком режиме была типа быстрее конкурентов — маразм. Подобным только полные фанаты могут себя утешать. То что вы уже на оскорбления перешли прекрасный показатель того как вас бомбит.
Результаты тестов со включенной аппаратной трассировкой лучей и/или DLSS/FSR в разрешениях 1920×1200, 2560×1440 и 3840×2160
Cyberpunk 2077 RT:
1920×1200 (дальше аналогичное соотношение, просто беру играбельный режим) 4070Ti (сток) 59fps, RX 7900XT (сток) 50fps
он же с DLSS/FSR 96/89 соответственно
God of War 4k:
4070Ti (сток) 99fps/ RX 7900XT (сток) 93fps
Marvel’s Spider-Man Miles Morales 4k RT:
4070Ti (сток) 65fps, RX 7900XT (сток) 60fps
Marvel’s Spider-Man Miles Morales 4k RT DLSS/FSR:
4070Ti (сток) 116fps, RX 7900XT (сток) 96fps
и т.д.
практически везде 4070Ti обходит RX 7900XT, нередко довольно значительно. Поискал хоть одну игру где не обходит. Нашёл только одну Far Cry 6 4k RT:
4070Ti (сток) 82fps/ RX 7900XT (сток) 84fps В других разрешениях и с FSR такая-же «впечатляющая» победа в районе 1-2fps.
И кто тут лжёт и подменяет понятия? Так что смотрите уж в зеркало, если нет сил смотреть на результаты тестов.
Как раз в виртуальной среде самое оно моделировать.
По результатам тестов конкурентом 4070Ti (и то в большинстве игр с максимальными настройками эффектов послабее) получается 7900XTX, а не XT.
Брать карту стоимостью в районе 100тыс. руб. чтобы на минимальных настройках играть, ну это очень странным нужно быть…