Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Верным путём идёте, товарищ!))
avatar
Я про то и сказал) Что производительностью не могут, могут только ценой.
Увидел вегу, вспомнил как её надо в обязательном порядка андервольтить было, это последний раз когда я дал шанс АМД, продал её через пару месяцев и взял 1080ти)
avatar
А вот не факт, что через два года
— цены на 8800 будут такие же
— будет в наличии 7800
Я бы даже сказал не будут
avatar
АМД по производительности давно не могут догнать Nvidia, только ценой берут. У кого денег мало, брали и будут брать АМД. Сейчас 7900XTX стоит 1000 баксов, а сабж стоит 600) В этом плане показательна была карточка RX570/580 в своё время. Кажется мне если бы не майнеры, то она была бы в топе стима вместо 1060.
avatar
Тут же разговор был о том, что самое мощное решение для игр сейчас — это 4090. То, что 7900XTX стоит в 2 раза дешевле (на самом деле меньше уже) не делает её самой мощной. Она в принципе конкурент 4080 Super ( и цена у них ±), а никак не 4090.
avatar
Во первых, 7900XTX хуже в среднем на 20% без лучей, с лучами до 30% и выше в ряде игр. Во вторых, чем выше разрешение, тем сильнее сливает 7900XTX, а не наоборот. Посмотрите хотя бы видео hw unboxed недавнее.
Конкурент и по цене и по производительности ей скорее 4080 Super.
Есть у вас статистика сколько сгорело карт из общего числа (ни у меня, ни у друзей за год ничего не оплавилось)? Аналогичные статьи есть и про перегрев 7900XTX и отвалы чипов в результате.
Ну и на последок, 2000 баксов — это цена в последнее время (и то уже возвращается к той, которая была), из-за китайцев, которые их сотнями скупали, потому что красные не могут в нейронки и ИИ от слова совсем.
avatar
Только вот кому надо производительность 7900XTX не возьмут, ибо она как ни крути хуже 4090
avatar
Также у меня вопрос, а если бы вот например АМД сделали лучи первыми, то вы бы про АМД писали тоже самое?
avatar
Ну дак все заносят чемоданы денег, если они у них есть, чтобы какое-то время быть первыми. Те же АМД и старфилд например. А по поводу спецов, все лажают, тем более это потом поправили. Ваш то тезис был о том, что нвидиа вредит игровой индустрии. А я вижу, что нет, вносят новые технологии, реализуют тот же RT (которой так или иначе сейчас во всех современных движках) / DLSS (или если угодно аналоги от АМД FSR / Интел XeSS). И больше, они дают выбор — хочешь включай, хочешь нет. Вот если бы оно было по умолчанию включено и ты не мог просто юзать карты, как например в mesh шейдерах в AlanWake 2, то я бы даже согласился.
avatar
А вы сами то поняли? Или лишь бы ляпнуть в тему или без темы? Статья говорит о том, что в ОДНОЙ игре Crysis 2 тесселяция запределельная и грузит карту даже тогда когда нет нужды. И авторы гадают, сделала ли это Nvidia специально (потому что их карты в этом лучшие) или разрабы крайзис налажали с патчем. Более того в том же крайзисе добавили патчем настройку этой самой тесселяции, которая решила проблему.
avatar
О как владельцы карт у которых лучи не тянет заминусили то))) А самое странное, что им и на Ютубе показали разницу, и в статьях написали, но они все равно не видят))
avatar
Он не умер, он просто в другой лиге играет, всё дорогие мониторы с ним. Это так сказать технология для богатых, для всех остальных фри синк
avatar
А она есть, во всех играх dlss лучше выглядит. Другое дело, что если не знаешь куда смотреть, то можешь и не увидеть, но если раз увидел, везде будешь замечать ореолы и огрехи.
avatar
Не понимаю что плохого сделал Хуанг, если с ним игры становятся только лучше и краше, а для работы его карты просто вне конкуренции.
Ну раз без лучей Интел и АМД не смогли бы жить, тогда может лучи важны и добавляют графике красивости? Не прокатил же маркетинг с физикс, gsync, hairworks.
А раз народ голосует чеканой монетой за карты нвидиа в огромных количествах, то может просто у вас проблемы?)
avatar
Именно ухудшением графики они и занимаются, например LOD. Про DLSS никто не сказал, что на халяву, просто с каждой итерацией все меньше и меньше отличий от натива. А по поводу лучей, ваше уже ответил, хочешь включай, хочешь нет, если включил на слабом железе жрущую технологию, включай оптимизации.
avatar
Я конечно не знаю, что вам лично сделал хуанг....
Во впервых, Нвидиа глубоко срать на индустрию гейминга уже давно их основная прибыль, это вычислители сначала для майнинга, а сейчас для ИИ (а это уже лет 6 даже больше) и это видно по пунктам их выручки. Во вторых, лучи есть и у АМД и у Интел, причем оба производителя вполне себе конкурентны в в своих сегментах. В третьих, DLSS не костыль, это способ ускорения вычислений за счёт тренированной нейросети, куча других способов уже используется в играх, но для вас они стали привычными и вы можете даже не знать о их существовании. Конкретно DLSS 3.5 оптимизации расчёта лучей (дейнойзинг там и т.п.).
avatar
DLSS придуман НЕ для старых карт, он придуман для ускорения вычислений, также как и куча других технологий, которые вы уже давно считаете нормой. Если у тебя карта не тянет лучи, выключи их и играй как играл с классическим подходом к генерации освещения. Если хочешь чтобы было лучше, то включай DLSS. Посмотрим какие карты в топе стим: 3060 / 1650 / 2060 и т.п. с типом хх60 Там лучи идут только с DLSS (и то не у всех). Так что не понятно каких лохов вы имеете ввиду. Т.е. вам дают возможность играть в 60+ кадров на средних картах с лучами и ускорителем в виде DLSS или играть в 60+ кадров без лучей и костылей. Хочешь и ультра и лучи бери карту мощнее. Не понятно где тут развод?
avatar
Дак для того DLSS и придуман, чтобы такие вещи компенсировать, DLSS последних версий на качестве уже даёт картинку сопоставимую с оригиналом, а фпс порой до 2х раз поднимает. Некультурно, это было года два назад, сейчас это уже становится стандартом для карт среднего уровня.
avatar
Оптимизнут, вопрос времени. Тот же DLSS 3.5 — который с оптимизацией лучей уже шаг вперёд. Ну и тут момент, куртка такой же как и все, просто у него есть деньги для того, чтобы рискнуть. Более того огромные прибыли нвидиа вообще от гейминга сейчас не зависят, уже давно не зависят, сначала майнинг, сейчас обучение нейросетей…
avatar
Я не сказал open source решение. Я сказал стандарт открыт и доступен для всех карт которые им будут пользоваться. Суть моего ответа в том, что не Nvidia его придумала