Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Производительность повышается только апскейлером с 20 фпс до 40. FG производительность не повышает. Он видеоряд в кадры подмешивает, но системный фпс не повышает и на скорость инпута положительно не влияет. Вы же не говорите, что видео с 60 фпс более производительно, чем видео с 24 фпс? К фейковым намалёванным кадрам термин «производительность» не применим. Не вводите людей в заблуждение, приравнивая фейковые кадры к настоящей системной производительности.
avatar
Хуангу становится плевать на своих клиентов сразу после того, как они ему деньги отдадут. И только Лиза заботится обо всех.
avatar
Ну да, придётся платить. Или покупать другой продукт. Хотя после 5000 радеонов и 16 гефорсов карт без хардварной поддержки лучей уже не будет, скорее всего. Но вон в Радеонах и тензорных ядер нет, и за лучи отвечает универсальное решение в виде рей-ускорителей, встроенных в основные ядра. Скорее всего, поэтому Радеоны стоят дешевле, давая зачастую бОльшую производительность в растре. Не нужны лучи — берите Радеоны. Какие проблемы?
avatar
Речь о рейтрейсинге.
avatar
Уже понял, где облажался? Впредь головой думай, прежде чем писать что либо.
avatar
Ты сказал, что кто-то не в состоянии заработать на Нвидию. Я тебя ещё раз спрашиваю: ты в курсе, что 4070Ti стоит дешевле, чем 7900XTX?
avatar
У 4060 в Плэйг Тейл 55 фпс, у 1060 — ноль. В Элден Ринг у 4060 50 фпс, у 1060 — ноль. Плюс на 4060 можно DLSS2/DLSS3 заколхозить. Устраивает ли тебя производительность 4060 в лучах и нужен ли тебе DLSS — это лично твоё дело. Но тензорные ядра в 4060 есть и ты за них заплатишь, даже если не будешь ими пользоваться. Потому оценка справедливости цен на 10 и 40 серии, отталкиваясь чисто от растра — необъективна.
avatar
Нет, не такой же. Да и 1063 от 1066 отличалась не только объёмом памяти, но и производительностью гпу.
В любом случае, какая производительность у 10 серии в лучах? То-то же.
avatar
Сейчас бы по шине судить, кто там чей наследник. У 4060Ti16GB тоже 128 бит. Наследница 1050?
avatar
Вспоминаем про инфляцию и выясняем, что даже если отталкиваться от 1060 за $250, сегодня это $320. Так у 40 серии есть RT и тенсорные ядра + под неё всякие DLSS разрабатывают. Вы же не думали, что всё это бесплатно?
avatar
1060 стоила $250 за стандартное издание и $300 за FE. 4060 стоит $300.
Требуются ваши пояснения.
avatar
Ты же в курсе, что 4070Ti стоит дешевле, чем 7900XTX?
avatar
О каких же ресурсах речь, если не о дополнительных блоках вроде тензорных ядер? Исключи из карт подобные блоки и это будут по большому счёту одни и те же карты, работающие с одними и теми же инструкциями и все отличия будут на уровне драйвера и мощности железа.
Самый очевидный пример, фср работает намного хуже на картах нвидиа чем длсс

Не намного, что уже много раз обозревалось хотя бы Hardware Unboxed. Разница от небольшой до умеренной. В некоторых играх они вообще равны.
так как длсс заточен на использование специализированных блоков на жефорсах, которые фср не может полноценно использовать

Я буквально в прошлом комменте пишу о дополнительных блоках, ты мне в ответ вопрошаешь «чё за блоки о чём ты?», а теперь сам рассказываешь о дополнительных блоках.
И вот вопрос, а будет ли фср задействовать ВСЕ блоки на процессорах апла

«Какие блоки? О чём ты?»
.
Ты для начала узнай, есть ли в процессорах Эппл дополнительные блоки, которые могут быть использованы апскейлерами.
.
А я повторю то, что написал ранее и что ты сначала оспорил, а потом сам подтвердил: с «привязкой к архитектуре» решение работает на дополнительных блоках, за которые пользователь платит вне зависимости от того, использует ли он их.
FSR универсален. Пусть он не использует какие либо уникальные дополнительные блоки, но зато он работает там, где этих блоков нет и за них не надо доплачивать. Раз Эппл выбрала FSR, значит, у неё тоже нет никаких специализированных под апскейлеры блоков. Либо она просто оптимизирует FSR под их использование.
avatar
С «привязкой к архитектуре» решение работает на дополнительных блоках, за которые пользователь платит вне зависимости от того, использует ли он их.
avatar
FSR создавался в отрыве от конкретных архитектур, чтобы работать на любых ГПУ. Да и Яблоко не является конкурентом АМД, потому ей не надо пилить свой велосипед, сохраняя лицо. Яблоко и свой Game Porting Toolkit, который запускает Вендовые игры на Маке, построила на основе CrossOver, который линуксовый Wine. Вполне разумный подход. Лишь бы наработки свои отправляли обратно в апстрим.
avatar
Т.е. смысл этого DLSS — подождать год или два, а то и три, когда появятся игры, которые тормозят, и тогда использовать DLSS как некую галочку «последней надежды», которая поднимает FPS, не сильно ухудшая качество. Но если оно и так не тормозит — зачем DLSS нужен? А реально, игры как раз под него и стали писать, т.е. считается, что ты его включить обязан, чтобы не тормозило. Т.е. купил новую плату вместо старой, чтобы было быстро, и обязан использовать DLSS! Мне одному кажется, что это глупость?

Так решили Нвидия, разработчики и недалёкие геймеры, которых легко облапошила Нвидия и её преданные фанаты. Так-то всё звучит верно: апскейл — технология последней надежды для старой карты и вспоминать про неё стоит года через два-три после покупки (а то и позже). Но это в идеале. А на практике, что Нвидия, что её проплаченные боты и просто тупорылые фанбои начали «продавать» DLSS вместе с новой картой. Я часто бываю на крупном форуме по вопросам железа и там всем вопрошающим всю дорогу впариваются Гефорсы с аргументацией «DLSS2 лучше, а тут ещё и DLSS3». Когда за ту же цену реальная производительность Гефорсов ниже, чем у Радеонов. (Правда, кто так взял 30 серию, пролетели мимо DLSS3 и теперь о них будет заботится АМД, от чего ещё смешнее. Но вы берите 40 серию, чтобы с выходом 50-ой вам по губам поводили очередным DLSS4.)
.
И разработчики это просекли. Если апскейл стал нормой для новых карт, то зачем тратиться на оптимизацию игр, когда можно сразу в системных требованиях указывать апскейл, как необходимость даже для новых карт? Тем более если за это ещё и Нвидия денюжку заносит. Alan Wake 2 в 4К на высоких без лучей? Конечно, берите 4070. Только DLSS Performance не забудьте, который будет апскелить вам «4К» из 1080р.
Массовый потребитель никогда не отличался умом и сообразительностью. Так что ждём, когда FG станет неотъемлемой частью системных требований и реальные 60 кадров ты не получишь даже на топе.
avatar
Последняя является технологией с открытым исходным кодом, так что Apple, вероятно, ничего не платит AMD.

Открытое — не означает бесплатное. Этот вопрос регулируются лицензией, под которой открыт исходный код. И вот по ней FSR бесплатен.
avatar
Новый техпроцесс — это архитектурные изменения делать надо. Ради одной карты никто этом заниматься не будет, т.к. не окупится. Не окупится и перевыпуск всей линейки. Тем более за это ещё и раскритиковать могут.
avatar
Ещё на релизе 4090 был слух, что Ti не выпустили из-за того, что у неё чип горел из-за потребления. 4090 и так в гейминге до 450W доходит с пиками до 480W, а в стресстестах пики до 500W.
Хотя тут вообще пики до 662W словили — https://tpucdn.com/review/msi-geforce-rtx-4090-gaming-x-trio/images/power-spikes.png
Между 3090 и 3090Ti разница ~170W жора. 4090 такое не потянула бы. Да и СО скорее всего просто не влезла бы ни в один корпус.
avatar
но не с Windows или Linux

Но есть один нюанс: ChromeOS — это Linux. Пусть и не тот GNU, который на десктопах.