Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Изучай — https://pytorch.org/docs/stable/notes/hip.html https://github.com/ROCm/HIPIFY
avatar
ROCm работает и на Линуксе, и на Венде. Софт переписывать не надо. Его достаточно перекомпилировать. Да и уже сейчас хватает работающего на ROCm софта.
avatar
Ок, значит, покупать будут то, что будет доступно. И не важен цвет. Значит, Нвидия тут ровно в той же позиции, что АМД. Выгребать будут всё, что будут поставлять обе компании. Case solved.
avatar
Зачем мне слушать нонейма в комментах, когда у меня есть целая статья с опросом AI-инженеров?
avatar
Логично исходить из того, что ответили респонденты, а они назвали три причины, а не одну.
avatar
Чёрным по белому написано, что планируют переход на AMD MI300X из-за доступности, цены, производительности. В этом порядке. Только доступность всегда будет на первом месте, т.к. если железо нельзя купить, то и не важно, что там у него по цене и производительности. На AMD MI300X будут переходить не только потому что она будет в наличии, но и потому что по цене-производительности она лучше того, что предлагает Нвидия. И опять же, ничего бесплатно раздавать не надо.
avatar
Куртка сейчас на пике, потому может так смело базарить. Но это не отменяет того, что он трепло.
.
Survey Reveals AI Professionals Considering Switching From NVIDIA To AMD, Cite Instinct MI300X Performance & Cost
A recently conducted survey has revealed that a large chunk of AI professionals are looking to switch from NVIDIA to AMD Instinct MI300X GPUs.
https://wccftech.com/survey-reveals-ai-professionals-switching-nvidia-to-amd-instinct-mi300x-performance-cost/
In a survey conducted recently among 82 engineers and AI professionals, it stated 50% of the respondents are actively considering using the AMD Instinct MI300X GPU.
The top three reasons for considering the AMD MI300X are availability, cost, and performance, in that order.
We plan on using the MI300X. Are you?

И даже не надо ничего раздавать бесплатно.
avatar
Цены на кукурузу выросли.
avatar
Справляются — сильно сказано. Года три-четыре назад тестировали самый первый Крайзис на Тредриппере 3990X и Райзене 5950X — 15-20 фпс на минималках. Так как в Крайзесе, разумеется, нет нативного софтварного рендеринга, то использовали Microsoft Warp, который при отсутствии GPU позволяет рендерить графику на CPU. Возможно, если бы разработчики игры сами запилили софтварный рендеринг, то он выдал бы больше фпс, чем костыль Warp. Но это просто никому не надо — 3D-ускорители (GPU) появились как раз из-за того, что CPU не справлялись с рендерингом 3D. Если на современных многоядерных монстрах 15-20 фпс на минималках, то можно представить, что было бы на древних двухядерниках, которые были во времена выхода Крайзиса.
Но со всякими древностями вроде UT и Кваки современные процы справятся.
.
Попробовал на Ryzen 5600 ddr4-3000 в софтварном рендеринге EuroTruck Simulator 2: на самых минималках в 1080p с 25% масштаба рендера (картинка шакальная ппц) — 10 фпс с лагами. Со 100% рендеринга — 6 фпс. Наверное, на 7800X3D это даже было бы теоретически играбельно.
avatar
Тут важны детали: 14900K имеет преимущество там, где оно не нужно. Например, в CS GO у 14900K 752 фпс против 685 у 7800X3D, да только кому нахрен нужен такой фпс? Но как только берём тяжёлую игру, в Киберпанче у 14900K 172 фпс, у 7800X3D 215 фпс. В среднезначе 14900K сливается всего на 5%, но по факту если у тебя 220-240Hz монитор, то в требовательных играх 7800X3D будет лучше на 15-20%.
А если мы ещё вспомним о стоимости этих процессоров и сколько ватт они затрачивают на каждый фпс, то 14900K сосёт причмокивая.
avatar
Этот 14900KS закономерно соснёт у 7800X3D в играх, как у него сосёт 14900K. По рабочей нагрузке барахтается где-то рядом с 7950X. А если принять во внимание непомерный жор 14900K/KS, то скажем дружно «нахрен нужно».
avatar
Кому как. Я и в подобных играх вижу разницу между 30 и 60 фпс. Недавно в кинцо-Детроит играл — пришлось 60 фпс ставить, т.к. на 30 картинка рваная. 60 фпс — стандарт не просто так. «Кинематографичные» 30 фпс появились не от хорошей жизни, а от немощности консолей.
avatar
«Во-первых, винда оем не бесплатна»
Для пользователя вполне себе.

На самом деле, нет. Варианты ноутбуков/ПК с идентичным железом, но с Win стоят дороже на ~$15, чем с Linux или без ОС (при условии одинаковой доступности в магазинах).
avatar
бесплатно прилагаемого к железу производителем [...] деньги на разработку ПО потрачены, а железки, которые должны отбивать эти инвестиции, не проданы.

И ты не видишь тут никаких противоречий? Всё таки бесплатно или за него надо платить?
avatar
Поясни, где тут чужое имущество? Что именно отбирает у Нвидии автор, например, ZLUDA? Ту ведь речь о запуске на картах АМД программ, которые Нвидии не принадлежат.
avatar
Это вы не понимаете, что нет разницы, драйвера или CUDA — всё это пилится людьми на зарплате и весь затраченный бюджет в итоге ложится на плечи покупателей.
avatar
avatar
Ничего Нвидия бесплатно не отдаёт. За костыли DLSS и FG пользователи получают порезанное железо за бОльшие деньги, чем просит конкурент. За CUDA пользователи исторически платят за карты Нвидии больше, чем просит АМД. И даже если бы карты Нвидии были более дёшевы, чем карты АМД, всё равно это не означало бы, что Нвидия бесплатно свои технологии раздаёт. В разработку технологий вложен бюджет и этот бюджет так и так должен быть отбит с прибылью. И каждый затраченный бакс в результате сказывается на характеристиках и стоимости видеокарт.
avatar
Нвидия и мешала. За ней тянется длинный шлейф нечестной конкуренции, когда колоссальные™ деньги тратились не на свои железо и софт, а на палки в колёса конкурентов (из-за чего, впрочем, страдали в том числе и её же пользователи). Вот один из задокументированных случаев касательно гейминга — https://techgage.com/news/crysis_2_dx11_where_tessellation_becomes_overkill/
avatar
у которых денег не хватило на nvidia

Судя по статистике Стима, большинство «не хватило денег» обосновались как раз на nvidia. Ты чем козырять вздумал, школотрон? Затычками вроде 1650?