Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
ROCm работает и на Линуксе, и на Венде. Софт переписывать не надо. Его достаточно перекомпилировать. Да и уже сейчас хватает работающего на ROCm софта.
Ок, значит, покупать будут то, что будет доступно. И не важен цвет. Значит, Нвидия тут ровно в той же позиции, что АМД. Выгребать будут всё, что будут поставлять обе компании. Case solved.
Чёрным по белому написано, что планируют переход на AMD MI300X из-за доступности, цены, производительности. В этом порядке. Только доступность всегда будет на первом месте, т.к. если железо нельзя купить, то и не важно, что там у него по цене и производительности. На AMD MI300X будут переходить не только потому что она будет в наличии, но и потому что по цене-производительности она лучше того, что предлагает Нвидия. И опять же, ничего бесплатно раздавать не надо.
Куртка сейчас на пике, потому может так смело базарить. Но это не отменяет того, что он трепло.
.
Survey Reveals AI Professionals Considering Switching From NVIDIA To AMD, Cite Instinct MI300X Performance & Cost
A recently conducted survey has revealed that a large chunk of AI professionals are looking to switch from NVIDIA to AMD Instinct MI300X GPUs.
https://wccftech.com/survey-reveals-ai-professionals-switching-nvidia-to-amd-instinct-mi300x-performance-cost/
In a survey conducted recently among 82 engineers and AI professionals, it stated 50% of the respondents are actively considering using the AMD Instinct MI300X GPU.
The top three reasons for considering the AMD MI300X are availability, cost, and performance, in that order.
We plan on using the MI300X. Are you?
Справляются — сильно сказано. Года три-четыре назад тестировали самый первый Крайзис на Тредриппере 3990X и Райзене 5950X — 15-20 фпс на минималках. Так как в Крайзесе, разумеется, нет нативного софтварного рендеринга, то использовали Microsoft Warp, который при отсутствии GPU позволяет рендерить графику на CPU. Возможно, если бы разработчики игры сами запилили софтварный рендеринг, то он выдал бы больше фпс, чем костыль Warp. Но это просто никому не надо — 3D-ускорители (GPU) появились как раз из-за того, что CPU не справлялись с рендерингом 3D. Если на современных многоядерных монстрах 15-20 фпс на минималках, то можно представить, что было бы на древних двухядерниках, которые были во времена выхода Крайзиса.
Но со всякими древностями вроде UT и Кваки современные процы справятся.
.
Попробовал на Ryzen 5600 ddr4-3000 в софтварном рендеринге EuroTruck Simulator 2: на самых минималках в 1080p с 25% масштаба рендера (картинка шакальная ппц) — 10 фпс с лагами. Со 100% рендеринга — 6 фпс. Наверное, на 7800X3D это даже было бы теоретически играбельно.
Тут важны детали: 14900K имеет преимущество там, где оно не нужно. Например, в CS GO у 14900K 752 фпс против 685 у 7800X3D, да только кому нахрен нужен такой фпс? Но как только берём тяжёлую игру, в Киберпанче у 14900K 172 фпс, у 7800X3D 215 фпс. В среднезначе 14900K сливается всего на 5%, но по факту если у тебя 220-240Hz монитор, то в требовательных играх 7800X3D будет лучше на 15-20%.
А если мы ещё вспомним о стоимости этих процессоров и сколько ватт они затрачивают на каждый фпс, то 14900K сосёт причмокивая.
Этот 14900KS закономерно соснёт у 7800X3D в играх, как у него сосёт 14900K. По рабочей нагрузке барахтается где-то рядом с 7950X. А если принять во внимание непомерный жор 14900K/KS, то скажем дружно «нахрен нужно».
Кому как. Я и в подобных играх вижу разницу между 30 и 60 фпс. Недавно в кинцо-Детроит играл — пришлось 60 фпс ставить, т.к. на 30 картинка рваная. 60 фпс — стандарт не просто так. «Кинематографичные» 30 фпс появились не от хорошей жизни, а от немощности консолей.
«Во-первых, винда оем не бесплатна»
Для пользователя вполне себе.
На самом деле, нет. Варианты ноутбуков/ПК с идентичным железом, но с Win стоят дороже на ~$15, чем с Linux или без ОС (при условии одинаковой доступности в магазинах).
Поясни, где тут чужое имущество? Что именно отбирает у Нвидии автор, например, ZLUDA? Ту ведь речь о запуске на картах АМД программ, которые Нвидии не принадлежат.
Это вы не понимаете, что нет разницы, драйвера или CUDA — всё это пилится людьми на зарплате и весь затраченный бюджет в итоге ложится на плечи покупателей.
Ничего Нвидия бесплатно не отдаёт. За костыли DLSS и FG пользователи получают порезанное железо за бОльшие деньги, чем просит конкурент. За CUDA пользователи исторически платят за карты Нвидии больше, чем просит АМД. И даже если бы карты Нвидии были более дёшевы, чем карты АМД, всё равно это не означало бы, что Нвидия бесплатно свои технологии раздаёт. В разработку технологий вложен бюджет и этот бюджет так и так должен быть отбит с прибылью. И каждый затраченный бакс в результате сказывается на характеристиках и стоимости видеокарт.
Нвидия и мешала. За ней тянется длинный шлейф нечестной конкуренции, когда колоссальные™ деньги тратились не на свои железо и софт, а на палки в колёса конкурентов (из-за чего, впрочем, страдали в том числе и её же пользователи). Вот один из задокументированных случаев касательно гейминга — https://techgage.com/news/crysis_2_dx11_where_tessellation_becomes_overkill/
.
Survey Reveals AI Professionals Considering Switching From NVIDIA To AMD, Cite Instinct MI300X Performance & Cost
A recently conducted survey has revealed that a large chunk of AI professionals are looking to switch from NVIDIA to AMD Instinct MI300X GPUs.
https://wccftech.com/survey-reveals-ai-professionals-switching-nvidia-to-amd-instinct-mi300x-performance-cost/
И даже не надо ничего раздавать бесплатно.
Но со всякими древностями вроде UT и Кваки современные процы справятся.
.
Попробовал на Ryzen 5600 ddr4-3000 в софтварном рендеринге EuroTruck Simulator 2: на самых минималках в 1080p с 25% масштаба рендера (картинка шакальная ппц) — 10 фпс с лагами. Со 100% рендеринга — 6 фпс. Наверное, на 7800X3D это даже было бы теоретически играбельно.
А если мы ещё вспомним о стоимости этих процессоров и сколько ватт они затрачивают на каждый фпс, то 14900K сосёт причмокивая.
На самом деле, нет. Варианты ноутбуков/ПК с идентичным железом, но с Win стоят дороже на ~$15, чем с Linux или без ОС (при условии одинаковой доступности в магазинах).
И ты не видишь тут никаких противоречий? Всё таки бесплатно или за него надо платить?
Судя по статистике Стима, большинство «не хватило денег» обосновались как раз на nvidia. Ты чем козырять вздумал, школотрон? Затычками вроде 1650?