Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Точно блин. 2-й перенос — никак название поправить не могут.
А в это время несколько команд ломанулись опускать Интел.
Чистое совпадение
avatar
С точностью до наоборот. Огромные модели используют 2-3 десятка команд.
А скажем рекоммендер для веб-сайта с запасом помещается в 3090 который всех бьет по перформансу на доллар.
avatar
Привязаны на 90%. Основные блоки одни и те же.
Собственно поэтому CUDA работает на ВСЕХ картах NVidia
avatar
У Гугла есть TPU аж 6 поколения. TensorFlow тоже разрабатывается гуглом.
Однако это единственная компания которая не орет «догоним и перегоним в эту пятилетку»
avatar
АМД купирует последствия 2-го переноса.
Во всей партии нашли ровно 2 проца которые разогнались и не сгорели за время теста
avatar
https://futhark-lang.org/blog/2024-07-17-opencl-cuda-hip.html
Только там все очень сложно с настройками компиляторов.
Вывод в конце: фундаментальные проблемы из-за того что не поддерживаются современные фичи (например 1024 thread block) а там где быстро — кривые настройки компилятора
Almost all cases where OpenCL outperforms CUDA or HIP are due to unfair comparisons, such as differences in default floating-point behaviour, or scheduling decisions based on inaccurate hardware information that happens to perform well by coincidence on some workloads. On the other hand, when OpenCL is slow, it is because of more fundamental issues, such as missing functionality or API overhead
avatar
Откуда всплыла? Ни у кого нет
Лиза поторопилась хвастаться и сейчас обтекает
avatar
У них всё хорошо
Та ладно.
Никто MX300 тысячами не скупает — ИИ бум просвистит мимо карманов Лизы
Видеокарты топовые — все. У Лизы руки опустились Хуанга догонять
Процессоры — и те бракованные. 2 раза запуск переносить…
avatar
Как насчет отладить и достичь скорости и надежности которые НВидия оттачивала 10+ лет?
При том что зеленых фантиков на софт у Нвидии на порядок больше
avatar
ZLUDA — все
«While AMD had been quietly funding ZLUDA for the past two years, the company decided to discontinue its support this year for unknown reasons»
avatar
Нельзя было свои линии наладить?
Что же Вы АМД не критикуете за отсутствие фабрик?
avatar
CUDA's kernel execution was also consistently faster than OpenCL's, despite the two implementations running nearly identical code.
https://arxiv.org/vc/arxiv/papers/1005/1005.2581v1.pdf
avatar
Версия запущена самой АМД среди самых альтернативно одаренных фанатов
avatar
Не может же такого быть чтоб Лиза облажалась.
Это Хитрый План
avatar
весь мир сговорился огорчить мамкиного пирожка
avatar
Так нагнетают 2-сортными игрушками.
Чтобы отчитаться о феерических продажах в 1-й день
avatar
Ежедневные «утечки» о невь… ой эхвективности — и ни одного поставленного проца чтоб могли подтвердить. Точнее опровергнуть.
Развод лохов, простите нефанатов, выходит на новый уровень.
avatar
Ну АМД выкатила mi300x — и куда она его закатила???
Тем более через 3-4 года этот паровоз уже сойдет с рельс
avatar
ИИ то лопнет, как лопнул дот ком — но Интернет остался и производители сетевого железа не обеднели ну ни разу
avatar
Я из другого лагеря. Мы там головой пользуемся.
В отличии от