Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
С точностью до наоборот. Огромные модели используют 2-3 десятка команд.
А скажем рекоммендер для веб-сайта с запасом помещается в 3090 который всех бьет по перформансу на доллар.
У Гугла есть TPU аж 6 поколения. TensorFlow тоже разрабатывается гуглом.
Однако это единственная компания которая не орет «догоним и перегоним в эту пятилетку»
https://futhark-lang.org/blog/2024-07-17-opencl-cuda-hip.html
Только там все очень сложно с настройками компиляторов.
Вывод в конце: фундаментальные проблемы из-за того что не поддерживаются современные фичи (например 1024 thread block) а там где быстро — кривые настройки компилятора
Almost all cases where OpenCL outperforms CUDA or HIP are due to unfair comparisons, such as differences in default floating-point behaviour, or scheduling decisions based on inaccurate hardware information that happens to perform well by coincidence on some workloads. On the other hand, when OpenCL is slow, it is because of more fundamental issues, such as missing functionality or API overhead
Та ладно.
Никто MX300 тысячами не скупает — ИИ бум просвистит мимо карманов Лизы
Видеокарты топовые — все. У Лизы руки опустились Хуанга догонять
Процессоры — и те бракованные. 2 раза запуск переносить…
ZLUDA — все
«While AMD had been quietly funding ZLUDA for the past two years, the company decided to discontinue its support this year for unknown reasons»
CUDA's kernel execution was also consistently faster than OpenCL's, despite the two implementations running nearly identical code.
https://arxiv.org/vc/arxiv/papers/1005/1005.2581v1.pdf
Ежедневные «утечки» о невь… ой эхвективности — и ни одного поставленного проца чтоб могли подтвердить. Точнее опровергнуть.
Развод лохов, простите нефанатов, выходит на новый уровень.
А в это время несколько команд ломанулись опускать Интел.
Чистое совпадение
А скажем рекоммендер для веб-сайта с запасом помещается в 3090 который всех бьет по перформансу на доллар.
Собственно поэтому CUDA работает на ВСЕХ картах NVidia
Однако это единственная компания которая не орет «догоним и перегоним в эту пятилетку»
Во всей партии нашли ровно 2 проца которые разогнались и не сгорели за время теста
Только там все очень сложно с настройками компиляторов.
Вывод в конце: фундаментальные проблемы из-за того что не поддерживаются современные фичи (например 1024 thread block) а там где быстро — кривые настройки компилятора
Almost all cases where OpenCL outperforms CUDA or HIP are due to unfair comparisons, such as differences in default floating-point behaviour, or scheduling decisions based on inaccurate hardware information that happens to perform well by coincidence on some workloads. On the other hand, when OpenCL is slow, it is because of more fundamental issues, such as missing functionality or API overhead
Лиза поторопилась хвастаться и сейчас обтекает
Никто MX300 тысячами не скупает — ИИ бум просвистит мимо карманов Лизы
Видеокарты топовые — все. У Лизы руки опустились Хуанга догонять
Процессоры — и те бракованные. 2 раза запуск переносить…
При том что зеленых фантиков на софт у Нвидии на порядок больше
«While AMD had been quietly funding ZLUDA for the past two years, the company decided to discontinue its support this year for unknown reasons»
https://arxiv.org/vc/arxiv/papers/1005/1005.2581v1.pdf
Это Хитрый План
Чтобы отчитаться о феерических продажах в 1-й день
Развод лохов, простите нефанатов, выходит на новый уровень.
Тем более через 3-4 года этот паровоз уже сойдет с рельс
В отличии от