GPU подорожают из-за нейросетей
В настоящее время машинное обучение становится все более популярным и востребованным в различных областях, таких как компьютерное зрение, обработка естественного языка и автоматическое управление. Однако, для выполнения сложных вычислительных задач, связанных с машинным обучением, требуются мощные вычислительные ресурсы.

Помните, как для майнинга стали массово использовать GPU вместо CPU? Так вот для машинного обучения вполне имеет место быть такая же тенденция и это, скорее всего, результирует в рост цен на GPU.
Разница между CPU и GPU
В отличие от центрального процессора (CPU), который лучше подходит для выполнения общих операций и переключения между несколькими задачами, GPU предназначен для параллельных вычислений и разбиения сложных задач на более мелкие подзадачи. Это делает GPU идеальным для обработки больших объемов данных и поддержки сложных многоэтапных процессов, которые часто встречаются в машинном обучении.
Преимущества использования GPU для машинного обучения очевидны. Во-первых, GPU может значительно ускорить процесс обучения, что может привести к более быстрому получению результатов. Во-вторых, GPU может обеспечить эффективную обработку больших объемов данных, что может быть необходимо для решения сложных задач в области машинного обучения. Наконец, использование GPU может улучшить качество результатов, так как он может обрабатывать более сложные модели и алгоритмы.
Однако, не стоит забывать о том, что использование GPU требует дополнительных затрат на оборудование и энергопотребление. Кроме того, не все задачи в машинном обучении требуют использования GPU. Некоторые задачи могут выполняться на CPU или на других специализированных устройствах.

Как NVidia захватывает ИИ-индустрию
Теперь давайте рассмотрим немного конкретики в качестве примера. Благодаря тому, что GPU очень востребованы в области генеративного ИИ,
Графические процессоры компании Nvidia играют ключевую роль в успехе компании в области искусственного интеллекта (ИИ). Созданные в 1999 году для обработки 3D-графики в видеоиграх, GPU Nvidia были оптимизированы для выполнения общих вычислительных операций, что оказалось идеальным для выполнения алгоритмов глубокого обучения. Сегодня Nvidia принадлежит около 88% рынка графических процессоров, и многие видят в компании крупнейшего потенциального победителя в горячем пространстве генеративного ИИ.
Большие языковые модели, такие как ChatGPT и DALL-E 2, запустили генеративный ИИ в общественное сознание, и для работы этих моделей требуется тысячи графических процессоров. На самом деле, OpenAI использовала 10 000 графических процессоров Nvidia для обучения ChatGPT. Использование ChatGPT может привести к продажам Nvidia от 3 до 11 миллиардов долларов в течение 12 месяцев.
ИИ находится в «переломной точке», что приводит к тому, что все больше компаний покупают больше чипов Nvidia для разработки программного обеспечения ML. Универсальность и возможности генеративного ИИ вызвали у предприятий по всему миру острую потребность в разработке и внедрении стратегий ИИ. Благодаря своим возможностям в области параллельных вычислений, поддерживаемым тысячами вычислительных ядер, GPU Nvidia стали идеальным инструментом для выполнения алгоритмов глубокого обучения и развития генеративного ИИ. По логик вещей компания должна процветать в новых условиях.

Какие из этого следуют выводы?
Выводы из этого следуют крайне неутешительные для любителей поиграть в AAA игры с передовыми графическими движками. Потому что GPU всё чаще и чаще начинают использовать не по их традиционному назначению. Сперва видеокарты подорожали из-за хайпа вокруг майнинга криптовалют, теперь же спрос на них вырастет из-за развития нейросетей.
27 комментариев
Добавить комментарий
популярность нейросетей это миф, придуманный нейросеткой. Среднему обывателю спрашивать ChatGPT не о чем, и в генерации картинок он тоже слаб, ему бы стримерш голых в джакузи да сериалы посмотреть, ленту покрутить, лолку с вавкой погонять. Творческие области конечно GPU задействовали, но там капля в море. На вторичке столько дешевых РТХ-ов, что можно было бы годами генерить картинки, вот только это никому не надо, побаловались да успокоились.
Когда нужно — запустил, дело пяти минут, на выполнение задачи — еще три. А дальше что?
Выполнять задачи в режиме 24/7? Только если мне за это заплатят.
Вот только не платят? А почему?
Потому что сами могут развернуть нейросеть (чтобы бесплатно получить работу не нанимая специалиста), посмотрев три обучалки на ютубе...
дальше цепочку продолжить сами.
То чем занимаются простые юзвери со своими RТХсами это лишь баловство, пока это не приносит деньги, как копание воздуха — видеокарты массого скупать не будут.
Нужно. Амортизация называется. Иначе робот сломается. Ещё софт к ним покупать надо, подписки ж придумали. При том роботу платить меньше, в отличии от, ты не можешь.
Ах да, а кто роботов обслуживать будет? А как же оператор? Ну вот как вам миджорни что-то нарисует без запроса?
Ах да знаете в чём прикол? Ну хорошо продолжим логику. Ну выкинут компании кучу народу. И так каждая компания, ведь так выше производительность труда, в виду автоматизации. Как следствие ниже издержки. Т.е. эффективная форма собственности.
Но есть классное противоречие. Кто тогда чёрт возьми будет покупать товары компаний? Ведь уволив кучу народу, они перестанут получать зарплату. А без денег, они же не могут предъявлять спрос.
А 1.5 землекопа работающих обслуживающих нейросети, кучу товара не купят им столько не надо.
Вот по этому же, фирмы не вольно, но по логике системы, начали осваивать ручной китайский труд. Вы эт кстати ещё гляньте на амазон. Как там используются технологии.
Иди заставь человека купить что-то, когда у него денег ровно 0, так как откуда бы им взяться?
Во первых. Сегментация. Как сказывается на геймере покупка, тысяч карт квадро? Примерно никак. Другой сегмент рынка.
.
Во вторых. Для ML используются не только лишь GPU. Для данной задачи разрабатываются спец. блоки.
Окей вот есть уже упомянутые CPU. Рассмотрим х86.
1)Инструкция AVX-512 VNNI, инструкция для ускорения алгоритмов на основе свёрточных нейросетей.
2)Инструкция AMX, уже как раз работа с матрицами, для ускорения ИИ и машинного обучения.
3)Интегрированные спец. блоки у Intel VPU, у AMD Ryzen AI.
.
В третьих мы наконец добрались до специализированных решений. Например от Xilinx (AMD) имеем Alveo V70 AI Accelerator. И это не GPU.
.
В четвёртых, в чём проблема под растущий спрос увеличить выпуск продукции? Полупроводниковый кризис прошёл. Мощности фабрик стали доступнее. Была новость же о сокращении заказов у TSMC к примеру.
.
А нафиг вам адаптироваться под алгоритм? Достаточно ускорить работу с определёнными массивами данных и определёнными операциям.
.
Т.е. ИИ работают например зачастую с матрицами, с типами данных bfloat16, INT8, FP8 и т.д. И тебе совсем не нужно ускорять каждый конкретный алгоритм.
.
А если очень хочется ПЛИС вам в помощь.
Нет конечно понятно, что нейросеть представляет из себя матрицу с которыми мы и оперируем. С некоторыми признаками, шаблонами и весами. Но знаний все же не достаёт.
То бишь с ИИ будет намного проще тащить пропаганду. Ну, или по высказыванию журналюги БиБиСи «мы не лжем, а добросовестно заблуждаемся».
Добавить комментарий