GPU подорожают из-за нейросетей

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

В настоящее время машинное обучение становится все более популярным и востребованным в различных областях, таких как компьютерное зрение, обработка естественного языка и автоматическое управление. Однако, для выполнения сложных вычислительных задач, связанных с машинным обучением, требуются мощные вычислительные ресурсы.


Автор: Midjourney

Помните, как для майнинга стали массово использовать GPU вместо CPU? Так вот для машинного обучения вполне имеет место быть такая же тенденция и это, скорее всего, результирует в рост цен на GPU.

Разница между CPU и GPU

В отличие от центрального процессора (CPU), который лучше подходит для выполнения общих операций и переключения между несколькими задачами, GPU предназначен для параллельных вычислений и разбиения сложных задач на более мелкие подзадачи. Это делает GPU идеальным для обработки больших объемов данных и поддержки сложных многоэтапных процессов, которые часто встречаются в машинном обучении.

Преимущества использования GPU для машинного обучения очевидны. Во-первых, GPU может значительно ускорить процесс обучения, что может привести к более быстрому получению результатов. Во-вторых, GPU может обеспечить эффективную обработку больших объемов данных, что может быть необходимо для решения сложных задач в области машинного обучения. Наконец, использование GPU может улучшить качество результатов, так как он может обрабатывать более сложные модели и алгоритмы.

Однако, не стоит забывать о том, что использование GPU требует дополнительных затрат на оборудование и энергопотребление. Кроме того, не все задачи в машинном обучении требуют использования GPU. Некоторые задачи могут выполняться на CPU или на других специализированных устройствах.

Автор: Midjourney

Как NVidia захватывает ИИ-индустрию

Теперь давайте рассмотрим немного конкретики в качестве примера. Благодаря тому, что GPU очень востребованы в области генеративного ИИ,

Графические процессоры компании Nvidia играют ключевую роль в успехе компании в области искусственного интеллекта (ИИ). Созданные в 1999 году для обработки 3D-графики в видеоиграх, GPU Nvidia были оптимизированы для выполнения общих вычислительных операций, что оказалось идеальным для выполнения алгоритмов глубокого обучения. Сегодня Nvidia принадлежит около 88% рынка графических процессоров, и многие видят в компании крупнейшего потенциального победителя в горячем пространстве генеративного ИИ.


Большие языковые модели, такие как ChatGPT и DALL-E 2, запустили генеративный ИИ в общественное сознание, и для работы этих моделей требуется тысячи графических процессоров. На самом деле, OpenAI использовала 10 000 графических процессоров Nvidia для обучения ChatGPT. Использование ChatGPT может привести к продажам Nvidia от 3 до 11 миллиардов долларов в течение 12 месяцев.

ИИ находится в «переломной точке», что приводит к тому, что все больше компаний покупают больше чипов Nvidia для разработки программного обеспечения ML. Универсальность и возможности генеративного ИИ вызвали у предприятий по всему миру острую потребность в разработке и внедрении стратегий ИИ. Благодаря своим возможностям в области параллельных вычислений, поддерживаемым тысячами вычислительных ядер, GPU Nvidia стали идеальным инструментом для выполнения алгоритмов глубокого обучения и развития генеративного ИИ. По логик вещей компания должна процветать в новых условиях.

Автор: Midjourney

Какие из этого следуют выводы?

Выводы из этого следуют крайне неутешительные для любителей поиграть в AAA игры с передовыми графическими движками. Потому что GPU всё чаще и чаще начинают использовать не по их традиционному назначению. Сперва видеокарты подорожали из-за хайпа вокруг майнинга криптовалют, теперь же спрос на них вырастет из-за развития нейросетей.