Tesla вдвое увеличит вычислительные мощности для обучения моделей на GPU уже во втором квартале 2026

Для Full Self-Driving, Optimus и моделей обработки изображений

Tesla планирует почти удвоить свои вычислительные мощности для обучения моделей с использованием графических процессоров во втором квартале 2026, что свидетельствует о быстром наращивании вычислительных мощностей для обучения моделей автономного вождения и робототехники.

Как сообщается в твите инсайдера Сойера Мерритта, это расширение предполагает ускорение циклов обучения для моделей Full Self-Driving, Optimus и моделей обработки изображений и языка, а также может сократить время развертывания новых итераций моделей.

Изображение Grok

Согласно предыдущим заявлениям Tesla, компания наращивает кластеры класса H100 и собственную инфраструктуру Dojo для поддержки сквозного обучения нейронных сетей, что подразумевает более высокую пропускную способность для обработки данных, контролируемой тонкой настройки и обучения с подкреплением на основе обратной связи от человека.

Как сообщалось в комментариях инвесторов во время Tesla AI Day, больший парк графических процессоров обычно приводит к более высокой скорости проведения экспериментов, обучению в более широком контексте и более частому обновлению моделей, создавая потенциальные возможности для роста бизнеса в плане внедрения программного обеспечения и рентабельности автономного вождения.

В отчёте за четвертый квартал 2025 компания подтвердила строительство Cortex 2 — нового суперкомпьютерного кластера на Gigafactory Texas. Ещё тогда сообщалось о планах в первой половине 2026 года более чем вдвое увеличить вычислительные мощности (Nvidia H100 GPU) для обучения ИИ-моделей.