Tesla планирует почти удвоить свои вычислительные мощности для обучения моделей с использованием графических процессоров во втором квартале 2026, что свидетельствует о быстром наращивании вычислительных мощностей для обучения моделей автономного вождения и робототехники.
Как сообщается в твите инсайдера Сойера Мерритта, это расширение предполагает ускорение циклов обучения для моделей Full Self-Driving, Optimus и моделей обработки изображений и языка, а также может сократить время развертывания новых итераций моделей.
Согласно предыдущим заявлениям Tesla, компания наращивает кластеры класса H100 и собственную инфраструктуру Dojo для поддержки сквозного обучения нейронных сетей, что подразумевает более высокую пропускную способность для обработки данных, контролируемой тонкой настройки и обучения с подкреплением на основе обратной связи от человека.
Как сообщалось в комментариях инвесторов во время Tesla AI Day, больший парк графических процессоров обычно приводит к более высокой скорости проведения экспериментов, обучению в более широком контексте и более частому обновлению моделей, создавая потенциальные возможности для роста бизнеса в плане внедрения программного обеспечения и рентабельности автономного вождения.
В отчёте за четвертый квартал 2025 компания подтвердила строительство Cortex 2 — нового суперкомпьютерного кластера на Gigafactory Texas. Ещё тогда сообщалось о планах в первой половине 2026 года более чем вдвое увеличить вычислительные мощности (Nvidia H100 GPU) для обучения ИИ-моделей.