Автопилот Tesla не распознал детей на дороге во время независимых испытаний

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Организации, критикующие Tesla, провели серию испытаний, в ходе которых восемь раз воспроизвели один и тот же сценарий с участием системы Full Self-Driving. Демонстрация, прошедшая в Остине, вызвала обеспокоенность по поводу готовности полностью автономных автомобилей к реальному дорожному движению: Tesla Model Y проигнорировала мигающие сигналы школьного автобуса и знаки остановки, а также столкнулась с манекенами, имитирующими детей.


Автор: thepassenger Источник: pixabay.com

Испытания были организованы The Dawn Project совместно с Tesla Takedown и ResistAustin. По их данным, программное обеспечение Tesla повторяло одну и ту же ошибку, несмотря на предупреждения о необходимости постоянного контроля со стороны водителя.

Ранее Tesla уже подвергалась критике за аналогичные инциденты, включая смертельную аварию с участием Model S в 2024 году. Основатель The Dawn Project Дэн О'Дауд, представляющий конкурирующую компанию в сфере автопилота, неоднократно высказывался о рисках, связанных с FSD.

На фоне ожиданий запуска автономного электромобиля Cybercab Илон Маск сообщил, что компания уделяет особое внимание вопросам безопасности, и дата релиза может быть перенесена. Тем не менее, он пообещал, что 28 июня первая Tesla самостоятельно доставит себя от завода до дома клиента.

Читайте также

Новости

Публикации