Автопилот Tesla не распознал детей на дороге во время независимых испытаний
Организации, критикующие Tesla, провели серию испытаний, в ходе которых восемь раз воспроизвели один и тот же сценарий с участием системы Full Self-Driving. Демонстрация, прошедшая в Остине, вызвала обеспокоенность по поводу готовности полностью автономных автомобилей к реальному дорожному движению: Tesla Model Y проигнорировала мигающие сигналы школьного автобуса и знаки остановки, а также столкнулась с манекенами, имитирующими детей.
Испытания были организованы The Dawn Project совместно с Tesla Takedown и ResistAustin. По их данным, программное обеспечение Tesla повторяло одну и ту же ошибку, несмотря на предупреждения о необходимости постоянного контроля со стороны водителя.
Ранее Tesla уже подвергалась критике за аналогичные инциденты, включая смертельную аварию с участием Model S в 2024 году. Основатель The Dawn Project Дэн О'Дауд, представляющий конкурирующую компанию в сфере автопилота, неоднократно высказывался о рисках, связанных с FSD.
На фоне ожиданий запуска автономного электромобиля Cybercab Илон Маск сообщил, что компания уделяет особое внимание вопросам безопасности, и дата релиза может быть перенесена. Тем не менее, он пообещал, что 28 июня первая Tesla самостоятельно доставит себя от завода до дома клиента.
Источник: engadget.com





0 комментариев
Добавить комментарий