Невнимательность водителей в сочетании с недостатками технологий Tesla Autopilot и Full Self-Driving (FSD) привели к сотням травм и десяткам смертей. Об этом говорится в отчете NHTSA.
Согласно выводам, пользователи этих систем «не были достаточно вовлечены в управление автомобилем». В то же время сами технологии Tesla «не обеспечивали должного уровня внимания водителей».
В общей сложности с января 2018 по август 2023 года регулятор расследовал 956 ДТП. В этих авариях, некоторые из которых включали столкновение других машин с Tesla, погибли 29 человек.
Также агентство зафиксировало 211 инцидентов, в которых «лобовая часть автомобиля Tesla ударилась о транспортное средство или препятствие на своем пути». В наиболее серьезных случаях 14 человек погибли, а 49 получили ранения.
NHTSA инициировало расследование после того, когда водители Tesla врезались в неподвижные аварийные автомобили, припаркованные на обочине. Большинство этих инцидентов произошло в вечернее и ночное время, при этом программное обеспечение игнорировало меры по контролю за обстановкой на дороге вроде предупреждающих огней, сигнальных ракет, конусов и светового табло со стрелками.
Водители на автопилоте не успевают вовремя реагировать
В своем отчете агентство пришло к выводу, что Autopilot и, в некоторых случаях FSD, не были разработаны так, чтобы удерживать внимание водителя за рулем. Tesla в свою очередь предупреждает клиентов о необходимости быть начеку при использовании этих технологий, включая необходимость держать руки на руле и смотреть на дорогу.
Однако, по данным NHTSA, во многих случаях водители становились слишком самоуверенными и теряли концентрацию внимания. А когда приходило время реагировать на опасную ситуацию, зачастую было уже слишком поздно.
В 59 изученных авариях агентство обнаружило, что у водителей Tesla было достаточно времени — пять или более секунд до столкновения с другим объектом — чтобы среагировать. В 19 угроза была очевидна за 10 и более секунд.
Изучив журналы данных и предоставленную Tesla информацию NHTSA обнаружила, что в большинстве подобных ситуаций водители не успевали ни затормозить, ни повернуть руль для избежания столкновения.
«Аварии, в которых водитель не предпринял никаких или запоздалых попыток уклонения, обнаружены во всех версиях оборудования Tesla и обстоятельствах происшествия», — заявили в NHTSA.
Tesla дает слишком большие обещания
NHTSA также сравнила функции автоматизации уровня 2 (L2) Tesla с продуктами других автопроизводителей. В отличие от конкурентов, Autopilot отключается, а не позволяет водителю корректировать рулевое управление. По словам NHTSA, это «отбивает охоту» у водителей оставаться начеку за рулем.
«Сравнение конструкторских решений Tesla с аналогичными решениями L2 позволило выявить, что компания является изгоем отрасли в своем подходе к технологии, поскольку слабая система вовлечения водителя не сочетается с разрешительными возможностями Autopilot», — говорится в сообщении агентства.
Даже название бренда Autopilot вводит в заблуждение, заявили в NHTSA. Оно якобы наводит на мысль, что водитель не контролирует ситуацию.
В то время как другие компании используют некоторые варианты слов «помощь», «чувство» или «команда», продукты Tesla убеждают водителей в том, что они обладают большими возможностями, чем есть на самом деле.
Генеральный прокурор Калифорнии и Департамент автотранспорта штата ведут расследование в отношении компании по поводу вводящего в заблуждение брендинга и маркетинга.
NHTSA признает, что его расследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. На самом деле аварий с участием Autopilot и FSD может быть гораздо больше, чем удалось обнаружить агентству.
Обновление Autopilot не решило проблемы безопасности
В конце прошлого года Tesla выпустила добровольный отзыв ПО в ответ на расследование NHTSA, обновив программу для добавления дополнительных предупреждений в Autopilot. Однако NHTSA заявило о начале нового расследования, так как ряд экспертов по безопасности указали на «неадекватность» предпринятых мер, допускающих некорректное использование систем помощи водителю.
Результаты расследования противоречат утверждениям главы Tesla Илона Маска о том, что его компания занимается разработкой ИИ и находится на пороге выпуска полностью беспилотного электрокара для личного пользования. В конце этого года он планирует представить роботакси, которое должно открыть новую эру для автопроизводителя.
На прошлой неделе в ходе отчета о прибылях за первый квартал Маск вновь заявил, что транспортные средства Tesla безопаснее машин под управлением человека.
«Если статистически значимый объем данных убедительно показывает, что беспилотный автомобиль, скажем, в два раза реже попадает в аварии, чем автомобиль с человеческим управлением, я думаю, это трудно игнорировать», — сказал Маск.
Он считает, что прекращение эксплуатации самоходных автомобилей равноценно «убийству людей».
Илон Маск нацелен на китайский рынок
Одновременно с выходом отчета NHTSA Маск отправился с неанонсированным визитом в Китай. По данным источников, одним из обсуждаемых вопросов стало обсуждение внедрения Autopilot и FSD в стране.
Ранее Маск написал в X, что Tesla может сделать Full Self-Driving доступным для клиентов в Китае «очень скоро».
It may be possible very soon
— Elon Musk (@elonmusk) April 20, 2024
Китайская государственная телекомпания CCTV в своем репортаже о встрече Маска с премьер-министром КНР Ли Цяном не сообщила, обсуждали ли они FSD или данные.
Поездка Маска состоялась чуть больше недели спустя после того, как он отменил запланированный визит в Индию для встречи с премьер-министром Нарендрой Моди.
Напомним, в мае 2023 года министр транспорта США Пит Буттиджич раскритиковал автопилот Tesla.
Источник: https://forklog.com/news/ai/otchet-tesla-autopilot-i-full-self-driving-prichastny-k-sotnyam-avarij-i-desyatkam-smertej
Подпишитесь на телеграм-канал @FeedBitcoin и будьте в курсе всех событий в мире биткоин и криптовалют!
Биткоин бесплатно получить
Купить, продать, обменять Биткоин