
[ad_1]
Последняя версия бета-версии автопилота полного самостоятельного вождения (FSD) Tesla имеет небольшую особенность: по словам группы кампании, она не замечает на своем пути объекты размером с ребенка.
В тестах, проведенных The Dawn Project с использованием Tesla Model 3, оснащенной FSD версии 10.12.2 (последняя, выпущенная 1 июня), автомобилю дали 120 ярдов (110 метров) по прямой дороге между двумя рядами конусов с ребенком. размер манекен в конце.
Группа заявляет, что «руки водителя-испытателя никогда не были на руле». Важно отметить, что Тесла говорит, что автопилот не является полностью автономной системой и только обеспечивает водителю функции круиз-контроля и помощи. Вы должны держать руки на руле и быть в состоянии вступить во владение в любое время.
Двигаясь со скоростью примерно 25 миль в час (около 40 км/ч), Tesla каждый раз сталкивалась с манекеном.
Что касается результатов, Dawn Project заявил, что расстояния в 100 ярдов более чем достаточно, чтобы человек-водитель заметил ребенка, заявив: «Программное обеспечение полного самостоятельного вождения Tesla неоднократно не проходит этот простой и важный для безопасности тест с потенциально смертельными результатами».
«Илон Маск говорит, что программное обеспечение Tesla для полного самостоятельного вождения «потрясающе». Это не… Это худшее коммерческое программное обеспечение, которое я когда-либо видел», — сказал основатель проекта Дэн О’Дауд в видео, которое он разместил в Твиттере вместе с результатами.
Наш новый тест на безопасность @ЭлонМаскПолностью самоуправляемые автомобили Tesla обнаружили, что они без разбора косят детей. Сегодня @RealDawnProject запускает общенациональную телевизионную рекламную кампанию с требованием @NHTSAgov запретить полное самостоятельное вождение до @ЭлонМаск доказывает, что он не косит детей. pic.twitter.com/i5Jtb38GjH
— Дэн О’Дауд (@RealDanODowd) 9 августа 2022 г.
О’Дауд, который также основал Green Hills Software в 1982 году и выступает за безопасность программного обеспечения, некоторое время был противником Tesla, даже подав заявку в Сенат США в Калифорнии, которая была сосредоточена на полицейской деятельности Tesla как на способе говорить о более широкой кибербезопасности. вопросы. Заявка О’Дауда в Сенат закончилась в июне, когда он проиграл предварительные выборы Демократической партии.
Заявленная цель Dawn Project — «сделать компьютеры безопасными для человечества». Tesla FSD — первая кампания Проекта.
Небольшой размер выборки
Стоит отметить, что тесты FSD 10.12.2, проведенные The Dawn Project 21 июня в Розамонде, Калифорния, состояли всего из трех прогонов. Это небольшой размер выборки, но, учитывая другие тесты Autopilot и статистику, это не является неожиданным.
Сбои в работе автопилота Tesla якобы стали причиной нескольких несчастных случаев со смертельным исходом, в которых участвовали как водители, так и пешеходы на протяжении многих лет. В прошлом году Tesla откатила выпуски программного обеспечения FSD после того, как были обнаружены программные ошибки, которые вызывали проблемы с левым поворотом, над чем Tesla все еще работает.
В начале июня Национальная администрация безопасности дорожного движения США обновила исследование автопилота Tesla после того, как обнаружила причины для изучения того, могут ли «автопилот и связанные с ним системы Tesla усугублять человеческий фактор или риски для безопасности поведения». Расследование продолжается.
Через неделю после объявления о своем расследовании НАБДД заявило, что автопилот Tesla (работающий на уровне 2, а не FSD) участвовал в 270 из 394 аварий с участием водителя — около 70 процентов — которые были занесены в каталог в рамках расследования безопасности помощи водителю. технологии.
Совсем недавно Департамент транспортных средств Калифорнии подал жалобу на Tesla, утверждая, что она исказила заявления о том, что автомобили могут двигаться автономно. Если Tesla не ответит на претензии DMV до конца этой недели, дело будет урегулировано по умолчанию и может привести к тому, что автопроизводитель потеряет лицензию на продажу автомобилей в Калифорнии.
Проект Dawn сообщил, что NHTSA быстро отреагировало на отзыв функций Tesla, указав на вызванный NHTSA отзыв Tesla кода FSD, который позволял Tesla проезжать мимо знаков остановки, и отключение Tesla Boombox.
Проект Dawn говорит, что его исследование «гораздо более серьезное и срочное». ®
[ad_2]