Обнаружение секретной конфигурации автопилота Tesla, которая позволяет системе беспилотного вождения работать без внимания водителя, не устраивает регулирующие органы США, которые сделали специальный заказ, чтобы получить больше информации для текущего расследования.
Национальная администрация безопасности дорожного движения (NHTSA) утверждает, что в глубинах программного обеспечения Tesla скрыта секретная конфигурация, которую хакер Tesla, пользующийся ником greentheonly, скрывает обнаруженный в июне и получил название «Elon Mode».
Согласно письму НАБДД [PDF] и специальный заказ, отправленный автомобильной компании Илона Маска в июле, но опубликованный на веб-сайте администрации только на этой неделе, регулирующие органы обеспокоены тем, что общедоступная информация об Elon Mode может привести к тому, что больше владельцев Tesla попытаются активировать его, а также к большему количеству проблем с безопасностью.
«Получающееся в результате ослабление контроля, призванное гарантировать, что водитель будет продолжать выполнять задачу динамичного вождения, может привести к большей невнимательности водителя и его неспособности должным образом контролировать автопилот», – заявили в NHTSA.
В своем специальном приказе NHTSA запрашивает даты, когда Elon Mode – которое оно называет «предметным обновлением программного обеспечения» – был внедрен в инженерные и потребительские автомобили Tesla. Он также хочет знать версию программного обеспечения/микропрограммы, которая первой содержала соответствующее обновление программного обеспечения, а также количество автомобилей, в которых это обновление установлено и/или активировано в обеих группах. Агентство также хочет знать, насколько легко активировать Elon Mode и любые другие различия в функциональности, связанные с этой конфигурацией.
По данным greentheonly, эта функция довольно глубоко запрятана в программном обеспечении Tesla, поэтому средний владелец Tesla не сможет ее включить. «Даже обычные люди, которые выполняют рутирование, не могут на это повлиять», — сказал greentheonly. Регистр в электронном письме. «Тем не менее, я знаю как минимум три машины, которые имеют это неофициально, и, вероятно, еще несколько, которые способны, но не используют это в то время».
NHTSA отказалось раскрыть какие-либо дополнительные подробности, сославшись на продолжающееся расследование, сообщил нам представитель.
NHTSA предоставило Tesla крайний срок для ответа — 25 августа, и компания так и сделала, но регулятор сохраняет ответ в тайне из-за наличия конфиденциальной деловой информации.
Водители Теслы
NHTSA расследует работу Tesla Autopilot с 2021 года в связи с опасениями, что усовершенствованная система помощи водителю (ADAS) заставляет водителей вести себя небезопасно, в основном из-за того, что Tesla позиционирует ее как «Автопилот», а ее бета-версию – как «Полное автономное вождение». FSD), хотя на самом деле она не лучше любой другой системы ADAS 2-го уровня на дороге (если не хуже).
В 2022 году NHTSA перешло от предварительного анализа к полному инженерному анализу после того, как обнаружило причину «изучить степень, в которой автопилот и связанные с ним системы Tesla могут усугублять человеческий фактор или риски поведенческой безопасности, подрывая эффективность надзора за водителем».
Однако Маск сказал в конце 2022 года он согласился с утверждением, что владельцам Tesla с пробегом бета-версии FSD более 10 000 миль (16 093 км) должна быть предоставлена возможность отключить рулевое колесо. В апреле Маск сказал Тесла «постепенно сокращал [the wheel nag]пропорциональна повышению безопасности».
На этой неделе Маск выразил соглашение с идеей, что устранение заеданий колес изменит правила игры в плане удовлетворенности пользователей.
Компания Tesla продолжает сообщать в NHTSA об авариях, связанных с автопилотом, в том числе со смертельным исходом, а в феврале NHTSA заставило компанию Маска отозвать и обновить программное обеспечение FSD на 362 758 автомобилях.
По данным NHTSA, отзыв был вызван тем, что ошибки FSD «могут позволить транспортному средству вести себя небезопасно на перекрестках… или выезжать на перекресток во время постоянного желтого сигнала светофора без должной осторожности».
«Кроме того, система может недостаточно реагировать на изменения установленных ограничений скорости или неадекватно учитывать корректировку водителем скорости транспортного средства для превышения установленных ограничений скорости», — заявили в NHTSA. [PDF] в уведомлении об отзыве.
Ситуация еще более усложняется тем, что в начале этого месяца инженеры Tesla заявили под присягой, что компания знала, что автопилот небезопасен, но ничего не предприняла, чтобы это исправить, в гражданском иске, поданном против Tesla в связи с аварией, в которой в 2019 году погиб 50-летний отец Джереми Баннер.
Утверждалось, что и в этом случае, и в другой аварии в 2016 году автомобили Tesla с активированным автопилотом не реагировали на наличие перекрестного движения. В иске утверждается, что это привело к тому, что автомобили проехали под прицепом полуприцепа, срезав верхние части транспортных средств и убив водителей. Показания двух инженеров автопилота позволяют предположить, что Tesla знала, что у автопилота есть проблемы с распознаванием перекрестного движения и что его также можно активировать в небезопасных ситуациях, но «в системы автопилота не было внесено никаких изменений для учета перекрестного движения».
Tesla заявила, что ей предстоит провести другие расследования со стороны Министерства юстиции США и Генеральной прокуратуры Калифорнии. Что касается расследования NHTSA, исполняющая обязанности администратора Энн Карлсон сообщила Reuters на прошлой неделе, что надеется вскоре завершить расследование с помощью автопилота; неясно, приведет ли специальный приказ к задержке запланированной администрацией даты окончания.
Тесла не ответил на вопросы по поводу этой истории. ®