
Tesla снова оказалась в центре судебного разбирательства – и на этот раз без намеков на фантастику, хотя сюжет близок. В США владелец Cybertruck подал иск на $1 млн после того, как его электропикап с включенным Full Self-Driving (FSD) едва не устроил «полет» с эстакады.

Инцидент произошел в 2025 году. По словам истца, система FSD решила, что траектория движения – дело творческое, и направила автомобиль слишком близко к краю эстакады. В этот момент водителю пришлось срочно брать управление на себя.
В иске также указано, что:
- система FSD сработала некорректно;
- Tesla недостаточно информирует пользователей о рисках;
- произошедшее создало угрозу жизни и здоровью.
Но несмотря на все громкие рекламные лозунги, в Tesla действительно неоднократно подчеркивали, что FSD – это все еще ассистент, а не автопилот в полном смысле слова. Т.е. руки на руле, внимание на дороге и никакой веры в «само поедет». Однако подобные ДТП регулярно возвращают общественную дискуссию к одному вопросу: насколько пользователи действительно понимают границы системы?
Контекст усиливается и на фоне общего давления на производителей, развивающих технологии автономного вождения. В последние годы регуляторы и отраслевые организации требуют большей прозрачности в вопросах безопасности и ограничений таких систем.