БутикАвто — покупка и продажа авто в Минске
Нужен хороший авто - Вам в BUTIKAVTO
г. Минск, ул. Корженевского, 16Г
г. Минск, ул. Корженевского, 16Г
г. Гомель, ул. Жукова, 23
г. Солигорск, ул. Октябрьская, 40
г. Жлобин, ул. Карла Маркса, 1В
Лидский р-н, аг. Ёдки, ул. Придорожная, 7А
г. Гродно, ул. Тавлая, 1
г. Бобруйск, ул. Крылова, 21
г. Барановичи, ул. Тельмана, 205
г. Барановичи, ул. Наконечникова, 31В
г. Борисов, ул. Галицкого, 2
г. Могилев, ул. Мовчанского, 4-Б
г. Витебск, ул. Воинов Интернационалистов 31
г. Полоцк, ул. Юбилейная, 10а
г. Мозырь, ул. Гагарина, 99
г. Молодечно, ул. Тамары Дудко, 1А
г. Брест, ул. 28 Июля, 28
г. Пинск, ул. Рокоссовского, 17В
г. Минск, ул. Рудобельская, 3
г. Лида, ул. Космонавтов, 1
г. Могилев, ул. Габровская, 23А
г. Орша, ул. Пограничная улица, 2А
Минск
ГлавнаяАвтожурналВиновен на 33%: почему мир не готов к автопилоту
Виновен на 33%: почему мир не готов к автопилоту
Виновен на 33%: почему мир не готов к автопилоту
11 марта
541

Виновен на 33%: почему мир не готов к автопилоту

author
Валерия Попкова

Представьте: вы садитесь в машину, задаете маршрут и просто едете – без руля, педалей и какого-либо напряжения. Именно такое будущее с автопилотом нам обещают уже много лет. Однако реальность пока другая: машины стали умнее, но полностью доверить им дорогу все еще нельзя. Так в чем дело? 

Сразу оговоримся: в этой статье мы не будем останавливаться на уровнях автопилота и принципах их работы. Об этом мы уже рассказывали, как и о беспилотных грузовиках.

Сегодня поговорим о другом: почему даже самые продвинутые системы автономного вождения всё еще не могут полностью заменить человека за рулем и почему ни одна страна пока не готова к массовому появлению настоящих беспилотных автомобилей.

Проблема №1 – инфраструктура

Автопилот кажется чисто технологическим решением: камеры, датчики, искусственный интеллект. Но на самом деле его работа сильно зависит от окружающей среды – то есть от дорог и инфраструктуры.

Как работает автопилот
Фото indyautoman.com

Системам автономного вождения нужна четкая дорожная разметка, по которой автомобиль ориентируется. Если линии стерты, засыпаны снегом или просто нарисованы криво, электроника начинает теряться. И если для человека это небольшая проблема (мы можем ориентироваться по другим машинам или по краю дороги), то для автопилота это уже серьезное испытание. 

Показательный пример – тестирование автопилота Tesla в северных штатах США и Канаде. Зимой многие владельцы отмечали, что после сильного снегопада система просто отключается, потому что камеры не видят разметку. Аналогичные сложности возникали и у автомобилей GM с их системой Cruise во время испытаний в Сан-Франциско: на улицах с плохо различимой разметкой машины начинали «сомневаться» в траектории движения и резко снижали скорость.

Еще один фактор – состояние дорог. Ямы, временная разметка и дорожные работы могут сильно запутать систему. И то, что водитель воспринимает как обычную дорожную ситуацию, для автопилота выглядит как ошибка в данных. Например, в 2023 году в Сан-Франциско беспилотные такси Cruise несколько раз останавливались прямо посреди перекрестков из-за дорожных работ. Система просто не могла корректно интерпретировать временную схему движения.

Беспилотное такси Cruise
Беспилотное такси Cruise остановилось из-за дорожных работ. Фото insideevs.com

Подобные случаи фиксировались и в Китае во время испытаний автономных автомобилей Baidu Apollo, когда строительные ограждения и временные полосы движения сбивали алгоритмы навигации.

Наконец, важную роль играют цифровые карты высокой точности (HD-maps), где дорога прописана буквально до сантиметра. Но поддерживать такие карты в актуальном состоянии сложно: дороги меняются, появляются новые развязки, меняется организация движения. Поэтому даже технологические лидеры вынуждены ограничивать работу своих беспилотных сервисов конкретными районами городов, где инфраструктура уже хорошо изучена.

Проблема №2 – поведение людей

Но предположим, что все дороги идеально размечены, а карты – максимально точные. Казалось бы, идеальные условия для автопилота. Но у нас остается еще один фактор, который сложно просчитать, – это сами люди… 

Автопилоты создаются для логичной и предсказуемой дорожной среды, где все участники движения соблюдают правила. Однако реальная жизнь устроена иначе: водители часто перестраиваются без поворотника, резко тормозят, подрезают или пытаются проскочить на желтый сигнал светофора. 

Автопилот Tesla. Фото arstechnica.com
Автопилот Tesla. Фото arstechnica.com

Для человека такие ситуации привычны. Мы можем быстро оценить обстановку – по скорости соседних машин, по поведению водителя впереди или даже по тому, как автомобиль начинает смещаться в полосе. Алгоритму же нужно принять решение на основе данных датчиков и заранее прописанных сценариев, а таких сценариев на дороге может быть тысячи. И автопилот не всегда правильно считывает этот сценарий…

Самая известная серия инцидентов произошла в 2023 году в Сан-Франциско. Беспилотные такси Cruise после ДТП с другими авто иногда пытались съехать на обочину, но из-за неверной оценки нестандартной ситуации останавливались прямо на проезжей части, тем самым блокируя движение. 

А ведь еще есть пешеходы: кто-то может внезапно выйти на дорогу, перебежать в неположенном месте или начать переходить улицу, отвлекшись на телефон. Для человека это неприятная, но понятная ситуация. Для автопилота – еще один сложный сценарий, который нужно мгновенно распознать и правильно обработать. Но как бы много сценариев ни изучила система, человек все равно способен придумать новый – и чаще всего не самый логичный. И это мы еще не берем в расчет то, что люди сами провоцируют автопилоты. 

Автопилот и пешеходы
Фото cbc.ca

Еще на ранних этапах тестирования роботакси в Waymo обнаружили интересный эффект: люди довольно быстро понимают, что перед ними беспилотник, и начинают вести себя более рискованно. Например, вклиниваться перед машиной или резко перестраиваться, рассчитывая на ее осторожность. И в одном из отчетов компании отмечалось, что такие ситуации происходят регулярно во время городских тестов.

Проблема №3 – законодательство

Даже если везде появится нужная инфраструктура, а все люди начнут ездить и ходить по правилам, остается еще один и, пожалуй, самый сложный вопрос – юридический. Главная дилемма звучит просто: кто виноват, если беспилотный автомобиль попадает в аварию?

В обычной ситуации все понятно – за рулем человек, значит, именно он и несет ответственность. Но если машина ехала на автопилоте, все становится гораздо сложнее. Тогда возникает целая цепочка возможных виновников:

  • водитель, который должен был контролировать систему;
  • производитель автомобиля;
  • компания, разработавшая программное обеспечение;
  • владелец автомобиля.
Авария с участием Tesla
Авария с участием Tesla Model S на мосту Бэй-Бридж в Сан-Франциско. Фото theintercept.com

И здесь начинается юридическая головоломка. Представьте: автомобиль сам принял решение, произошла авария, а человек за рулем в этот момент даже не касался педалей. Кого тогда привлекать к ответственности? Производителя? Разработчика? Или человека, который доверился автопилоту? 

А такие вопросы уже возникали на практике. Например, в 2018 году в Аризоне беспилотный автомобиль Uber во время тестирования насмерть сбил пешехода. Расследование показало, что система поздно распознала человека на дороге, а водитель-оператор в этот момент не успел вмешаться. В итоге ответственность легла сразу на несколько сторон: компанию – разработчика технологии, оператора автомобиля и систему безопасности проекта. И после этого инцидента Uber фактически свернул свою программу беспилотных автомобилей.

Еще один показательный пример – история с сервисом Cruise. В 2023 году в Сан-Франциско пешеход вышла на дорогу на красный свет и была сбита автомобилем Nissan, после чего отлетела под колеса беспилотника. Робот-такси остановился, но затем активировал маневр pull over (съезд на обочину), чтобы освободить полосу, при этом протащив пострадавшую девушку около 6 метров. После этого власти Калифорнии временно приостановили лицензию Cruise на эксплуатацию беспилотных такси, а сама компания была вынуждена пересмотреть правила работы системы. И это с учетом того, что изначально виновата сама девушка, вышедшая на запрещающий сигнал светофора. 

Автопилот Cruise наехал на пешехода
Фото teslarati.com

Даже функции частичной автономности вызывают юридические вопросы. Например, автопилот Tesla и более продвинутый режим Full Self-Driving регулярно становятся предметом расследований в США. Национальное управление безопасностью движения на трассах (NHTSA) изучало десятки аварий с участием автомобилей Tesla, где была активирована система помощи водителю. И основная проблема заключается именно в том, как распределяется ответственность между системой и водителем. 

Например, в 2019 году Tesla Model S с включенной системой Autopilot проехал перекресток и столкнулся с припаркованным внедорожником. В результате ДТП 22-летняя женщина погибла, а ее молодой человек получил тяжелые травмы. И после судебных разбирательств присяжные пришли к выводу, что компания Tesla частично виновна в аварии – долю ответственности производителя определили в размере 33%. 

Беспилотные авто
Фото changinglanesnewsletter.com

Но это лишь частный случай. Пока у законодателей нет однозначного ответа, кто виноват в ДТП с участием автопилота. И это неудивительно: для внедрения беспилотных автомобилей требуется не один новый закон, а целая система правил. Нужно определить ответственность в случае аварии, прописать требования к программному обеспечению и сертификации автомобилей, обозначить правила обновления софта и даже порядок взаимодействия машины с дорожной инфраструктурой. 

Получается парадокс: даже если технология уже почти готова, законы к ней – нет. И пока этот вопрос не решен, массовое появление настоящих беспилотных автомобилей остается скорее делом будущего.

В сравнении: 0