Как сделать самостоятельные автомобили безопаснее на дорогах

Исследователи решают давнюю проблему для разработчиков автономных транспортных средств: тестирование алгоритмов восприятия системы, которые позволяют автомобилю «понимать», что он «видит».

Это большой вопрос для многих людей в таких оживленных городах, как Лос-Анджелес: когда придут автомобили с автоматическим управлением? Но после серии громких аварий в Соединенных Штатах проблемы безопасности могут привести к полной остановке автономной мечты.

В USC исследователи опубликовали новое исследование, которое решает давнюю проблему для разработчиков автономных транспортных средств: тестирование алгоритмов восприятия системы, которые позволяют автомобилю «понимать» то, что он «видит».

Работая с исследователями из Университета штата Аризона, новый математический метод команды способен выявлять аномалии или ошибки в системе до того, как автомобиль отправится в путь.

Алгоритмы восприятия основаны на сверточных нейронных сетях, основанных на машинном обучении, типе глубокого обучения. Эти алгоритмы общеизвестно трудны для тестирования, так как мы не до конца понимаем, как они делают свои прогнозы. Это может привести к разрушительным последствиям в таких критически важных для безопасности системах, как автономные транспортные средства.

«Создание надежных алгоритмов восприятия является одной из главных задач для автономных систем», — сказал ведущий автор исследования Ананд Балакришнан, аспирант кафедры компьютерных наук USC.

«Используя этот метод, разработчики могут гораздо быстрее сузить ошибки в алгоритмах восприятия и использовать эту информацию для дальнейшего обучения системы. Таким же образом автомобили должны проходить краш-тесты для обеспечения безопасности, этот метод предлагает упреждающий тест для ловить ошибки в автономных системах."

Документ под названием «Определение и оценка метрик качества для систем восприятия на основе видения» был представлен на конференции «Дизайн, автоматизация и тестирование в Европе», Италия, 28 марта.

Узнавать о мире

Обычно автономные транспортные средства «узнают» о мире с помощью систем машинного обучения, которые получают огромные наборы данных дорожных изображений, прежде чем они смогут самостоятельно идентифицировать объекты.

Но система может пойти не так. В случае несчастного случая со смертельным исходом между автомобилем с самостоятельным вождением и пешеходом в Аризоне в марте прошлого года, программное обеспечение классифицировало пешехода как «ложное срабатывание» и решило, что останавливать его не нужно.

«Мы подумали, что существует определенная проблема в том, как этот алгоритм восприятия был обучен», — сказал соавтор исследования Джо Дешмук, профессор компьютерных наук USC и бывший инженер по исследованиям и разработкам Toyota, специализирующийся на безопасности автономных транспортных средств.

«Когда человек воспринимает видео, существуют определенные предположения о постоянстве, которые мы неявно используем: если мы видим автомобиль в видеокадре, мы ожидаем увидеть автомобиль в ближайшем месте в следующем видеокадре. Это одно из несколько «нормальных условий», которые мы хотим, чтобы алгоритм восприятия выполнял до развертывания ».

Например, объект не может появляться и исчезать из одного кадра в другой. Если это так, то это нарушает «состояние здравомыслия» или основной закон физики, который предполагает, что в системе восприятия есть ошибка.

Дешмукх и его аспирант Балакришнан вместе с аспирантом USC Синь Цинь и магистрантом Анирудд Пураник объединились с тремя исследователями из Университета штата Аризона для изучения этой проблемы.

Нет места для ошибки

Команда разработала новую математическую логику, названную Timed Quality Temporal Logic, и использовала ее для тестирования двух популярных инструментов машинного обучения — Squeeze Det и YOLO — с использованием необработанных наборов видеоданных сцен вождения.

Логика успешно отработана в случаях, когда инструменты машинного обучения нарушали «условия здравомыслия» в нескольких кадрах видео. Чаще всего системы машинного обучения не могли обнаружить объект или неправильно классифицировали объект.

Например, в одном примере система не смогла распознать велосипедиста сзади, когда шина велосипеда выглядела как тонкая вертикальная линия. Вместо этого он неправильно классифицировал велосипедиста как пешехода. В этом случае система может неправильно рассчитывать следующий ход велосипедиста, что может привести к аварии.

Фантомные объекты — где система воспринимает объект, когда его нет — также были распространены. Это может привести к тому, что автомобиль ошибочно захлопнет на перерывах — еще один потенциально опасный шаг.

Метод команды может быть использован для выявления аномалий или ошибок в алгоритме восприятия перед развертыванием в дороге и позволяет разработчику точно определять конкретные проблемы.

Идея заключается в выявлении проблем с алгоритмом восприятия в виртуальном тестировании, что делает алгоритмы более безопасными и надежными. Важно отметить, что поскольку метод основан на библиотеке «нормальных условий», людям не нужно маркировать объекты в тестовом наборе данных — трудоемкий и часто некорректный процесс.

В будущем команда надеется внедрить логику для переобучения алгоритмов восприятия при обнаружении ошибки. Он также может быть расширен для использования в режиме реального времени во время движения автомобиля в качестве монитора безопасности в режиме реального времени.