(Школьники и студенты СПО) Обработка изображений для задач автономного транспорта
Цель трека
Разработать программу, которая бы выполняла задачи компьютерного зрения автономного транспортного средства. В задачи решения войдет распознавание типовых объектов дорожного движения на основании RGB-снимков камеры автономного робота - колесной платформы DuckieBot или квадрокоптера с автопилотом.
Задание
Вам необходимо разработать программу на языке Python3.8.0, которая сможет обнаружить на снимках, полученных с камеры автономного робота, искомые объекты и вывести в стандартный поток вывода (stdout) информацию об их наличии в кадре и характеристиках (bounding box в системе координат снимка).
При подготовке решений разрешено использовать пакеты Numpy (1.22.4) и OpenCV-Python (4.6.0.66).
Шаблон и примеры - будут уточнены в дальнейшем.
Исходные данные.
Исходные данные для проверки решений представляют собой кадры с камеры автономного колесного робота или квадрокоптера, выполняющего движение в лаборатории автономного транспорта в СПБГЭТУ “ЛЭТИ”.
Примеры исходных данных для решений можно увидеть в официальном репозитории симулятора https://github.com/duckietown/gym-duckietown. Дополнительная информация будет уточнена чуть позже.
Отличие между этапами олимпиады для данного трека заключается в сложности распознавания:
- Квалификационный этап - объекты в кадре отчетливо видны и различимы.
- Основной этап - объекты в кадре могут перекрывать друг друга.
- Финал - объекты в кадре могут перекрывать друг друга + на кадр будут наложены визуальные помехи.
Проверка решений.
Решения будут оцениваться с точки зрения точности работы и быстродействия. Проверка осуществляется путём запуска решений участников на оборудовании организаторов. Участники не имеют влияния на этот процесс, используется только их исходный программный код. Для проверки каждому решению на вход будет подано два набора снимков:
- Открытый - набор будет предоставлен участникам к дате начала этапа всем отобранным на него участникам
- Закрытый - набор будет продемонстрирован после окончания проверки заданий этапа.
Алгоритм проверки решений:
- Запуск решения на открытом наборе снимков, сравнение полученных выходных данных с эталонными данными на этом наборе снимков, вычисление баллов по каждому снимку
- Запуск решения на закрытом наборе снимков, сравнение полученных выходных данных с эталонными данными на этом наборе снимков, вычисление баллов по каждому снимку
- Вычисление штрафов и итоговых баллов (произвоится в конце этапа)
Штрафы:
- Плагиат решений и/или раскрытие решений другим участникам - дисквалификация.
- Попытка доступа к внешним ресурсам или файловой системе (помимо исходных данны), запуска других программ - аннулирование баллов за текущую попытку, при повторном нарушении дисквалификация.
- Превышение максимальной длительности работы (1 минута на каждый снимок) - аннулирование баллов за текущую попытку.
Подсчет баллов для одного решения происходит путем определения средней точности:
- Для каждого из снимков выполнить подсчет точности обнаружения объектов -
- Для каждого объекта на снимке найти по метрике IoU (Intersection over Union) наилучший bоunding box среди объектов возвращаемых решением.
- Каждый bоunding box учесть только один раз.
- Точность по снимку == сумма наилучших IoU для каждого из возвращенных решением участниках bоunding box
- Если снимок обрабатывался дольше 5 секунд, то его точность обнуляется
- Сложить точность по всем снимкам и разделить на их количество.
Правила перехода участников между этапами:
- Переход к основному этапу - оценка решения >= 0.4 или лучшая половина решений согласно общему рейтингу (если доля набравших оценку выше порога будет меньше одной трети)
- Переход к финальному этапу - оценка решения >= 0.6 или или лучшая половина решений согласно общему рейтингу (если доля набравших оценку выше порога будет меньше одной трети)