Adversarial attack on a deep model of pedestrian detection in CARLA simulator

Abstract

L'assistència a la conducció i la conducció autònoma utilitzen models profunds de percepció per dur a terme tasques com la detecció i classificació d'objectes. Un cop entrenats els models, és important trobar casos en què aquests puguin fallar amb l'objectiu d'incloure'ls en un posterior reentrenament i aconseguir models més robusts. Una manera de trobar situacions no contemplades és a través de la simulació, gràcies a la qual es poden forçar casos extrems. En aquest context, aquest treball s'enfoca en la detecció de vianants per imatge utilitzant el simulador CARLA a partir de la creació automàtica d'escenaris per tal de validar les prestacions del detector. Mitjançant un algorisme genètic s'automatitza la cerca d'escenaris plausibles destinades a fer fallar el detector, mostrant-ne així les debilitats. Aquest procediment de validació del detector es considera un mètode d'atac adversari.La asistencia a la conducción y la conducción autónoma utilizan modelos profundos de percepción para realizar tareas como la detección y clasificación de objetos. Una vez entrenados los modelos, es importante encontrar casos en los que éstos puedan fallar con el objetivo de incluirlos en un posterior reentrenamiento y conseguir modelos más robustos. Una forma de encontrar situaciones no contempladas es a través de la simulación, gracias a la cual se pueden forzar casos extremos. En este contexto, este trabajo se enfoca en la detección de peatones por imagen utilizando el simulador CARLA a partir de la creación automática de escenarios para validar las prestaciones del detector. Mediante un algoritmo genético se automatiza la búsqueda de escenarios plausibles destinadas a hacer fallar el detector, mostrando así sus debilidades. Este procedimiento de validación del detector se considerará como un método de ataque adversario.Driving assistance and autonomous driving use deep perception models to perform tasks such as object detection and classification. Once the models have been trained, it is important to find cases where they can fail, with the aim of including them in subsequent retraining and achieving more robust models. One way to find unforeseen situations is through simulation, thanks to which corner cases can be forced. In this context, this project focuses on pedestrian detection by image using CARLA simulator, based on automatic creation of scenarios in order to validate the performance of the detector. One genetic algorithm automates the search for plausible scenarios designed to cause the detector to fail, thus exposing its weaknesses. This detector validation procedure is considered an adversarial attack method

    Similar works