Un nouveau type d’attaque contre les systèmes de voitures autonomes a été identifié, obligeant l’IA à ignorer les panneaux de signalisation au bord des routes. La technologie nécessite que la voiture soit dotée d’une vision par ordinateur basée sur une caméra, car il s’agit d’une exigence primordiale pour la perception des véhicules autonomes, et l’attaque consiste à exploiter l’obturateur roulant de la caméra avec une diode électroluminescente pour induire en erreur le système d’IA du véhicule.
Les systèmes de conduite autonome peuvent être menacés
La lumière changeante émise par les diodes clignotantes rapidement peut être utilisée pour modifier la perception des couleurs en raison du fonctionnement des caméras CMOS, et ce sont les caméras les plus utilisées sur les voitures.
C’est le même effet que les humains ressentent lorsqu’une lumière clignote rapidement dans leurs yeux et que la visibilité des couleurs change pendant quelques secondes.
Les types de capteurs de caméra se présentent souvent sous la forme de dispositifs à couplage de charge (CCD) ou de semi-conducteurs à oxyde métallique complémentaire (CMOS). Le premier type capture l'intégralité du cadre photo car il expose tous les pixels à la fois, mais le CMOS est un jeu différent car il utilise un obturateur électronique qui capture l'image ligne par ligne. Prenons comme exemple une imprimante d'ordinateur domestique traditionnelle qui imprime en lignes pour former une image.
Mais l'inconvénient est que les lignes de l'image CMOS sont capturées à des moments différents pour former un cadre, de sorte qu'une entrée rapide de lumière changeante peut déformer l'image en produisant différentes nuances de couleurs dans le capteur.
Mais la raison de leur large adoption dans tous les types de caméras, y compris celles embarquées sur les véhicules, est qu’elles sont moins coûteuses et offrent un bon équilibre entre qualité d’image et coût. Tesla et certains autres constructeurs automobiles utilisent également des caméras CMOS dans leurs véhicules.
Résultats de l'étude
Source : GitHub.
Dans une étude récente, des chercheurs ont identifié le processus décrit ci-dessus comme un facteur de risque potentiel pour les voitures autonomes, car les attaquants peuvent contrôler la source de lumière d'entrée pour produire des bandes de couleurs différentes sur l'image capturée afin de fausser l'interprétation du système de vision par ordinateur. l'image.
Les chercheurs ont créé une lumière ambiante vacillante en utilisant des diodes électroluminescentes (DEL) et ont tenté de tromper la classification des images dans la zone sous-attaque, et un objectif de caméra a créé des bandes colorées qui perturbaient la détection des objets lorsqu'un laser était tiré dans l'objectif.
Alors que les études précédentes se limitaient à des tests sur une seule image et que les chercheurs ne sont pas allés jusqu'à créer une séquence d'images pour simuler une attaque stable et continue dans un environnement contrôlé, l'étude actuelle visait à simuler une attaque stable qui montrait des implications en matière de sécurité du serveur. pour les véhicules autonomes.
Une LED a été allumée à proximité d'un panneau de signalisation, projetant une lumière contrôlée et fluctuante sur le panneau. La fréquence fluctuante n’est pas visible à l’œil humain, elle nous est donc invisible et la LED semble être un dispositif d’éclairage inoffensif. Mais sur la caméra, le résultat était tout à fait différent puisqu'elle introduisait des bandes colorées pour mal évaluer la reconnaissance des panneaux de signalisation.
Mais pour que l'attaque égare complètement le système de conduite autonome et prenne de mauvaises décisions, les résultats doivent être les mêmes sur un certain nombre d'images consécutives, car si l'attaque n'est pas stable, le système peut identifier les dysfonctionnements et mettre le véhicule en panne. mode sans échec, comme passer à la conduite manuelle.

