A fost identificat un nou tip de atac asupra sistemelor de mașini autonome, care obligă AI să ignore semnele de circulație de pe marginea drumului. Tehnologia necesită ca mașina să aibă viziune computerizată bazată pe cameră, deoarece este o cerință principală pentru percepția vehiculelor autonome, iar atacul implică exploatarea obturatorului camerei cu o diodă emițătoare de lumină pentru a induce în eroare sistemul AI al vehiculului.
Sistemele de conducere autonomă pot fi în pericol
Lumina care emite rapid schimbarea de la diodele care clipește rapid poate fi folosită pentru a schimba percepția culorilor datorită modului în care funcționează camerele CMOS și sunt cele mai utilizate camere pe mașini.
Acesta este același efect pe care oamenii îl simt atunci când o lumină este flashuită rapid la ochii lor și vizibilitatea culorii se schimbă pentru câteva secunde.
Tipurile de senzori de cameră vin adesea sub formă de dispozitive cu cuplaj de sarcină (CCD-uri) sau semiconductori metalici complementari cu oxid (CMOS). Primul tip captează întreaga imagine a cadrului în timp ce expune toate pixelii deodată, dar CMOS este un joc diferit, deoarece folosește un obturator electronic care captează imaginea linie cu linie. Ia ca exemplu o imprimantă tradițională de calculator acasă care imprimă în linii pentru a forma o imagine.
Dar dezavantajul este că liniile de imagine CMOS sunt capturate în momente diferite pentru a forma un cadru, astfel că o intrare rapidă de lumină schimbătoare poate distorsiona imaginea prin producerea de nuanțe de culoare diferite în senzor.
Dar motivul pentru adoptarea lor vastă în toate tipurile de camere, inclusiv cele de pe vehicule, este că sunt mai puțin costisitoare și oferă un bun echilibru între calitatea imaginii și cost. Tesla și alți producători de vehicule folosesc, de asemenea, camere CMOS în vehiculele lor.
Constatările studiului
Sursa: Github.
Într-un studiu recent, cercetătorii au identificat procesul descris mai sus ca un factor de risc potențial pentru mașinile autonome, deoarece atacatorii pot controla sursa de lumină de intrare pentru a produce dungi colorate diferite pe imaginea capturată pentru a induce în eroare interpretarea sistemului de viziune computerizată pentru imagine.
Cercetătorii au creat o ambianță de lumină palpitantă folosind diode emițătoare de lumină (LED-uri) și au încercat să inducă în eroare clasificarea imaginii în zona atacată, iar un obiectiv de cameră a creat dungi colorate care au deranjat detectarea obiectelor atunci când un laser a fost tras în lentilă.
Deși studiile anterioare s-au limitat la teste cu cadre unice și cercetătorii nu au făcut eforturi pentru a crea o secvență de cadre pentru a simula un atac stabil continuu într-un mediu controlat, studiul actual a fost destinat să simuleze un atac stabil care a arătat implicații de securitate a serverului pentru vehicule autonome.
Un LED a fost tras în apropierea unei semne de trafic, care a proiectat o lumină fluctuantă controlată pe semn. Frecvența fluctuantă nu este vizibilă pentru ochiul uman, deci este invizibilă pentru noi, iar LED-ul pare a fi un dispozitiv de iluminat inofensiv. Dar pe cameră, rezultatul a fost destul de diferit, deoarece a introdus dungi colorate pentru a greși recunoașterea semnelor de trafic.
Dar pentru ca atacul să inducă complet în eroare sistemul de conducere autonomă și să ia decizii greșite, rezultatele ar trebui să fie aceleași pe o serie de cadre consecutive, deoarece dacă atacul nu este stabil, sistemul poate identifica defecțiunile și poate pune vehiculul în modul de siguranță, cum ar fi comutarea la conducerea manuală.

