È stato identificato un nuovo tipo di attacco ai sistemi di auto a guida autonoma che costringe l’intelligenza artificiale a ignorare i segnali stradali sui lati della strada. La tecnologia richiede che l’auto sia dotata di visione artificiale basata su telecamera, poiché è un requisito primario per la percezione dei veicoli autonomi, e l’attacco prevede lo sfruttamento della tapparella della telecamera con un diodo emettitore di luce per ingannare il sistema di intelligenza artificiale del veicolo.

I sistemi di guida autonoma possono essere a rischio

La luce che cambia rapidamente emessa dai diodi lampeggianti veloci può essere utilizzata per cambiare la percezione del colore a causa del modo in cui funzionano le fotocamere CMOS, che sono le fotocamere più utilizzate sulle auto.

Questo è lo stesso effetto che gli esseri umani provano quando una luce viene rapidamente puntata verso i loro occhi e la visibilità del colore cambia per alcuni secondi.

I tipi di sensori delle fotocamere sono spesso disponibili come dispositivi ad accoppiamento di carica (CCD) o semiconduttori di ossido di metallo complementare (CMOS). Il primo tipo cattura l'intera cornice dell'immagine poiché espone tutti i pixel contemporaneamente, ma CMOS è un gioco diverso poiché utilizza un otturatore elettronico che cattura l'immagine riga per riga. Prendiamo come esempio la tradizionale stampante di un computer domestico che stampa in linee per formare un'immagine.

Ma lo svantaggio è che le linee dell'immagine CMOS vengono catturate in momenti diversi per formare un fotogramma, quindi un rapido input di luce variabile può distorcere l'immagine producendo diverse sfumature di colore nel sensore.

Ma la ragione della loro vasta adozione in tutti i tipi di fotocamere, comprese quelle sui veicoli, è che sono meno costose e forniscono un buon equilibrio tra qualità dell’immagine e costo. Anche Tesla e alcuni altri produttori di veicoli utilizzano telecamere CMOS nei loro veicoli.

Risultati dello studio

Fonte: Github.

In uno studio recente, i ricercatori hanno identificato il processo sopra descritto come un potenziale fattore di rischio per le auto a guida autonoma, poiché gli aggressori possono controllare la sorgente luminosa in ingresso per produrre strisce colorate diverse sull’immagine catturata per fuorviare l’interpretazione del sistema di visione artificiale per l'immagine.

I ricercatori hanno creato un ambiente luminoso tremolante utilizzando diodi a emissione di luce (LED) e hanno cercato di fuorviare la classificazione dell'immagine nell'area sotto attacco, e l'obiettivo di una fotocamera ha creato strisce colorate che interrompevano il rilevamento degli oggetti quando un laser veniva sparato nell'obiettivo.

Mentre gli studi precedenti erano limitati a test su un singolo frame e i ricercatori non si sono spinti fino alla creazione di una sequenza di frame per simulare un attacco stabile e continuo in un ambiente controllato, lo studio attuale mirava a simulare un attacco stabile che mostrasse implicazioni sulla sicurezza del server. per veicoli autonomi.

Nelle immediate vicinanze di un segnale stradale è stato acceso un LED che proiettava una luce controllata e fluttuante sul segnale. La frequenza fluttuante non è visibile all'occhio umano, quindi per noi è invisibile e il LED sembra un innocuo dispositivo di illuminazione. Ma sulla fotocamera, il risultato è stato molto diverso poiché ha introdotto strisce colorate per valutare erroneamente il riconoscimento dei segnali stradali.

Ma affinché l’attacco possa fuorviare completamente il sistema di guida autonoma e prendere decisioni sbagliate, i risultati dovrebbero essere gli stessi per un numero di fotogrammi consecutivi perché se l’attacco non è stabile, il sistema potrebbe identificare i malfunzionamenti e mettere in guasto il veicolo. modalità provvisoria, come il passaggio alla guida manuale.