Zidentyfikowano nowy rodzaj ataku na systemy samochodów autonomicznych, który zmusza sztuczną inteligencję do ignorowania znaków drogowych na poboczach dróg. Technologia wymaga, aby samochód był wyposażony w obraz komputerowy oparty na kamerze, ponieważ jest to podstawowy wymóg postrzegania pojazdów autonomicznych, a atak polega na wykorzystaniu ruchomej migawki kamery z diodą elektroluminescencyjną w celu wprowadzenia w błąd systemu AI pojazdu.

Systemy autonomiczne mogą być zagrożone

Szybko zmieniające się światło emitowane przez szybko migające diody można wykorzystać do zmiany postrzegania kolorów ze względu na sposób działania kamer CMOS, a są to najczęściej używane kamery w samochodach.

Jest to ten sam efekt, jaki odczuwają ludzie, gdy światło szybko błyska im w oczy i widoczność kolorów zmienia się na kilka sekund.

Typy czujników kamer często obejmują urządzenia ze sprzężeniem ładunkowym (CCD) lub komplementarne półprzewodniki z tlenku metalu (CMOS). Pierwszy typ rejestruje całą klatkę obrazu, eksponując jednocześnie wszystkie piksele, ale CMOS to inna gra, ponieważ wykorzystuje elektroniczną migawkę, która rejestruje obraz linia po linii. Weźmy na przykład tradycyjną domową drukarkę komputerową, która drukuje w liniach, tworząc obraz.

Wadą jest jednak to, że linie obrazu CMOS są rejestrowane w różnym czasie i tworzą klatkę, więc szybkie wprowadzanie zmieniającego się światła może zniekształcić obraz, tworząc różne odcienie kolorów w matrycy.

Jednak powodem ich szerokiego zastosowania we wszystkich typach kamer, w tym w pojazdach, jest to, że są tańsze i zapewniają dobrą równowagę między jakością obrazu a kosztami. Tesla i niektórzy inni producenci pojazdów również używają w swoich pojazdach kamer CMOS.

Wyniki badań

Źródło: Github.

W niedawnym badaniu badacze zidentyfikowali opisany powyżej proces jako potencjalny czynnik ryzyka dla samochodów autonomicznych, ponieważ osoby atakujące mogą kontrolować wejściowe źródło światła, aby na przechwyconym obrazie pojawiały się różnokolorowe paski, co błędnie interpretuje komputerowy system wizyjny Obraz.

Naukowcy stworzyli migoczące oświetlenie otoczenia za pomocą diod elektroluminescencyjnych (LED) i próbowali wprowadzić w błąd w klasyfikacji obrazu w obszarze objętym atakiem, a obiektyw aparatu tworzył kolorowe paski, które zakłócały wykrywanie obiektów po wystrzeleniu lasera w obiektyw.

Podczas gdy poprzednie badania ograniczały się do testów pojedynczych klatek, a badacze nie zadali sobie trudu, aby utworzyć sekwencję ramek w celu symulacji ciągłego stabilnego ataku w kontrolowanym środowisku, obecne badanie miało na celu symulację stabilnego ataku, który pokazał wpływ na bezpieczeństwo serwera dla pojazdów autonomicznych.

W pobliżu znaku drogowego zapaliła się dioda LED, która rzuciła na znak kontrolowane, zmienne światło. Zmieniająca się częstotliwość nie jest widoczna dla ludzkiego oka, więc jest dla nas niewidoczna, a dioda LED wydaje się nieszkodliwym urządzeniem oświetleniowym. Jednak w aparacie wynik był zupełnie inny, ponieważ wprowadzono kolorowe paski, które miały błędnie ocenić rozpoznawanie znaków drogowych.

Aby jednak atak całkowicie wprowadził w błąd system autonomiczny i podjął błędne decyzje, wyniki powinny być takie same w wielu kolejnych klatkach, ponieważ jeśli atak nie będzie stabilny, system może wykryć awarie i spowodować awarię pojazdu. tryb awaryjny, taki jak przejście na jazdę ręczną.