Foi identificado um novo tipo de ataque a sistemas de automóveis autônomos que força a IA a ignorar os sinais de trânsito nas bermas das estradas. A tecnologia exige que o carro tenha visão computacional baseada em câmera, pois é um requisito primário para a percepção de veículos autônomos, e o ataque envolve a exploração do obturador da câmera com um diodo emissor de luz para enganar o sistema de IA do veículo.

Sistemas autônomos podem estar em risco

A emissão de luz que muda rapidamente de diodos que piscam rapidamente pode ser usada para alterar a percepção das cores devido à maneira como as câmeras CMOS funcionam, e são as câmeras mais usadas em carros.

Este é o mesmo efeito que os humanos sentem quando uma luz pisca rapidamente em seus olhos e a visibilidade da cor muda por alguns segundos.

Os tipos de sensores de câmera geralmente vêm como dispositivos de carga acoplada (CCDs) ou semicondutores de óxido metálico complementar (CMOS). O primeiro tipo captura todo o quadro da imagem, pois expõe todos os pixels de uma vez, mas o CMOS é um jogo diferente, pois usa um obturador eletrônico que captura a imagem linha por linha. Tomemos como exemplo uma impressora tradicional de computador doméstico que imprime em linhas para formar uma imagem.

Mas a desvantagem é que as linhas da imagem CMOS são capturadas em momentos diferentes para formar um quadro, de modo que a entrada rápida de mudanças de luz pode distorcer a imagem, produzindo diferentes tons de cores no sensor.

Mas a razão para a sua vasta adopção em todos os tipos de câmaras, incluindo as de veículos, é que são menos dispendiosas e proporcionam um bom equilíbrio entre qualidade de imagem e custo. A Tesla e alguns outros fabricantes de veículos também usam câmeras CMOS em seus veículos.

Resultados do estudo

Fonte: GitHub.

Em um estudo recente, os pesquisadores identificaram o processo descrito acima como um potencial fator de risco para carros autônomos, já que os invasores podem controlar a fonte de luz de entrada para produzir listras coloridas diferentes na imagem capturada para desorientar a interpretação do sistema de visão computacional para a imagem.

Os pesquisadores criaram um ambiente de luz bruxuleante usando diodos emissores de luz (LEDs) e tentaram enganar a classificação da imagem na área sob ataque, e uma lente de câmera criou listras coloridas que interromperam a detecção de objetos quando um laser foi disparado na lente.

Embora os estudos anteriores tenham se limitado a testes de quadro único e os pesquisadores não tenham se esforçado ao máximo para criar uma sequência de quadros para simular um ataque contínuo e estável em um ambiente controlado, o estudo atual teve como objetivo simular um ataque estável que mostrasse implicações na segurança do servidor. para veículos autônomos.

Um LED foi disparado próximo a uma placa de trânsito, que projetou uma luz controlada e flutuante na placa. A frequência flutuante não é visível ao olho humano, por isso é invisível para nós, e o LED parece um dispositivo de iluminação inofensivo. Mas na câmera, o resultado foi bem diferente, pois introduziu listras coloridas para avaliar mal o reconhecimento dos sinais de trânsito.

Mas para que o ataque desvie completamente o sistema de condução autónoma e tome decisões erradas, os resultados devem ser os mesmos ao longo de vários fotogramas consecutivos, porque se o ataque não for estável, o sistema pode identificar as avarias e colocar o veículo em falha. modo de segurança, como mudar para direção manual.