Se ha identificado un nuevo tipo de ataque a los sistemas de vehículos autónomos que obliga a la IA a ignorar las señales de tráfico a los lados de las carreteras. La tecnología requiere que el automóvil tenga visión por computadora basada en una cámara, ya que es un requisito principal para la percepción de los vehículos autónomos, y el ataque implica explotar la persiana enrollable de la cámara con un diodo emisor de luz para engañar al sistema de inteligencia artificial del vehículo.

Los sistemas de conducción autónoma pueden estar en riesgo

La luz que cambia rápidamente y que emiten diodos que parpadean rápidamente se puede utilizar para cambiar la percepción del color debido a la forma en que funcionan las cámaras CMOS, y son las cámaras más utilizadas en los automóviles.

Este es el mismo efecto que sienten los humanos cuando una luz se ilumina rápidamente ante sus ojos y la visibilidad del color cambia durante unos segundos.

Los tipos de sensores de cámara suelen venir como dispositivos de carga acoplada (CCD) o semiconductores complementarios de óxido metálico (CMOS). El primer tipo captura el cuadro completo de la imagen ya que expone todos los píxeles a la vez, pero CMOS es un juego diferente ya que utiliza un obturador electrónico que captura la imagen línea por línea. Tomemos como ejemplo una impresora de computadora doméstica tradicional que imprime en líneas para formar una imagen.

Pero el inconveniente es que las líneas de imagen CMOS se capturan en diferentes momentos para formar un marco, por lo que la entrada rápida de luz cambiante puede distorsionar la imagen al producir diferentes tonos de color en el sensor.

Pero la razón de su amplia adopción en todo tipo de cámaras, incluidas las de vehículos, es que son menos costosas y proporcionan un buen equilibrio entre calidad de imagen y costo. Tesla y algunos otros fabricantes de vehículos también utilizan cámaras CMOS en sus vehículos.

Hallazgos del estudio

Fuente: Github.

En un estudio reciente, los investigadores identificaron el proceso descrito anteriormente como un factor de riesgo potencial para los vehículos autónomos, ya que los atacantes pueden controlar la fuente de luz de entrada para producir franjas de diferentes colores en la imagen capturada para desviar la interpretación del sistema de visión por computadora para la imagen.

Los investigadores crearon un ambiente de luz parpadeante mediante el uso de diodos emisores de luz (LED) e intentaron engañar en la clasificación de las imágenes en el área bajo ataque, y la lente de una cámara creó franjas de colores que interrumpieron la detección de objetos cuando se disparó un láser en la lente.

Si bien los estudios anteriores se limitaron a pruebas de un solo cuadro y los investigadores no llegaron al extremo de crear una secuencia de cuadros para simular un ataque estable continuo en un entorno controlado, el estudio actual tuvo como objetivo simular un ataque estable que mostró implicaciones para la seguridad del servidor. para vehículos autónomos.

Se encendió un LED muy cerca de una señal de tráfico, que proyectó una luz fluctuante controlada sobre la señal. La frecuencia fluctuante no es visible para el ojo humano, por lo que es invisible para nosotros, y el LED parece un dispositivo de iluminación inofensivo. Pero en la cámara, el resultado fue bastante diferente, ya que introdujo franjas de colores para juzgar mal el reconocimiento de las señales de tráfico.

Pero para que el ataque desvíe completamente el sistema de conducción autónoma y tome decisiones equivocadas, los resultados deben ser los mismos en varios cuadros consecutivos porque si el ataque no es estable, el sistema puede identificar las fallas y poner el vehículo en falla. modo seguro, como cambiar a conducción manual.