Nuevo ataque contra la IA de los vehículos autónomos Este es otro ataque que convence a la IA de ignorar las señales de tráfico: debido a la forma en que funcionan las cámaras CMOS, se puede utilizar la luz que cambia rápidamente de los diodos que parpadean rápidamente para variar el color. Por ejemplo, el tono de rojo en una señal de alto podría verse diferente en cada línea dependiendo del tiempo entre el destello del diodo y la captura de la línea. El resultado es que la cámara captura una imagen llena de líneas que no coinciden entre sí. La información se recorta y se envía al clasificador, normalmente basado en redes neuronales profundas, para su interpretación. Debido a que está lleno de líneas que no coinciden, el clasificador no reconoce la imagen como una señal de tráfico. Hasta ahora, todo esto ha sido demostrado antes. Sin embargo, estos investigadores no sólo actuaron sobre la distorsión de la luz, sino que lo hicieron repetidamente, alargando la duración de la interferencia. Esto significaba que una imagen irreconocible no era solo una anomalía entre muchas imágenes precisas, sino más bien una imagen irreconocible constante que el clasificador no podía evaluar y un problema de seguridad grave.
[…]
Los investigadores desarrollaron dos versiones de un ataque estable. El primero fue GhostStripe1, que no está dirigido y no requiere acceso al vehículo, según nos dicen. Emplea un rastreador de vehículos para monitorear la ubicación de la víctima en tiempo real y ajustar dinámicamente el parpadeo del LED en consecuencia. GhostStripe2 es el objetivo y requiere acceso al vehículo, lo que quizás un hacker podría hacer de forma encubierta mientras el vehículo está en mantenimiento. Implica colocar un transductor en el cable de alimentación de la cámara para detectar momentos de encuadre y refinar el control del tiempo. Trabajo de investigación. Etiquetas: artículos académicos, inteligencia artificial, automóviles, ciberataque, ataques de canal lateral Publicado el 10 de mayo de 2024 a las 12:01 • 2 comentarios