Robo pasivo de paquetes privados Los asistentes de IA han aparecido en las noticias últimamente, y no de la forma que esperaban los diseñadores. Si el gusano de IA autorreplicante Morris 2 no fuera suficiente para hacerle cuestionar su uso, tal vez darse cuenta de que las personas pueden leer las respuestas supuestamente cifradas a sus consultas podría hacerle reflexionar. El ataque del hombre en el medio es ridículamente fácil de lograr y es relativamente efectivo y completamente indetectable. Las consultas que envía pueden ser observadas por cualquier persona en la misma red en la que se comunica con el asistente de IA; no requiere la instalación de ningún malware ni la adquisición o falsificación de credenciales. El problema es que el cifrado utilizado es defectuoso y se puede capacitar a un LLM para descifrar las respuestas de los asistentes de IA a sus preguntas; Gemini de Google es la única excepción. Los investigadores que descubrieron la falla pudieron determinar el tema sobre el que se pregunta más del 50% de las veces y pudieron extraer el mensaje completo el 29% de las veces. Dado que el ataque sólo requiere que alguien observe su tráfico, no hay forma de saber si sus consultas están siendo escuchadas a escondidas. Para empeorar aún más las cosas, el LLM capacitado para descifrar el tráfico probablemente solo se volverá más preciso a medida que obtenga más datos de entrenamiento. Ars Technica profundiza en los detalles de los ataques, o puedes preguntarle a tu asistente de inteligencia artificial si te atreves.

Source link