18 de junio de 2024Sala de prensaPrivacidad / Cifrado Una controvertida propuesta presentada por la Unión Europea para escanear los mensajes privados de los usuarios para detectar material de abuso sexual infantil (CSAM) plantea graves riesgos para el cifrado de extremo a extremo (E2EE), advirtió Meredith Whittaker , presidente de Signal Foundation, que mantiene el servicio de mensajería del mismo nombre centrado en la privacidad. «Obligar a escanear masivamente comunicaciones privadas socava fundamentalmente el cifrado. Punto final», dijo Whittaker en un comunicado el lunes. «Ya sea alterando, por ejemplo, la generación de números aleatorios de un algoritmo de encriptación, o implementando un sistema de custodia de claves, o forzando que las comunicaciones pasen a través de un sistema de vigilancia antes de ser encriptadas». La respuesta se produce mientras los legisladores en Europa están presentando regulaciones para combatir el CSAM con una nueva disposición llamada «moderación de carga» que permite que los mensajes sean examinados antes del cifrado. Un informe reciente de Euractiv reveló que las comunicaciones de audio están excluidas del ámbito de la ley y que los usuarios deben dar su consentimiento para esta detección según los términos y condiciones del proveedor del servicio. «Aquellos que no den su consentimiento aún pueden utilizar partes del servicio que no impliquen el envío de contenido visual y URL», informó además. Europol, a finales de abril de 2024, pidió a la industria tecnológica y a los gobiernos que priorizaran la seguridad pública, advirtiendo que medidas de seguridad como E2EE podrían impedir que las fuerzas del orden accedan a contenidos problemáticos, reavivando un debate en curso sobre el equilibrio de la privacidad frente a la lucha contra los delitos graves. . También pidió que las plataformas diseñen sistemas de seguridad de tal manera que aún puedan identificar y reportar actividades dañinas e ilegales a las autoridades, sin profundizar en los detalles de implementación. Apple, el fabricante de iPhone, anunció planes para implementar pruebas de detección de material de abuso sexual infantil (CSAM) en el lado del cliente, pero lo canceló a finales de 2022 tras las continuas reacciones negativas de los defensores de la privacidad y la seguridad. «La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido», dijo la compañía en ese momento, explicando su decisión. También describió el mecanismo como una «pendiente resbaladiza de consecuencias no deseadas». Whittaker de Signal dijo además que llamar al enfoque «moderación de carga» es un juego de palabras que equivale a insertar una puerta trasera (o una puerta de entrada), creando efectivamente una vulnerabilidad de seguridad lista para ser explotada por actores maliciosos y piratas informáticos de estados-nación. «O el cifrado de extremo a extremo protege a todos y consagra la seguridad y la privacidad, o no funciona para todos», afirmó. «Y romper el cifrado de extremo a extremo, particularmente en un momento geopolíticamente volátil, es una propuesta desastrosa». ¿Encontró interesante este artículo? Síguenos en Twitter  y LinkedIn para leer más contenido exclusivo que publicamos.