Seguridad digital A medida que la IA se acerca a la capacidad de causar daño físico e impactar el mundo real, “es complicado” ya no es una respuesta satisfactoria 22 de mayo de 2024 • , 3 min. leer Hemos visto a la IA pasar de responder simples preguntas de chat para las tareas escolares a intentar detectar armas en el metro de Nueva York, y ahora ser encontrada cómplice de la condena de un criminal que la usó para crear material de abuso sexual infantil (CSAM, por sus siglas en inglés) falsificado. de fotos y videos reales, impactando a aquellos en los originales (completamente vestidos). Si bien la IA sigue avanzando, algunos buscan proporcionar barreras de seguridad más significativas para evitar que salga mal. Hemos estado usando la IA en un contexto de seguridad durante años, pero hemos advertido que no era una solución milagrosa, en parte porque se equivoca en cosas críticas. Sin embargo, el software de seguridad que “sólo ocasionalmente” se equivoca en aspectos críticos seguirá teniendo un impacto bastante negativo, ya sea generando falsos positivos masivos que hacen que los equipos de seguridad se esfuercen innecesariamente o pasando por alto un ataque malicioso que parece “lo suficientemente diferente” del malware que la IA puede detectar. ya lo sabía. Es por eso que lo hemos estado superponiendo con una serie de otras tecnologías para proporcionar controles y contrapesos. De esa manera, si la respuesta de la IA es similar a una alucinación digital, podremos recuperarla junto con el resto del conjunto de tecnologías. Si bien los adversarios no han lanzado muchos ataques puros de IA, es más correcto pensar que la IA del adversario automatiza los enlaces en la cadena de ataque para que sea más efectiva, especialmente en el phishing y ahora en la clonación de voz e imágenes del phishing para esfuerzos de ingeniería social de gran tamaño. Si los malos actores pueden ganar confianza digitalmente y engañar a los sistemas para que se autentiquen utilizando datos generados por IA, eso es una cabeza de puente suficiente para ingresar a su organización y comenzar a lanzar herramientas de explotación personalizadas manualmente. Para detener esto, los proveedores pueden capas de autenticación multifactor, por lo que los atacantes necesitan múltiples métodos de autenticación (con suerte, urgentes), en lugar de solo una voz o una contraseña. Si bien esa tecnología ahora está ampliamente implementada, los usuarios también la subutilizan en gran medida. Esta es una forma sencilla en que los usuarios pueden protegerse sin tener que hacer mucho esfuerzo ni tener un gran presupuesto. ¿Tiene la IA la culpa? Cuando se les pidió una justificación cuando la IA se equivoca, la gente simplemente bromeó: «es complicado». Pero a medida que la IA se acerca a la capacidad de causar daño físico e impactar el mundo real, ya no es una respuesta satisfactoria y adecuada. Por ejemplo, si un automóvil autónomo impulsado por IA sufre un accidente, ¿recibe una multa el “conductor” o el fabricante? No es una explicación que probablemente satisfaga a un tribunal al escuchar lo complicada y opaca que podría ser. ¿Qué pasa con la privacidad? Hemos visto que las reglas del RGPD toman medidas drásticas contra la tecnología enloquecida vista a través del lente de la privacidad. Ciertamente, las obras originales derivadas, cortadas y cortadas en cubitos de la IA que producen derivados con fines de lucro van en contra del espíritu de privacidad y, por lo tanto, desencadenarían leyes protectoras, pero exactamente cuánto tiene que copiar la IA para que se considere derivada, y qué pasa si copia ¿Lo suficiente para eludir la legislación? Además, ¿cómo podría alguien probarlo ante un tribunal, con una jurisprudencia escasa que tardará años en comprobarse mejor legalmente? Vemos a editores de periódicos demandando a Microsoft y OpenAI por lo que creen que es una regurgitación de artículos de alta tecnología sin el debido crédito; Será interesante ver el resultado del litigio, tal vez un presagio de futuras acciones legales. Mientras tanto, la IA es una herramienta (y a menudo buena), pero un gran poder conlleva una gran responsabilidad. La responsabilidad de los proveedores de IA en este momento está lamentablemente por detrás de lo que sería posible si nuestro nuevo poder se descontrola. ¿Por qué no leer también este nuevo documento técnico de ESET que analiza los riesgos y oportunidades de la IA para los ciberdefensores?