¿Qué ataques prácticos de IA existen hoy? «Más que cero» es la respuesta, y están mejorando. 22 de abril de 2025 •, 3 min. Leer que iba a suceder: LLM Tech Gone Rogue estaba destinado a tener objetivos inocentes, después de merogar en un área gris entre el bien y el mal, que encarna la paradoja tecnológica donde la tecnología buena y sólida se puede reutilizar para los nefastos. Así es como lo hacen. La mayoría de los modelos de LLM que llevan a los titulares tienen «barreras morales» contra hacer cosas malas, el equivalente digital del juramento hipocrático a «primero, no hacer daño». Si le pregunta a uno de ellos cómo construir un arma, por ejemplo, se les ha dado una guía de procesamiento previo para evitar proporcionar respuestas altamente precisas que probablemente le permitan participar en un daño extenso. Si bien no puede preguntar directamente sobre cómo construir un arma, puede aprender a hacer mejores preguntas, con una combinación de herramientas, y aún así llegar a la respuesta. Una forma elegante de hacerlo es programáticamente, a través de consultas API. Algunos proyectos lanzados recientemente enfocan la API de backend de una LLM en el objetivo de obtener acceso a la raíz en los servidores. Otro también aprovecha el backend de ChatGPT para encontrar más inteligentemente objetivos de oportunidades para atacar más tarde. Apilar herramientas habilitadas para AI junto con una combinación de otros diseñados para resolver otros problemas como evitar IP ofuscadas (hay algunos de ellos) para detectar el servidor de destino real puede resultar poderoso, especialmente a medida que se automatizan más. En el mundo digital, estas tácticas se pueden utilizar para construir herramientas de mashup que identifiquen vulnerabilidades, y luego iterar contra posibles exploits, y los modelos constituyentes de LLM no son más sabios. Esto es algo análogo a un «diseño de sala limpia», donde se le pide a un LLM que resuelva una parte constituyente más pequeña de la tarea más grande definida por un atacante, luego una mashup forma la eventual constelación que comprende el arma. Legalmente, varios grupos están tratando de medir obstáculos efectivos que retrasarán estos trucos desagradables, o imponer penalizaciones para que LLM sea cómplice en cierta medida. Pero es difícil asignar valores fraccionados específicos de falla. La cubierta de la culpa de las cantidades respectivas apropiadas, especialmente a la carga legal de la prueba, será una tarea difícil. Los modelos de IA de tierra fresca de Fresh Ground también pueden buscar miles de millones de líneas de código en repositorios de software existentes que buscan patrones de código inseguros y el desarrollo de armamento digital que luego puedan lanzar contra el suministro mundial de dispositivos que ejecutan software vulnerable. De esta manera, se podría tener un lote nuevo y nuevo como objetivos potenciales para el compromiso y un impulso para aquellos que deseen lanzar ataques de día cero. Es fácil imaginar que los estados nacionales aumenten este tipo de esfuerzo: la arma predictiva de las fallas de software ahora y en el futuro usando IA. Esto pone a los defensores en el «pie trasero», y causará una especie de escalada de AI de defensa digital que parece ligeramente distópica. Los defensores aplicarán sus propias defensas habilitadas para AI para el equipo azul, o simplemente para evitar ser pirateados. Esperamos que los defensores estén preparados para ello. Incluso los modelos AI disponibles de hoy en día pueden «razonar» a través de problemas sin sudar, reflexionándolos sin pensar de una manera de pensamiento que imita el razonamiento humano (en nuestros momentos más lúcidos, de todos modos). De acuerdo, la tecnología no evolucionará espontáneamente a una pareja sensible (en el crimen) en el corto plazo, pero después de haber ingerido datos de datos de Internet, podría argumentar que «sabe» sus cosas, y puede ser engañado para derramar sus secretos. También continuará haciendo cada vez más con menos, posiblemente dispensando con la mano excesiva, ayudando a los despojados de gres morales a golpear muy por encima de su peso y permitiendo a los actores ingeniosos operar a una escala sin precedentes. Aparentemente, algunos de los primeros herederos de las cosas por venir ya han estado en exhibición como parte de los ejercicios del equipo rojo o incluso vistos en la naturaleza. Una cosa es segura: la velocidad de los ataques más habilitados para la inteligencia aumentará. Desde el momento en que se lanza una CVE que es explotable, o una nueva técnica implementada, tendrá que pensar rápidamente. Espero que esté listo.