El panorama de seguridad está experimentando otro cambio importante, y en ninguna parte fue esto más evidente que en Black Hat USA 2025. A medida que la inteligencia artificial (especialmente la variedad de agentes) se vuelve profundamente integrada en los sistemas empresariales, está creando desafíos de seguridad y oportunidades. Esto es lo que los profesionales de la seguridad necesitan saber sobre este panorama que evoluciona rápidamente. En una de las presentaciones más interesantes y aterradoras, Michael Bargury of Zenity demostró los métodos de explotación de «0click» previamente desconocidos que afectan las principales plataformas de IA de IA, incluidos CHATGPT, Gemini y Microsoft Copilot. Estos hallazgos subrayan cómo los asistentes de IA, a pesar de sus sólidas medidas de seguridad, pueden convertirse en vectores para el compromiso del sistema. La seguridad de AI presenta una paradoja: a medida que las organizaciones amplían las capacidades de IA para mejorar la productividad, necesariamente deben aumentar el acceso de estas herramientas a datos y sistemas confidenciales. Esta expansión crea nuevas superficies de ataque y cadenas de suministro más complejas para defender. El equipo de AI Red de Nvidia destacó esta vulnerabilidad, revelando cómo los modelos de idiomas grandes (LLM) son exclusivamente susceptibles a las entradas maliciosas y demostraron varias técnicas de exploit nuevas que aprovechan estas debilidades inherentes. Sin embargo, no es todo un territorio nuevo. Muchos principios de seguridad tradicionales siguen siendo relevantes y, de hecho, son más cruciales que nunca. Nathan Hamiel y Nils Amiet de Kudelski Security mostraron cómo las herramientas de desarrollo con AI están reintroduciendo inadvertidamente vulnerabilidades conocidas en aplicaciones modernas. Sus hallazgos sugieren que las prácticas básicas de seguridad de la aplicación siguen siendo fundamentales para la seguridad de la IA. Modelado de amenazas que se vuelven cada vez más críticos pero también más complejos. La comunidad de seguridad está respondiendo con nuevos marcos diseñados específicamente para sistemas de inteligencia artificial como Maestro y el marco de gestión de riesgos de IA de NIST. El proyecto OWASP Agentic Security Top 10, lanzado durante la conferencia de este año, proporciona un enfoque estructurado para comprender y abordar los riesgos de seguridad específicos de la IA. Para los profesionales de seguridad, el camino hacia adelante requiere un enfoque equilibrado: mantener fuertes fundamentos mientras desarrolla una nueva experiencia en desafíos de seguridad específicos de IA. Las organizaciones deben reevaluar su postura de seguridad a través de esta nueva lente, considerando tanto las vulnerabilidades tradicionales como las amenazas emergentes específicas de la IA. Las discusiones en Black Hat USA 2025 dejaron en claro que, si bien la IA presenta nuevos desafíos de seguridad, también ofrece oportunidades de innovación en las estrategias de defensa. La apertura principal de Mikko Hyponen presentó una perspectiva histórica sobre los últimos 30 años de avances de ciberseguridad y concluyó que la seguridad no solo es mejor de lo que ha sido sino que está preparada para aprovechar un comienzo de la IA. Black Hat tiene una forma de subrayar las razones de la preocupación, pero en su conjunto, las presentaciones de este año nos muestran que también hay muchas razones para ser optimistas. El éxito individual dependerá de qué tan bien los equipos de seguridad puedan adaptar sus prácticas existentes al tiempo que adoptan nuevos enfoques diseñados específicamente para los sistemas de IA.