La inteligencia artificial (IA) continúa evolucionando a un ritmo sin precedentes, y los agentes de IA están surgiendo como una tecnología particularmente poderosa y transformadora. Estos agentes, impulsados ​​por modelos avanzados de empresas como OpenAI y Microsoft, se están integrando en varios productos empresariales, lo que ofrece importantes beneficios en automatización y eficiencia. Sin embargo, los agentes de IA traen consigo una serie de nuevos riesgos y amenazas de seguridad que las organizaciones deben abordar de forma proactiva. Comprender los riesgos únicos de los agentes de IA Los agentes de IA no son solo otra iteración de los modelos de IA; representan un cambio fundamental en la forma en que la IA interactúa con los entornos digitales y físicos. Estos agentes pueden actuar de forma autónoma o semiautónoma, tomando decisiones, realizando acciones y logrando objetivos con una mínima intervención humana. Si bien esta autonomía abre nuevas posibilidades, también amplía significativamente la superficie de amenaza. Tradicionalmente, los riesgos relacionados con la IA se han limitado a las entradas, el procesamiento y las salidas de los modelos, junto con las vulnerabilidades en las capas de software que los orquestan. Sin embargo, con los agentes de IA, los riesgos se extienden mucho más allá de estos límites. La cadena de eventos e interacciones iniciadas por los agentes de IA puede ser vasta y compleja, a menudo invisible para los operadores humanos. Esta falta de visibilidad puede generar serios problemas de seguridad, ya que las organizaciones tienen dificultades para monitorear y controlar las acciones de los agentes en tiempo real. Entre los riesgos más urgentes se encuentran la exposición y exfiltración de datos, que pueden ocurrir en cualquier punto a lo largo de la cadena de eventos impulsados ​​por los agentes. El consumo desenfrenado de recursos del sistema por parte de agentes de IA, benignos o maliciosos, puede conducir a escenarios de denegación de servicio o de billetera, donde los recursos del sistema se ven desbordados. Quizás más preocupante sea la posibilidad de que agentes autónomos mal informados realicen actividades no autorizadas o maliciosas, incluido el «secuestro de agentes» por parte de actores externos. El riesgo no termina allí. Los errores de codificación dentro de los agentes de IA pueden provocar violaciones de datos no deseadas u otras amenazas de seguridad, mientras que el uso de bibliotecas o códigos de terceros presenta riesgos para la cadena de suministro que pueden comprometer entornos tanto de IA como de otros. La codificación rígida de credenciales dentro de los agentes, una práctica común en entornos de desarrollo de poco código o sin código, exacerba aún más los problemas de gestión de acceso, lo que facilita que los atacantes exploten estos agentes con fines nefastos. Tres controles esenciales para mitigar los riesgos de los agentes de IA Dados los riesgos multifacéticos asociados con los agentes de IA, las organizaciones deben implementar controles sólidos para gestionar estas amenazas de manera eficaz. El primer paso para mitigar los riesgos de los agentes de IA es proporcionar una vista y un mapa completos de todas las actividades, procesos, conexiones, exposiciones de datos y flujos de información de los agentes. Esta visibilidad es crucial para detectar anomalías y garantizar que las interacciones de los agentes se alineen con las políticas de seguridad de la empresa. También se debe mantener un registro de auditoría inmutable de las interacciones de los agentes para respaldar la rendición de cuentas y la trazabilidad. También es esencial tener un panel detallado que rastree cómo se utilizan los agentes de IA, su desempeño en relación con las políticas de la empresa y su cumplimiento de los requisitos de seguridad, privacidad y legales. Este panel también debe integrarse con los sistemas de gestión de acceso e identidad (IAM) empresariales existentes para aplicar el acceso con privilegios mínimos y evitar acciones no autorizadas por parte de los agentes de IA. Una vez que se haya establecido un mapa completo de las actividades de los agentes, considere establecer mecanismos para detectar y marcar cualquier actividad anómala o que viole las políticas. Se deben establecer comportamientos de referencia para identificar transacciones atípicas, que luego se pueden abordar mediante una remediación automática en tiempo real. Dada la velocidad y el volumen de las interacciones de los agentes de IA, los humanos por sí solos no pueden escalar la supervisión y la remediación requeridas. Por lo tanto, implemente herramientas que puedan suspender y remediar automáticamente las transacciones no autorizadas y reenviar cualquier problema no resuelto a operadores humanos para su revisión manual. El control final implica aplicar una remediación automática en tiempo real para abordar las anomalías detectadas. Esto puede incluir acciones como redactar datos confidenciales, aplicar el acceso con el mínimo privilegio y bloquear el acceso cuando se detecten violaciones. Además, asegúrese de mantener listas de denegación de indicadores de amenazas y archivos a los que los agentes de IA no pueden acceder. Se debe establecer un ciclo de monitoreo y retroalimentación continuo para identificar y corregir cualquier acción no deseada que resulte de las imprecisiones de los agentes de IA. A medida que los agentes de IA se integran cada vez más en los entornos empresariales, no se pueden ignorar los riesgos asociados y las amenazas de seguridad. Las organizaciones deben informarse sobre estos nuevos riesgos e implementar los controles necesarios para mitigarlos. Al ver y mapear todas las actividades de los agentes de IA, detectar y marcar anomalías y aplicar una remediación en tiempo real, las empresas pueden aprovechar el poder de los agentes de IA y, al mismo tiempo, mantener medidas de seguridad sólidas. En este panorama de rápida evolución, la gestión proactiva de riesgos no es solo una opción, es una necesidad. Avivah Litan es una destacada analista de Gartner. La gestión de riesgos digitales y las estrategias para la resiliencia en materia de ciberseguridad se tratarán en mayor profundidad en la Cumbre de Seguridad y Gestión de Riesgos 2024 que se celebrará en Londres del 23 al 25 de septiembre.