En ciberseguridad, la velocidad es importante, pero la confianza es crucial. La IA debe garantizar una respuesta rápida y decisiones confiables para evitar errores e interrupciones. En ciberseguridad, la velocidad importa. Pero la velocidad sin confianza puede ser igual de peligroso, si no más, como ninguna acción. Una decisión apresurada e inexacta puede interrumpir los sistemas críticos, causar tiempos de inactividad innecesarios y erosionar la confianza en sus operaciones de seguridad. Es por eso que la IA en la ciberseguridad es algo más que una detección y respuesta más rápida; Se trata de generar confianza en cada decisión que toman el sistema y los analistas. La brecha entre saber que algo está mal y hacer algo es uno de los problemas más peligrosos en la ciberseguridad. Los atacantes prosperan en esta brecha, explotando demoras, ganando un punto de apoyo más seguro y dejando a los defensores luchando para cerrarlos. AI está ayudando a cerrar esa brecha al acelerar los tiempos de respuesta y hacer que los flujos de trabajo sean más precisos, confiables y adaptados a las necesidades específicas de las organizaciones relevantes. La confianza es la métrica de seguridad cibernética más importante en la práctica, la confianza en una operación de seguridad se reduce a dos estándares clave: precisión: ¿identifica correctamente las amenazas y ejecuta la acción prevista sin una interrupción innecesaria? Confiabilidad: ¿Lo hace de manera consistente en diferentes escenarios, entornos y plazos? Para la IA en ciberseguridad, estos son requisitos operativos y medibles. Incluso con la automatización tradicional, la inexactitud puede causar daños reales. Un libro de jugadas mal configurado para el relleno de credenciales, por ejemplo, podría bloquear cientos de usuarios legítimos si la lógica de detección es defectuosa. Un flujo de trabajo de prevención de phishing demasiado celoso podría poner en cuarentena los correos electrónicos de negocios críticos. Cuando la acción incorrecta ocurre a la velocidad de la máquina, el impacto es inmediato y generalizado. Por qué la confianza es más importante en la era de agente, la IA agente agrava estos riesgos. La primera ola de IA en su mayoría aceleró los flujos de trabajo existentes. Todavía dependía de los libros de jugadas definidos por humanos, lo que significa que el mayor riesgo era un mal guión ejecutado demasiado rápido. Sin embargo, los sistemas de IA agente no solo siguen las reglas. Investigan, deciden y actúan en tiempo real, adaptándose a medida que las situaciones evolucionan. Eso significa que hay más puntos de decisión donde la precisión y confiabilidad son importantes, tanto en qué tan bien el sistema sigue un plan, como también en si elige el plan correcto en primer lugar. Por ejemplo, un sistema de IA agente que detecta el movimiento lateral malicioso en una red podría: correlacionar los registros de autenticación de Active Directory, la telemetría de punto final de las herramientas EDR y los patrones de tráfico de la red este-oeste para identificar el uso sospechoso de credenciales. Decide deshabilitar los boletos de Kerberos afectados y revocar tokens OAuth específicos asociados con las cuentas comprometidas, en lugar de bloquear a todos los usuarios fuera del dominio. Adapte la respuesta media si detecta nuevos intentos de escalada de privilegios, implementando automáticamente una política de PAM justo a tiempo para restringir el acceso a sistemas confidenciales. Activar una actualización de reglas IDS/IPS en tiempo real para bloquear más conexiones laterales de los hosts de origen identificados. En este escenario, la IA no está ejecutando un script de «Deshabilitar cuenta» previamente codificado. Está tomando decisiones de contención de múltiples capas basadas en la telemetría viva, ajustando sus acciones como aparecen un nuevo indicador y aplicando contramedidas específicas que minimizan la interrupción operativa. Ese juicio debe ser preciso, confiable y transparente. Un movimiento falso podría reducir las sesiones administrativas legítimas, interrumpir las operaciones críticas o desencadenar fallas innecesarias en los sistemas de producción. En última instancia, la confianza es el recibo de permiso para permitir que AI funcione con este nivel de autonomía. Sin una precisión y confiabilidad comprobadas, no puede entregar con confianza las decisiones que ocurren en segundos e impactan sus operaciones comerciales. Cómo operacionalizar la confianza en la IA cuando los sistemas de IA pueden actuar de forma independiente, la confianza se detiene que tiene las barandillas operativas y los bucles de retroalimentación que hacen que esa confianza se justifique. Esto significa: definir barandillas claras: establezca los límites para lo que AI puede actuar de manera autónoma versus lo que necesita intervención humana. Pruebas en escenarios del mundo real: simule incidentes en sus entornos para validar la precisión y la confiabilidad antes de la implementación. Construyendo bucles de retroalimentación continua: revisión del analista de alimentación y telemetría en el sistema para aprender y mejora con el tiempo. Medición de la confianza a lo largo del tiempo: rastree las métricas como las tasas positivas verdaderas, el tiempo medio de contener (MTTC) y la consistencia entre los tipos de incidentes. Hay plataformas que demuestran cómo funciona en la práctica. Las mejores plataformas se adaptan al entorno de cada cliente y proporcionan visibilidad en cada decisión, lo que facilita a los analistas validar las acciones y refinar las respuestas futuras. La conclusión de los sistemas de IA asume roles más autónomos en las operaciones de seguridad, el margen de error se hace más pequeño. La precisión y la confiabilidad se han convertido en requisitos previos para la implementación. Operacionalizar la confianza significa definir límites claros para la acción autónoma, validar el rendimiento en condiciones del mundo real y mantener un ciclo de retroalimentación continua entre analistas humanos y sistemas de IA. Solo entonces pueden los analistas confiar en sus flujos de trabajo. Sobre el autor: Josh Breaker-Rolfe es un escritor de contenido en Bora. Se graduó con un título en periodismo en 2021 y tiene antecedentes en ciberseguridad PR. Está escrito sobre una amplia gama de temas, desde AI hasta Zero Trust, y está particularmente interesado en los impactos de la ciberseguridad en la economía en general. Follow me on Twitter: @securityaffairs and Facebook and Mastodon Pierluigi Paganini (SecurityAffairs – hacking, Cybersecurity) Original Post URL: https://securityaffairs.com/181278/security/ai-for-cybersecurity-building-trust-in-your-workflows.htmlCategory & Tags: Breaking Noticias, seguridad, ciberseguridad, noticias de piratería, noticias de seguridad de la información, seguridad de la información de TI, Pierluigi Paganini, noticias de seguridad: noticias de última hora, seguridad, seguridad cibernética, noticias de piratería, noticias de seguridad de la información, seguridad de la información, Pierluigi Paganini, noticias de seguridad