Inteligencia artificial y aprendizaje automático, tecnologías de próxima generación y desarrollo seguro Cómo aprovechar de manera responsable el potencial de la IA para fortalecer las defensas de ciberseguridad Chris Novak, director sénior, Consultoría de ciberseguridad de Verizon • 14 de agosto de 2024 El potencial de los ciberdelincuentes para desatar ataques devastadores mejorados por IA evoca visiones aterradoras de ciberataques más grandes, más amplios y más difíciles de detectar y prevenir para las organizaciones. Consulte también: Guía para ejecutivos sobre cómo poner en funcionamiento la IA generativa Afortunadamente, esto aún no está sucediendo, hasta donde se sabe. Sin lugar a dudas, la evolución de la IA generativa en el último año ha desatado un torrente de escenarios hipotéticos sorprendentes, pero como muestra el Informe de investigaciones de violaciones de datos de 2024 de Verizon, parece haber una brecha entre las capacidades percibidas de la IA generativa y su uso real en los ciberataques. El informe DBIR de 2024 cita el aumento vertiginoso de la «publicidad» sobre la IA generativa y las muy pocas «menciones» reales sobre la IA generativa, junto con los tipos y vectores de ataques tradicionales, como el phishing, el malware, la vulnerabilidad y el ransomware. A pesar de la publicidad, sigue siendo esencial que los líderes de seguridad se centren ahora en los riesgos de la IA. Muchas organizaciones ya han comenzado a evaluar cómo se puede utilizar la IA para mejorar sus ciberdefensas, especialmente en la detección y el triaje de los ciberataques. «La mayoría de las personas ni siquiera se darán cuenta cuando se produzca un ataque mejorado con IA, porque el impacto de la IA es muy matizado», dijo Chris Novak, director sénior de consultoría de ciberseguridad de Verizon. «Sin embargo, si trabajas en tecnología o en el campo de la IA generativa, puedes ver lo fácil que es manipular los datos para obtener los efectos deseados». Con más de 20 años de experiencia en ciberseguridad, Novak y su equipo trabajan para brindar apoyo a clientes tanto del sector público como del privado. Novak dijo que los algoritmos impulsados ​​por IA se están utilizando en el lado de la «promesa» de la ecuación para analizar grandes cantidades de datos casi en tiempo real, lo que permite una rápida identificación de anomalías que ayudan a las organizaciones a interceptar amenazas potenciales. La necesidad de velocidad es clara, ya que los incidentes de ataque pueden surgir y propagarse rápidamente, lo que constituye un sólido argumento a favor de las herramientas de monitoreo de ciberseguridad habilitadas con IA. «Cuanto más rápido pueda responder a un incidente, mejor», dijo. Los algoritmos de IA se pueden utilizar para detectar patrones y comportamientos con un nivel de precisión que supera los métodos tradicionales o manuales. «Los sistemas impulsados ​​por IA pueden proporcionar evaluaciones de amenazas más precisas al aprender continuamente de nuevos datos y adaptarse a las amenazas emergentes», dijo Novak. Amenazas de IA: reales y percibidas A medida que las organizaciones trabajan para adoptar los avances de la IA, también deben prepararse para desafíos sofisticados, particularmente en áreas como la IA de generación y las tecnologías deepfake. Los modelos de IA de generación, por ejemplo, son capaces de crear personajes falsos convincentes o generar correos electrónicos de phishing realistas, lo que podría permitir a los atacantes apuntar a individuos u organizaciones y evadir las medidas de seguridad tradicionales. Sin embargo, como informa el DBIR de 2024, las deepfakes parecen ser un problema potencial impulsado por la IA más que el phishing, porque los métodos tradicionales de phishing de baja tecnología siguen funcionando bastante bien para atrapar a víctimas desprevenidas. Los avances en las tecnologías de deepfake ya han generado situaciones de fraude y desinformación, según el DBIR, lo que sugiere que las deepfakes son una preocupación más inmediata debido a su potencial para crear contenido falso convincente. La IA presenta hoy un desafío emergente en etapa temprana. «Los defensores deben aprender a adaptar sus estrategias de ciberseguridad para combatir las amenazas cambiantes impulsadas por la IA, al mismo tiempo que aprenden a aprovechar la IA/ML para impulsar las capacidades defensivas», dijo Novak. Amenazas desde dentro A través de su Programa de Amenazas Internas, Verizon ha podido establecer una línea de base de comportamiento normal, utilizada para ayudar a identificar y mitigar los riesgos planteados por los empleados u otros usuarios autorizados. Los algoritmos de IA pueden detectar desviaciones o anomalías que pueden sugerir amenazas internas, como acceso no autorizado a información confidencial o transferencias de datos inusuales. “Si las personas saben que existe un programa sólido y sólido contra amenazas internas y que se están monitoreando sus acciones, eso suele servir como un elemento disuasorio eficaz”, dijo Novak. Consideremos el escenario de un representante de servicio al cliente que intenta acceder a la información de la cuenta sin la aprobación previa del cliente. “Esa es una señal de alerta que estaría fuera de las acciones normales que se toman para revisar las cuentas de los usuarios”, dijo Novak, y agregó que la IA puede examinar los datos de la red para ver ese tipo de patrones de comportamiento y ayudar a conectar rápidamente los puntos. La IA también puede ser fundamental para la detección y respuesta de puntos finales o EDR, dijo Novak. Se puede utilizar hoy para monitorear y analizar dispositivos de puntos finales en busca de signos de actividad maliciosa o comportamiento anormal. Con la ayuda de la IA y el aprendizaje de los conjuntos de datos, los algoritmos de aprendizaje pueden identificar patrones de malware, ejecuciones de procesos inusuales o cambios no autorizados en el sistema que pueden indicar una violación de seguridad. Por ejemplo, si un ataque de ransomware encripta archivos en un dispositivo de punto final, la EDR impulsada por IA puede detectar el proceso de encriptación y alertar a los equipos de seguridad para que tomen medidas inmediatas para contener esa amenaza. Mejores prácticas de gobernanza de la IA El uso de la IA sin una gobernanza sólida es como conducir un coche deportivo de alta potencia sin frenos ni leyes de tránsito. Si bien la velocidad y la potencia de un automóvil pueden crear posibilidades emocionantes, la necesidad de controles y reglas de tránsito garantiza la seguridad y previene accidentes. Las poderosas capacidades de la IA requieren gobernanza para garantizar su uso ético y responsable. Novak dijo que una buena gobernanza de la IA debe incorporar los siguientes elementos: Un proceso de revisión riguroso para las aplicaciones de IA, asegurando que se adhieran a los estándares éticos y los requisitos legales; Protocolos de acceso estrictos para herramientas de IA generativas para ayudar a prevenir el uso indebido y salvaguardar la privacidad de los datos y medidas de autenticación sólidas para ayudar a los líderes de seguridad a monitorear y rastrear el uso; Programas de educación y concientización para ayudar a garantizar que los empleados comprendan los riesgos relacionados con la IA y lo que deben saber para usar las herramientas de IA de manera responsable; Las sesiones de capacitación y actualizaciones periódicas también son útiles para ayudar a mantener al personal informado sobre las amenazas emergentes y las mejores prácticas. Cómo mantenerse por delante de los ciberdelincuentes Las organizaciones deben adoptar un enfoque estratégico para la IA, considerando tanto sus beneficios como sus riesgos. En muchas industrias se están evaluando las capacidades emergentes de la IA, como el procesamiento avanzado del lenguaje natural y las respuestas de seguridad automatizadas, para ayudar a los equipos de seguridad a mejorar la detección de amenazas y reducir los tiempos de respuesta a los incidentes. Sin embargo, por otro lado, el potencial de ataques impulsados ​​por IA, incluso si aún no son comunes, exige un monitoreo continuo para mantenerse por delante de todas y cada una de las amenazas emergentes. Los cibercriminales suelen ser los primeros en adoptar nuevas tecnologías para impulsar sus ataques, lo que hace que los defensores sean proactivos a la hora de comprender y adoptar la ciberseguridad mejorada por IA. Al utilizar la IA de manera estratégica y responsable, las organizaciones pueden fortalecer las defensas de ciberseguridad para gestionar mejor los riesgos de ciberseguridad, al tiempo que se preparan para nuevos ataques que aprovechen la IA para los ciberataques. Al final, dijo Novak, la mejor defensa contra las ciberamenazas «siempre será un enfoque equilibrado que aproveche el ingenio humano junto con el poder computacional de la IA». Los CISO y los líderes de seguridad que trabajan para aprender más sobre cómo adoptar de manera responsable el potencial de la IA para fortalecer las defensas de ciberseguridad deben revisar los últimos conocimientos de Verizon aquí. URL de la publicación original: https://www.databreachtoday.com/blogs/equilibrar-los-riesgos-de-la-promesa-de-ais-en-la-ciberseguridad-p-3692