Inteligencia artificial y aprendizaje automático, Black Hat, Eventos También: Peligros del código malicioso integrado en modelos de ML; ¿Está el ransomware en declive? Michael Novinson (MichaelNovinson) • 22 de agosto de 2024 De izquierda a derecha: Aseem Jakhar, Tom Field y Michael Novinson En Black Hat 2024, los editores de Information Security Media Group analizaron cómo la IA amplifica las amenazas de ingeniería social, los peligros del código malicioso integrado en modelos de aprendizaje automático y el debate en curso sobre el impacto y el declive del ransomware. Ver también: La hoja de ruta de selección de SIEM: cinco características que definen la ciberseguridad de próxima generación Los panelistas (Tom Field, vicepresidente sénior, editorial; Michael Novinson, editor gerente, negocios; y Aseem Jakhar, cofundador de EXPLIoT) analizaron: Cómo las falsificaciones profundas impulsadas por IA pueden manipular a las personas en varias plataformas y alimentar la propagación de información errónea relacionada con las elecciones; Riesgos de seguridad introducidos por la IA en varias plataformas, incluidos los modelos de aprendizaje automático que pueden ejecutar código dañino sin el conocimiento de los usuarios; El grado de evolución de los ataques de ransomware en los últimos cinco años y si el ransomware está en declive fuera del sector sanitario. URL original de la publicación: https://www.databreachtoday.com/ismg-editors-social-engineering-election-defense-in-ai-era-a-26123