Cientos de profesionales, analistas y tomadores de decisiones de ciberseguridad se reunieron a principios de este mes para ESET World 2024, una conferencia que mostró la visión y los avances tecnológicos de la compañía y presentó una serie de charlas esclarecedoras sobre las últimas tendencias en ciberseguridad y más. Los temas abarcaron toda la gama, pero es seguro decir que los temas que más resonaron incluyeron la investigación de amenazas de vanguardia de ESET y las perspectivas sobre la inteligencia artificial (IA). Veamos ahora brevemente algunas sesiones que cubrieron el tema que está en boca de todos estos días: la IA. De vuelta a lo básico En primer lugar, el Director de Tecnología (CTO) de ESET, Juraj Malcho, presentó la situación y ofreció su visión de los desafíos y oportunidades clave que ofrece la IA. Sin embargo, no se detuvo ahí y pasó a buscar respuestas a algunas de las preguntas fundamentales que rodean a la IA, incluida «¿Es tan revolucionaria como se dice que es?». Juraj Malcho, director de tecnología, ESET Las iteraciones actuales de la tecnología de IA se presentan principalmente en forma de grandes modelos de lenguaje (LLM) y varios asistentes digitales que hacen que la tecnología parezca muy real. Sin embargo, todavía son bastante limitados y debemos definir minuciosamente cómo queremos utilizar la tecnología para potenciar nuestros propios procesos, incluidos sus usos en ciberseguridad. Por ejemplo, la IA puede simplificar la ciberdefensa al deconstruir ataques complejos y reducir la demanda de recursos. De esa manera, mejora las capacidades de seguridad de las operaciones de TI empresariales con poco personal. Desmitificando la IA Juraj Jánošík, Director de Inteligencia Artificial de ESET, y Filip Mazán, Gerente Senior de Detección Avanzada de Amenazas e IA de ESET, presentaron una visión integral del mundo de la IA y el aprendizaje automático, explorando sus raíces y características distintivas. . Juraj Jánošík, Director de Inteligencia Artificial de ESET, y Filip Mazan, Gerente Senior de Detección Avanzada de Amenazas. El Sr. Mazán demostró cómo se basan fundamentalmente en la biología humana, en la que las redes de IA imitan algunos aspectos de cómo funcionan las neuronas biológicas para crear redes neuronales artificiales. con parámetros variables. Cuanto más compleja es la red, mayor es su poder predictivo, lo que lleva a avances observados en asistentes digitales como Alexa y LLM como ChatGPT o Claude. Posteriormente, Mazán destacó que a medida que los modelos de IA se vuelven más complejos, su utilidad puede disminuir. A medida que nos acercamos a la recreación del cerebro humano, el creciente número de parámetros requiere un refinamiento exhaustivo. Este proceso requiere supervisión humana para monitorear y ajustar constantemente las operaciones del modelo. Y los cerdos podrían volar… (los modelos de IA generativa pueden ser magistralmente artísticos) De hecho, los modelos más sencillos a veces son mejores. Mazán describió cómo el uso estricto de las capacidades internas de IA de ESET da como resultado una detección de amenazas más rápida y precisa, satisfaciendo la necesidad de respuestas rápidas y precisas a todo tipo de amenazas. También se hizo eco del Sr. Malcho y destacó algunas de las limitaciones que afectan a los modelos de lenguajes grandes (LLM). Estos modelos funcionan basándose en la predicción e implican conectar significados, que pueden confundirse fácilmente y provocar alucinaciones. En otras palabras, la utilidad de estos modelos tiene sus límites. Otras limitaciones de la tecnología de IA actual Además, el Sr. Jánošík continuó abordando otras limitaciones de la IA contemporánea: Explicabilidad: los modelos actuales constan de parámetros complejos, lo que hace que sus procesos de toma de decisiones sean difíciles de entender. A diferencia del cerebro humano, que opera con explicaciones causales, estos modelos funcionan a través de correlaciones estadísticas, que no son intuitivas para los humanos. Transparencia: Los mejores modelos son propietarios (jardines amurallados), sin visibilidad de su funcionamiento interno. Esta falta de transparencia significa que no hay responsabilidad sobre cómo se configuran estos modelos o sobre los resultados que producen. Alucinaciones: los chatbots de IA generativa a menudo generan información plausible pero incorrecta. Estos modelos pueden irradiar mucha confianza y al mismo tiempo brindar información falsa, lo que genera contratiempos e incluso problemas legales, como después de que el chatbot de Air Canada presentara información falsa sobre un descuento a un pasajero. Afortunadamente, los límites también se aplican al uso indebido de la tecnología de inteligencia artificial para actividades maliciosas. Si bien los chatbots pueden formular fácilmente mensajes que parezcan plausibles para ayudar en ataques de phishing o de compromiso del correo electrónico empresarial, no están tan bien equipados para crear malware peligroso. Esta limitación se debe a su propensión a «alucinaciones» (que producen resultados plausibles pero incorrectos o ilógicos) y a sus debilidades subyacentes a la hora de generar código funcional y lógicamente conectado. Como resultado, la creación de malware nuevo y eficaz normalmente requiere la intervención de un experto real para corregir y refinar el código, lo que hace que el proceso sea más desafiante de lo que algunos podrían suponer. Por último, como señaló el Sr. Jánošík, la IA es simplemente otra herramienta que debemos comprender y utilizar de manera responsable. El auge de los clones En la siguiente sesión, Jake Moore, asesor de ciberseguridad global de ESET, dio una muestra de lo que es posible actualmente con las herramientas adecuadas, desde la clonación de tarjetas RFID y la piratería de CCTV hasta la creación de deepfakes convincentes, y cómo se puede lograr. poner en riesgo los datos y las finanzas corporativas. Entre otras cosas, mostró lo fácil que es vulnerar las instalaciones de una empresa utilizando un conocido dispositivo de piratería para copiar las tarjetas de entrada de los empleados o piratear (¡con permiso!) una cuenta de redes sociales del director general de la empresa. Continuó usando una herramienta para clonar su imagen, tanto facial como de voz, para crear un video deepfake convincente que luego publicó en una de las cuentas de redes sociales del CEO. Jake Moore, asesor de seguridad global, ESET El vídeo, en el que el aspirante a CEO anunciaba un “desafío” para viajar en bicicleta desde el Reino Unido a Australia y acumuló más de 5.000 visitas, fue tan convincente que la gente empezó a proponer patrocinios. De hecho, incluso el director financiero de la empresa también se dejó engañar por el vídeo y le preguntó al director general sobre su futuro paradero. Sólo una persona no se dejó engañar: la hija de 14 años del director ejecutivo. En unos pocos pasos, Moore demostró el peligro que supone la rápida propagación de los deepfakes. De hecho, ver ya no es creer: las empresas y las propias personas necesitan examinar todo lo que encuentran en línea. Y con la llegada de herramientas de inteligencia artificial como Sora, que pueden crear videos basados ​​en unas pocas líneas de entrada, podrían estar cerca tiempos peligrosos. Toques finales La sesión final dedicada a la naturaleza de la IA fue un panel que incluyó al Sr. Jánošík, al Sr. Mazán y al Sr. Moore y estuvo dirigido por la Sra. Pavlova. Comenzó con una pregunta sobre el estado actual de la IA, donde los panelistas coincidieron en que los últimos modelos están repletos de muchos parámetros y necesitan un mayor perfeccionamiento. El panel de discusión sobre IA estuvo presidido por Victoria Pavlova, editora británica de la revista CRN. Luego la discusión pasó a los peligros y preocupaciones inmediatos para las empresas. Moore enfatizó que un número significativo de personas desconocen las capacidades de la IA, que los malos actores pueden explotar. Aunque los panelistas coincidieron en que el malware sofisticado generado por IA no es actualmente una amenaza inminente, otros peligros, como la generación mejorada de correos electrónicos de phishing y los deepfakes creados utilizando modelos públicos, son muy reales. Además, como destacó Jánošík, el mayor peligro radica en el aspecto de privacidad de los datos de la IA, dada la cantidad de datos que estos modelos reciben de los usuarios. En la UE, por ejemplo, el RGPD y la Ley de IA han establecido algunos marcos para la protección de datos, pero eso no es suficiente, ya que no son leyes globales. La IA actual presenta tanto oportunidades como algunos peligros reales. Moore añadió que las empresas deberían asegurarse de que sus datos permanezcan internamente. Las versiones empresariales de modelos generativos pueden cumplir los requisitos, obviando la “necesidad” de depender de versiones (gratuitas) que almacenan datos en servidores externos, poniendo posiblemente en riesgo datos corporativos confidenciales. Para abordar las preocupaciones sobre la privacidad de los datos, Mazán sugirió que las empresas deberían comenzar desde abajo hacia arriba, aprovechando modelos de código abierto que puedan funcionar para casos de uso más simples, como la generación de resúmenes. Sólo si resultan ser inadecuados las empresas deberían pasar a soluciones de terceros impulsadas por la nube. El Sr. Jánošík concluyó diciendo que las empresas a menudo pasan por alto los inconvenientes del uso de la IA; de hecho, se necesitan directrices para el uso seguro de la IA, pero incluso el sentido común contribuye en gran medida a mantener seguros sus datos. Como resumió el Sr. Moore en una respuesta sobre cómo debería regularse la IA, existe una necesidad apremiante de crear conciencia sobre el potencial de la IA, incluido el potencial dañino. Fomentar el pensamiento crítico es crucial para garantizar la seguridad en nuestro mundo cada vez más impulsado por la IA.