Andriy Onufriyenko/Getty ImagesEn la cumbre Asia Tech x Singapore 2024, varios oradores estaban listos para discusiones de alto nivel y una mayor conciencia sobre la importancia de que la seguridad de la inteligencia artificial (IA) se convierta en acción. Muchos buscan preparar a todos, desde organizaciones hasta individuos, con las herramientas para implementar esta tecnología correctamente. Además: Cómo utilizar ChatGPT para analizar archivos PDF de forma gratuita»Pasar a la acción pragmático y práctico. Eso es lo que falta», dijo Ieva Martinekaite, jefa de investigación e innovación de Telenor Group, quien habló con ZDNET al margen de la cumbre. Martinekaite es miembro de la junta directiva del Open AI Lab de Noruega y miembro del Consejo Asesor de Singapur sobre el uso ético de la IA y los datos. También se desempeñó como miembro experto en el Grupo de Expertos de Alto Nivel sobre IA de la Comisión Europea de 2018 a 2020. Martinekaite señaló que los altos funcionarios también están comenzando a reconocer este problema. Los delegados a la conferencia, que incluían a altos ministros gubernamentales de varias naciones, bromearon diciendo que simplemente estaban quemando combustible para aviones al asistir a reuniones de alto nivel sobre cumbres sobre seguridad de la IA, más recientemente en Corea del Sur y el Reino Unido, dado que aún tienen poco que mostrar. en términos de medidas concretas. Martinekaite dijo que es hora de que los gobiernos y los organismos internacionales comiencen a implementar guías, marcos y herramientas de evaluación comparativa para ayudar a las empresas y a los usuarios a garantizar que están implementando y consumiendo IA de manera segura. Añadió que también se necesitan inversiones continuas para facilitar tales esfuerzos. Los deepfakes generados por IA, en particular, conllevan riesgos importantes y pueden afectar infraestructuras críticas, advirtió. Ya son una realidad hoy en día: han aparecido imágenes y vídeos de políticos, figuras públicas e incluso Taylor Swift. Además: existen más deepfakes políticos de los que crees Martinekaite añadió que la tecnología ahora es más sofisticada que hace un año, lo que la hace cada vez más Es difícil identificar deepfakes. Los ciberdelincuentes pueden aprovechar esta tecnología para robar credenciales y obtener acceso ilegal a sistemas y datos. «Los piratas informáticos no piratean, inician sesión», dijo. Se trata de una cuestión crítica en algunos sectores, como el de las telecomunicaciones, donde los deepfakes pueden utilizarse para penetrar infraestructuras críticas y amplificar los ciberataques. Martinekaite señaló que las identificaciones de los empleados pueden ser falsificadas y utilizadas para acceder a centros de datos y sistemas de TI, y agregó que si esta inercia no se aborda, el mundo corre el riesgo de sufrir un ataque potencialmente devastador. Los usuarios deben estar equipados con la formación y las herramientas necesarias para identificar y combatir esos riesgos, afirmó. También es necesario desarrollar tecnología para detectar y prevenir dichos contenidos generados por IA, incluidos textos e imágenes, como marcas de agua digitales y análisis forense de medios. Martinekaite cree que estos deberían implementarse junto con la legislación y la colaboración internacional. Sin embargo, señaló que los marcos legislativos no deberían regular la tecnología, o la innovación en IA podría verse sofocada e impactar los posibles avances en la atención médica, por ejemplo. En cambio, las regulaciones deberían abordar dónde la tecnología deepfake tiene el mayor impacto, como las infraestructuras críticas y los servicios gubernamentales. Requisitos como marcas de agua, autenticación de fuentes y barreras de seguridad para el acceso y rastreo de datos se pueden implementar para sectores de alto riesgo y proveedores de tecnología relevantes, dijo Martinekaite. Según Natasha Crampton, directora responsable de IA de Microsoft, la compañía ha experimentado un aumento en los deepfakes, las imágenes no consensuales y el ciberacoso. Durante una mesa redonda en la cumbre, dijo que Microsoft se está centrando en rastrear contenido engañoso en línea en torno a las elecciones, especialmente con varias elecciones este año. Stefan Schnorr, secretario de estado del Ministerio Federal de Digital y Transporte de Alemania, dijo que los deepfakes potencialmente pueden difundir información falsa. información y engañan a los votantes, lo que resulta en una pérdida de confianza en las instituciones democráticas. Además: Qué significan para usted las credenciales de contenido de TikTok. Protegerse contra esto también implica el compromiso de salvaguardar los datos personales y la privacidad, añadió Schnorr. Subrayó la necesidad de que las empresas de tecnología y cooperación internacional se adhieran a las leyes cibernéticas implementadas para impulsar la seguridad de la IA, como la Ley de IA de la UE. Si se les permite perpetuarse sin restricciones, los deepfakes podrían afectar la toma de decisiones, dijo Zeng Yi, director del Laboratorio de Inteligencia Cognitiva inspirado en el Cerebro y del Centro Internacional de Investigación para la Ética y la Gobernanza de la IA del Instituto de Automatización de la Academia de Ciencias de China. Zeng también enfatizó la necesidad de cooperación internacional y sugirió que se debería establecer un «observatorio» de deepfake en todo el mundo para impulsar una mejor comprensión e intercambio de información sobre la desinformación en un esfuerzo por evitar que dicho contenido se propague desenfrenadamente en todos los países. Una infraestructura global que verifique los hechos y la desinformación también puede ayudar a informar al público en general sobre los deepfakes, dijo. Singapur actualiza el marco de gobernanza de la IA generativa Mientras tanto, Singapur ha lanzado la versión final de su marco de gobernanza para la IA generativa, que amplía su marco de gobernanza de la IA existente, introducido por primera vez en 2019 y actualizado por última vez en 2020. El marco modelo de gobernanza de la IA para GenAI establece un Un enfoque «sistemático y equilibrado» que, según Singapur, equilibra la necesidad de abordar las preocupaciones de GenAI e impulsar la innovación. Abarca nueve dimensiones, incluida la notificación de incidentes, la procedencia del contenido, la seguridad y las pruebas y garantía, y proporciona sugerencias sobre los pasos iniciales a seguir. En una etapa posterior, AI Verify, el grupo detrás del marco, agregará pautas y recursos más detallados bajo las nueve dimensiones. Para respaldar la interoperabilidad, también mapearán el marco de gobernanza en las directrices internacionales de IA, como los Principios de Hiroshima del G7. Además: las características de IA de Apple y la velocidad de entrenamiento de IA de Nvidia encabezan el Índice de Innovación. La buena gobernanza es tan importante como la innovación para cumplir la visión de Singapur de la IA para bueno y puede ayudar a permitir una innovación sostenida, dijo Josephine Teo, Ministra de Comunicaciones e Información de Singapur y Ministra encargada de Nación Inteligente y Ciberseguridad, durante su discurso en la cumbre. «Necesitamos reconocer que una cosa es lidiar con los efectos dañinos de la IA, pero otra es evitar que ocurran en primer lugar… a través de un diseño adecuado y medidas preliminares», dijo Teo. Añadió que las medidas de mitigación de riesgos son esenciales y que las nuevas regulaciones que estén «basadas en evidencia» pueden dar como resultado una gobernanza de la IA más significativa e impactante. Además de establecer la gobernanza de la IA, Singapur también busca aumentar sus capacidades de gobernanza, como la construcción de un centro para Tecnología avanzada en seguridad en línea que se centra en contenido en línea malicioso generado por IA. Los usuarios también deben comprender los riesgos. Teo señaló que es de interés público que las organizaciones que utilizan la IA comprendan tanto sus ventajas como sus limitaciones. Teo cree que las empresas deberían entonces equiparse con la mentalidad, las capacidades y las herramientas adecuadas para hacerlo. Añadió que el marco modelo de gobernanza de la IA de Singapur ofrece directrices prácticas sobre lo que se debe implementar como salvaguardas. También establece requisitos básicos para las implementaciones de IA, independientemente del tamaño o los recursos de la empresa. Según Martinekaite, para Telenor, la gobernanza de la IA también significa monitorear el uso de nuevas herramientas de IA y reevaluar los riesgos potenciales. La empresa de telecomunicaciones noruega está probando actualmente Microsoft Copilot, que se basa en la tecnología de OpenAI, en contra de los propios principios éticos de IA de Telenor. Cuando se le preguntó si la reciente disputa de OpenAI con su modo de voz había afectado su confianza en el uso de la tecnología, Martinekaite dijo que las principales empresas que ejecutan infraestructuras críticas como Telenor tiene la capacidad y los controles establecidos para garantizar que están implementando herramientas de inteligencia artificial confiables, incluidas plataformas de terceros como OpenAI. Esto también incluye trabajar con socios como proveedores de nube y proveedores de soluciones más pequeños para comprender y aprender sobre las herramientas que utiliza. Telenor creó un grupo de trabajo el año pasado para supervisar la adopción de una IA responsable. Martinekaite explicó que esto implica establecer principios que sus empleados deben observar, crear libros de reglas y herramientas para guiar el uso de la IA y establecer estándares que sus socios, incluido Microsoft, deben observar. Estos están destinados a garantizar que la tecnología que utiliza la empresa sea legal y segura, explicó. agregado. Telenor también cuenta con un equipo interno que revisa sus estructuras de gobernanza y gestión de riesgos para tener en cuenta su uso de GenAI. Evaluará las herramientas y los remedios necesarios para garantizar que tiene la estructura de gobernanza adecuada para gestionar su uso de IA en áreas de alto riesgo, señaló Martinekaite. Además: las fallas de seguridad en la nube de las empresas son «preocupantes» a medida que las amenazas de IA se aceleran. A medida que las organizaciones usan sus propios datos para entrenar y ajustar modelos de lenguaje grandes y modelos de IA más pequeños, Martinekaite cree que las empresas y los desarrolladores de IA discutirán cada vez más cómo se usan y administran estos datos. . También cree que la necesidad de cumplir con nuevas leyes, como la Ley de IA de la UE, impulsará aún más dichas conversaciones, a medida que las empresas trabajan para garantizar que cumplen con los requisitos adicionales para implementaciones de IA de alto riesgo. Por ejemplo, necesitarán saber cómo se seleccionan y rastrean sus datos de entrenamiento de IA. Hay mucho más escrutinio y preocupaciones por parte de las organizaciones, que querrán examinar de cerca sus acuerdos contractuales con los desarrolladores de IA.