OpenAI está desarrollando capacidades de ciberseguridad impulsadas por IA para el ejército estadounidense y acelerando su trabajo de seguridad electoral, dijeron los ejecutivos del laboratorio en el Foro Económico Mundial (FEM) en Davos esta semana. El cambio de opinión público sobre el trabajo con las fuerzas armadas se produce días después de un cambio en el lenguaje de la política de OpenAI, que anteriormente prohibía el uso de sus modelos de IA generativa para aplicaciones «militares y de guerra», así como «la generación de malware» con su tecnología. . Esas restricciones ahora han desaparecido de la letra pequeña del fabricante de ChatGPT. Dicho esto, el súper laboratorio enfatizó que su tecnología aún no debe usarse para violencia, destrucción o espionaje de comunicaciones. «Nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades», dijo hoy un portavoz de OpenAI a The Register. «Sin embargo, existen casos de uso de seguridad nacional que se alinean con nuestra misión. «Ya estamos trabajando con DARPA para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura y la industria críticas. No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo la denominación «militar» en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones». El martes, durante una entrevista en la fiesta del WEF para los líderes del mundo, la vicepresidenta de Asuntos Globales de OpenAI, Anna Makanju, dijo que su asociación con el Pentágono incluye el desarrollo de software de ciberseguridad de código abierto. OpenAI también está iniciando conversaciones con el gobierno de EE. UU. sobre cómo su tecnología puede ayudar a prevenir los suicidios de veteranos, dijo. «Debido a que anteriormente teníamos lo que era esencialmente una prohibición general sobre el uso militar, mucha gente pensó que eso prohibiría muchas de estos casos de uso, que la gente piensa que están muy alineados con lo que queremos ver en el mundo», dijo Makanju. Sin embargo, a pesar de eliminar «militar y guerra» junto con otros «usos no permitidos» para ChatGPT, Makanju dijo que OpenAI mantiene su prohibición del uso de sus modelos para desarrollar armas para dañar a las personas. También durante la misma entrevista, el director ejecutivo de OpenAI, Sam Altman, dijo que el negocio está tomando medidas para garantizar que sus herramientas de inteligencia artificial generativa no se utilicen para difundir desinformación relacionada con las elecciones. También sigue a un impulso similar de Microsoft, el mayor inversor de OpenAI, que en noviembre anunció una estrategia de protección electoral de cinco pasos para «Estados Unidos y otros países donde se llevarán a cabo elecciones críticas en 2024». «Hay mucho en juego en esta elección», dijo Altman el martes. Esto se produce un día después de la gran victoria del expresidente estadounidense Donald Trump en el caucus de Iowa el lunes. Y todos estos temas (IA, ciberseguridad y desinformación) desempeñan papeles destacados en la agenda cuando los líderes mundiales se reúnan esta semana en Davos. Según el Informe de riesgos globales 2024 del WEF, publicado la semana pasada, la «información errónea y la desinformación» es el principal riesgo global a corto plazo, y la «inseguridad cibernética» ocupa el cuarto lugar. El auge de la IA generativa exacerba estos desafíos: el 56 por ciento de los ejecutivos encuestados en la Reunión Anual de Ciberseguridad del WEF en noviembre de 2023 dijeron que la IA generativa brindará a los atacantes una ventaja sobre los defensores en los próximos dos años. «Una preocupación particular rodea el uso de tecnologías de inteligencia artificial para impulsar las capacidades de guerra cibernética, y con razón», dijo a The Register Bernard Montel, director técnico de Tenable para EMEA. «Si bien la IA ha logrado avances tecnológicos astronómicos en los últimos 12 a 24 meses, permitir que un dispositivo autónomo emita un juicio final es incomprensible hoy», añadió. «Si bien la IA es capaz de identificar y automatizar rápidamente algunas acciones que deben tomarse, es imperativo que sean los humanos quienes tomen decisiones críticas sobre dónde y cuándo actuar a partir de la inteligencia que proporciona la IA». ®

Source link