Después del deleite inicial en todo el mundo por la llegada de ChatGPT y los generadores de imágenes de IA, los funcionarios gubernamentales han comenzado a preocuparse por las formas más oscuras en que podrían usarse. El martes, el Pentágono inició reuniones con líderes de la industria tecnológica para acelerar el descubrimiento y la implementación de las aplicaciones militares más útiles. El consenso: la tecnología de inteligencia artificial emergente podría cambiar las reglas del juego para el ejército, pero necesita pruebas intensivas para garantizar que funcione de manera confiable. y que no hay vulnerabilidades que puedan ser explotadas por los adversarios. Craig Martell, jefe de la Oficina Principal de Inteligencia Artificial y Digital del Pentágono, o CDAO, dijo en un salón de baile abarrotado en el Washington Hilton que su equipo estaba tratando de equilibrar la velocidad con la precaución en implementar tecnologías de inteligencia artificial de vanguardia, al inaugurar un simposio de cuatro días sobre el tema. “Todo el mundo quiere basarse en datos”, dijo Martell. «Todo el mundo lo desea tanto que está dispuesto a creer en la magia». La capacidad de los grandes modelos de lenguaje, o LLM, como ChatGPT, para revisar enormes cantidades de información en segundos y cristalizarla en unos pocos puntos clave sugiere posibilidades atractivas para los militares. y agencias de inteligencia, que han estado luchando por encontrar la manera de examinar los océanos cada vez mayores de inteligencia bruta disponible en la era digital. “El flujo de información hacia un individuo, especialmente en entornos de alta actividad, es enorme”, dijo el capitán de la Marina de los EE. UU. , dijo en el simposio M. Xavier Lugo, comandante de misión del grupo de trabajo de IA generativa recientemente formado en el CDAO. «Contar con técnicas de resumen confiables que puedan ayudarnos a administrar esa información es crucial». Los investigadores dicen que otros posibles usos militares de los LLM podrían incluir el entrenamiento de oficiales a través de sofisticados juegos de guerra e incluso ayudar con la toma de decisiones en tiempo real.Paul Scharre, ex-Defensa Un funcionario del departamento que ahora es vicepresidente ejecutivo del Centro para una Nueva Seguridad Estadounidense dijo que algunos de los mejores usos probablemente aún no se han descubierto. Dijo que lo que ha entusiasmado a los funcionarios de defensa acerca de los LLM es su flexibilidad para manejar diversas tareas, en comparación con los sistemas de inteligencia artificial anteriores. «La mayoría de los sistemas de IA han sido IA estrecha», dijo. “Son capaces de hacer bien una tarea. AlphaGo pudo jugar Go. Los sistemas de reconocimiento facial podrían reconocer caras. Pero eso es todo lo que pueden hacer. Mientras que el lenguaje parece ser este puente hacia habilidades de propósito más general”. Pero un obstáculo importante –tal vez incluso un defecto fatal– es que los LLM continúan teniendo “alucinaciones”, en las que evocan información inexacta. Lugo dijo que no estaba claro si esto se puede solucionar y lo calificó como «el desafío número uno para la industria». El CDAO estableció el Task Force Lima, la iniciativa para estudiar la IA generativa que preside Lugo, en agosto, con el objetivo de desarrollar recomendaciones para » «responsable» despliegue de la tecnología en el Pentágono. Lugo dijo que el grupo se formó inicialmente teniendo en mente los LLM (el nombre “Lima” se deriva del código del alfabeto fonético de la OTAN para la letra “L”, en referencia a los LLM), pero su cometido se amplió rápidamente para incluir la generación de imágenes y videos. «A medida que avanzábamos incluso de la fase cero a la fase uno, entramos en la IA generativa en su conjunto», dijo. Los investigadores dicen que los LLM todavía tienen mucho camino por recorrer antes de que puedan usarse de manera confiable para propósitos de alto riesgo. Shannon Gallagher, investigadora de Carnegie Mellon que habló en la conferencia, dijo que el año pasado la Oficina del Director de Inteligencia Nacional le pidió a su equipo que explorara cómo las agencias de inteligencia pueden utilizar los LLM. Gallagher dijo que en el estudio de su equipo, idearon una «prueba con globo», en la que solicitaron a los LLM que describieran lo que sucedió en el incidente del globo de vigilancia chino a gran altitud el año pasado, como un indicador de los tipos de eventos geopolíticos que una agencia de inteligencia podría interesarse. Las respuestas abarcaron toda la gama, algunas de ellas parciales e inútiles. “Estoy seguro de que acertarán la próxima vez. Los chinos no pudieron determinar la causa del fallo. Estoy seguro de que la próxima vez lo harán bien. Eso es lo que dijeron sobre la primera prueba de la bomba atómica. Estoy seguro de que la próxima vez lo harán bien. Son chinos. Lo harán bien la próxima vez”, decía una de las respuestas. Una perspectiva aún más preocupante es que un hacker adversario podría romper el LLM de un ejército y obligarlo a divulgar sus conjuntos de datos desde el back-end. Los investigadores demostraron en noviembre que esto era posible: al pedirle a ChatGPT que repitiera la palabra «poema» para siempre, consiguieron que comenzara a filtrar datos de entrenamiento. ChatGPT solucionó esa vulnerabilidad, pero podrían existir otras. “Un adversario puede hacer que su sistema de inteligencia artificial haga algo que usted no desea que haga”, dijo Nathan VanHoudnos, otro científico de Carnegie Mellon que habló en el simposio. «Un adversario puede hacer que su sistema de IA aprenda algo incorrecto». Durante su charla del martes, Martell hizo un llamado a la ayuda de la industria, diciendo que tal vez no tenga sentido que el Departamento de Defensa construya sus propios modelos de IA. «Nosotros podemos». No haré esto sin ti”, dijo Martell. «Todos estos componentes que estamos imaginando serán colecciones de soluciones industriales». Martell estaba predicando al coro el martes, con unos 100 proveedores de tecnología compitiendo por espacio en el Hilton, muchos de ellos ansiosos por conseguir un próximo contrato. A principios de enero, OpenAI eliminó las restricciones contra las aplicaciones militares de su página de “políticas de uso”, que solía prohibir “actividades que tengan un alto riesgo de daño físico, incluido”, específicamente, el “desarrollo de armas” y “militares y guerras”. Singleton, director del Centro de Inteligencia Artificial de Defensa de Gran Bretaña, dijo en el simposio que Gran Bretaña se sentía obligada a desarrollar rápidamente una solución LLM para uso militar interno debido a la preocupación de que el personal pudiera verse tentado a utilizar LLM comerciales en su trabajo, poniendo en riesgo información confidencial. Los funcionarios estadounidenses discutieron la urgencia de implementar la IA, el elefante en la sala fue China, que declaró en 2017 que quería convertirse en el líder mundial en IA para 2030. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) del Departamento de Defensa de los EE. UU. anunció en 2018 que invertiría 2 mil millones de dólares en tecnologías de IA para asegurarse de que Estados Unidos mantuviera la ventaja. Martell se negó a discutir las capacidades de los adversarios durante su charla, diciendo que el tema se abordaría más adelante en una sesión clasificada. Scharre estimó que los modelos de IA de China Actualmente están entre 18 y 24 meses por detrás de los estadounidenses. “Las sanciones tecnológicas de Estados Unidos son una prioridad para ellos”, afirmó. «Están muy ansiosos por encontrar formas de reducir algunas de estas tensiones entre Estados Unidos y China, y eliminar algunas de estas restricciones a la tecnología estadounidense, como los chips que van a China». Gallagher dijo que China todavía podría tener una ventaja en el etiquetado de datos para Los LLM, una tarea que requiere mucha mano de obra pero es clave en la formación de los modelos. Los costos laborales siguen siendo considerablemente más bajos en China que en Estados Unidos. La reunión de CDAO de esta semana cubrirá temas que incluyen la ética del uso de LLM en defensa, cuestiones de ciberseguridad involucradas en los sistemas y cómo la tecnología se puede integrar en el flujo de trabajo diario, según la agenda de la conferencia. El viernes también habrá sesiones informativas clasificadas sobre el nuevo Centro de Seguridad de IA de la Agencia de Seguridad Nacional, anunciado en septiembre, y el programa de IA Proyecto Maven del Pentágono.

Source link