Este es un artículo invitado. Las opiniones expresadas aquí son únicamente las de los autores y no representan las posiciones de IEEE Spectrum, The Institute o IEEE. Muchos en la comunidad civil de inteligencia artificial no parecen darse cuenta de que las innovaciones de IA de hoy podrían tener graves consecuencias para la paz y la seguridad internacionales. Sin embargo, los profesionales de la IA, ya sean investigadores, ingenieros, desarrolladores de productos o gerentes de la industria, pueden desempeñar papeles críticos en la mitigación de riesgos a través de las decisiones que toman a lo largo del ciclo de vida de las tecnologías de IA. Hay una gran cantidad de formas en las que los avances civiles de la IA podrían amenazar la paz y la seguridad. Algunas son directas, como el uso de chatbots impulsados ​​por IA para crear desinformación para operaciones de influencia política. Los modelos de lenguaje grandes también se pueden utilizar para crear código para ciberataques y facilitar el desarrollo y la producción de armas biológicas. Otras formas son más indirectas. Las decisiones de las empresas de IA sobre si hacer que su software sea de código abierto y en qué condiciones, por ejemplo, tienen implicaciones geopolíticas. Estas decisiones determinan cómo los Estados o los actores no estatales acceden a la tecnología crítica, que podrían utilizar para desarrollar aplicaciones militares de IA, incluidos potencialmente sistemas de armas autónomas. Las empresas y los investigadores de IA deben tomar mayor conciencia de los desafíos y de su capacidad para hacer algo al respecto. El cambio debe comenzar con la educación y el desarrollo profesional de los profesionales de la IA. Técnicamente, hay muchas opciones en la caja de herramientas de innovación responsable que los investigadores de IA podrían utilizar para identificar y mitigar los riesgos que presenta su trabajo. Se les debe dar la oportunidad de aprender sobre dichas opciones, incluyendo IEEE 7010: Práctica recomendada para evaluar el impacto de los sistemas autónomos e inteligentes en el bienestar humano, IEEE 7007-2021: Estándar ontológico para sistemas de automatización y robótica impulsados ​​éticamente, y el Marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología. Si los programas educativos proporcionan conocimientos básicos sobre el impacto social de la tecnología y la forma en que funciona la gobernanza de la tecnología, los profesionales de la IA estarán mejor capacitados para innovar de manera responsable y ser diseñadores e implementadores significativos de regulaciones. Lo que debe cambiar en la educación en IA La IA responsable requiere un espectro de capacidades que normalmente no se cubren en la educación en IA. La IA ya no debe tratarse como una disciplina STEM pura, sino más bien como una disciplina transdisciplinaria que requiere conocimientos técnicos, sí, pero también conocimientos de las ciencias sociales y las humanidades. Deberían existir cursos obligatorios sobre el impacto social de la tecnología y la innovación responsable, así como formación específica sobre la ética y la gobernanza de la IA. Esas materias deberían formar parte del plan de estudios básico, tanto en los niveles de pregrado como de posgrado, en todas las universidades que ofrecen títulos en IA. Si los programas educativos proporcionan conocimientos básicos sobre el impacto social de la tecnología y la forma en que funciona la gobernanza de la tecnología, los profesionales de la IA estarán capacitados para innovar de manera responsable y ser diseñadores e implementadores significativos de las regulaciones de la IA. Cambiar el plan de estudios de la educación en IA no es una tarea fácil. En algunos países, las modificaciones a los planes de estudio universitarios requieren la aprobación a nivel ministerial. Los cambios propuestos pueden encontrarse con resistencia interna debido a razones culturales, burocráticas o financieras. Mientras tanto, la experiencia de los instructores actuales en los nuevos temas puede ser limitada. Sin embargo, un número cada vez mayor de universidades ahora ofrecen los temas como optativas, incluidas Harvard, la Universidad de Nueva York, la Universidad de la Sorbona, la Universidad de Umeå y la Universidad de Helsinki. No hay necesidad de un modelo de enseñanza único para todos, pero ciertamente hay una necesidad de financiación para contratar personal dedicado y capacitarlo. Agregar IA responsable al aprendizaje permanente La comunidad de IA debe desarrollar cursos de educación continua sobre el impacto social de la investigación de IA para que los profesionales puedan seguir aprendiendo sobre estos temas a lo largo de su carrera. La IA está destinada a evolucionar de maneras inesperadas. Identificar y mitigar sus riesgos requerirá debates continuos que involucren no solo a investigadores y desarrolladores, sino también a personas que podrían verse afectadas directa o indirectamente por su uso. Un programa de educación continua completo aprovecharía las opiniones de todas las partes interesadas. Algunas universidades y empresas privadas ya tienen juntas de revisión ética y equipos de políticas que evalúan el impacto de las herramientas de IA. Aunque el mandato de los equipos generalmente no incluye capacitación, sus funciones podrían ampliarse para que los cursos estén disponibles para todos dentro de la organización. La formación en investigación responsable en IA no debería ser una cuestión de interés individual, sino que debería fomentarse. Organizaciones como el IEEE y la Association for Computing Machinery podrían desempeñar papeles importantes en el establecimiento de cursos de formación continua, porque están bien posicionadas para reunir información y facilitar el diálogo, lo que podría dar lugar al establecimiento de normas éticas. Interactuar con el resto del mundo También necesitamos que los profesionales de la IA compartan conocimientos y enciendan debates sobre los riesgos potenciales más allá de los límites de la comunidad de investigación en IA. Afortunadamente, ya existen numerosos grupos en las redes sociales que debaten activamente los riesgos de la IA, incluido el uso indebido de la tecnología civil por parte de actores estatales y no estatales. También hay organizaciones especializadas centradas en la IA responsable que analizan las implicaciones geopolíticas y de seguridad de la investigación y la innovación en IA. Entre ellas se incluyen el AI Now Institute, el Centre for the Governance of AI, Data and Society, el Distributed AI Research Institute, el Montreal AI Ethics Institute y la Partnership on AI. Sin embargo, esas comunidades son actualmente demasiado pequeñas y no lo suficientemente diversas, ya que sus miembros más destacados suelen compartir antecedentes similares. Su falta de diversidad podría llevar a los grupos a ignorar los riesgos que afectan a las poblaciones subrepresentadas. Además, los profesionales de la IA podrían necesitar ayuda y tutela sobre cómo relacionarse con personas fuera de la comunidad de investigación de la IA, especialmente con los responsables de las políticas. Articular problemas o recomendaciones de manera que las personas no técnicas puedan entender es una habilidad necesaria. Debemos encontrar formas de hacer crecer las comunidades existentes, hacerlas más diversas e inclusivas y hacer que se relacionen mejor con el resto de la sociedad. Las grandes organizaciones profesionales como IEEE y ACM podrían ayudar, tal vez creando grupos de trabajo dedicados de expertos o estableciendo pistas en conferencias sobre IA. Las universidades y el sector privado también pueden ayudar creando o ampliando puestos y departamentos centrados en el impacto social de la IA y la gobernanza de la IA. La Universidad de Umeå creó recientemente un Laboratorio de Políticas de IA para abordar los problemas. Empresas como Anthropic, Google, Meta y OpenAI han establecido divisiones o unidades dedicadas a estos temas. Hay movimientos crecientes en todo el mundo para regular la IA. Los avances recientes incluyen la creación del Órgano Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial y la Comisión Global sobre Inteligencia Artificial Responsable en el Ámbito Militar. Los líderes del G7 emitieron una declaración sobre el proceso de IA de Hiroshima, y ​​el gobierno británico organizó la primera Cumbre de Seguridad de IA el año pasado. La cuestión central que se plantea a los reguladores es si se puede confiar en que los investigadores y las empresas de IA desarrollen la tecnología de manera responsable. En nuestra opinión, una de las formas más eficaces y sostenibles de garantizar que los desarrolladores de IA asuman la responsabilidad de los riesgos es invertir en educación. Los profesionales de hoy y de mañana deben tener los conocimientos básicos y los medios para abordar el riesgo que surge de su trabajo si quieren ser diseñadores e implementadores eficaces de futuras regulaciones de IA. Nota de los autores: Los autores están enumerados por nivel de contribuciones. Los autores fueron reunidos por una iniciativa de la Oficina de Asuntos de Desarme de las Naciones Unidas y el Instituto Internacional de Investigación para la Paz de Estocolmo, lanzada con el apoyo de una iniciativa de la Unión Europea sobre Innovación Responsable en IA para la Paz y la Seguridad Internacionales.