El gobierno del Reino Unido insiste en que ya está actuando «responsablemente» en el desarrollo de sistemas de armas letales autónomas (LAWS) e inteligencia artificial militar (IA), tras una advertencia de los Lores de «proceder con precaución». Sin embargo, los críticos dicen que el gobierno no está logrando abordar perspectivas éticas alternativas y que la respuesta simplemente confirma su compromiso con el curso de acción ya decidido. Establecido en enero de 2023 para investigar la ética del desarrollo y despliegue de IA y LAWS militares, el comité de Inteligencia Artificial en Sistemas de Armas de los Lores concluyó el 1 de diciembre que la promesa del gobierno de abordar la IA militar de una manera “ambiciosa, segura y responsable” no se ha cumplido. hasta la realidad. Lords señaló específicamente que las discusiones sobre los LAWS y la IA militar en general están “obstruidas por la búsqueda de agendas y la falta de comprensión”, y advirtió al gobierno que “proceda con precaución” al desplegar IA con fines militares. En respuesta a las conclusiones del comité, el gobierno dijo que ya está actuando de manera responsable y que la prioridad del Ministerio de Defensa (MoD) con la IA es maximizar la capacidad militar frente a adversarios potenciales, que, según afirmó, «es poco probable que sean tan responsable». El gobierno añadió que si bien acoge con agrado el «análisis exhaustivo y estimulante», el mensaje general del comité de que se debe proceder con cautela ya «refleja el enfoque del Ministerio de Defensa respecto de la adopción de la IA». También dijo que ya está «comprometido con el uso seguro y responsable de la IA en el ámbito militar» y que «siempre cumplirá con nuestras obligaciones legales nacionales e internacionales». Recomendaciones específicas La respuesta del gobierno abordó recomendaciones específicas hechas por el comité, muchas de las cuales se centraron en mejorar la supervisión y generar apoyo democrático para la IA militar, incluso poniendo más información a disposición del Parlamento para que se lleve a cabo un escrutinio adecuado, así como también realizando trabajos para comprender las actitudes públicas. El comité también pidió una prohibición específica del uso de IA en el comando, control y comunicaciones nucleares; control humano significativo en cada etapa del ciclo de vida de un sistema de armas de IA; y la adopción de una definición operativa e independiente de la tecnología de AWS para que se puedan tomar decisiones políticas significativas. “[The UK government] «Debe incorporar principios éticos y legales en todas las etapas de diseño, desarrollo e implementación, al mismo tiempo que logra la comprensión pública y el respaldo democrático», dijo el presidente del comité, Lord Lisvane. «La tecnología debe usarse cuando sea ventajosa, pero no a un costo inaceptable para los principios morales del Reino Unido». Detalles de la respuesta Al dar ejemplos de cómo ya está abordando el tema con cautela, el gobierno dijo que ya ha establecido su compromiso de tener un control humano significativo sobre los sistemas de armas y está realizando activamente investigaciones sobre las formas más efectivas de control humano; y ya se ha comprometido públicamente a mantener el “control político humano” de su arsenal nuclear. Al comentar directamente sobre las recomendaciones de que debe describir explícitamente cómo se adherirá a los principios éticos y se convertirá en un líder en IA militar responsable, el gobierno dijo que ya está tomando “medidas concretas” para lograr estos resultados. “Estamos decididos a adoptar la IA de forma segura y responsable porque ningún otro enfoque estaría en consonancia con los valores del público británico; cumplir con las demandas de nuestro enfoque riguroso existente en materia de seguridad y cumplimiento legal; o permitirnos desarrollar la capacidad habilitada por IA que necesitamos”, dijo. “Es importante tener claro que la adopción e integración de tecnologías y capacidades novedosas no es un desafío nuevo para la Defensa. Hemos establecido sistemas eficaces de gestión de riesgos con líneas claras de rendición de cuentas y marcos de garantía y controles integrados a lo largo del ciclo de vida de cualquier capacidad militar. «Cuando se requieran requisitos únicos, debido a la naturaleza o funcionalidad de la IA, revisaremos y ampliaremos estos enfoques, trabajando con marcos establecidos siempre que sea posible». Maximizar la capacidad militar El gobierno dijo que, si bien era consciente de la necesidad de respetar el derecho internacional y sus propios principios éticos, “nuestra prioridad es maximizar nuestra capacidad militar frente a amenazas crecientes”. Dada esta prioridad, dijo que no está de acuerdo con el comité sobre la necesidad de una definición de AWS – y que, por lo tanto, no tiene intención de adoptar una definición – porque los “comportamientos y resultados irresponsables y poco éticos que preocupan con razón al Comité ya están prohibidos por las leyes existentes [international] mecanismos legales”. Añadió que utilizar una definición de LAWS como punto de partida para un nuevo instrumento legal que prohíba ciertos tipos de sistemas (como algunos han argumentado, pero no el comité) “representa una amenaza a los intereses de Defensa del Reino Unido, y en el peor momento posible, dado La acción de Rusia en Ucrania y un aumento generalizado de la belicosidad por parte de potenciales adversarios”. «Mantenemos que un control humano significativo, ejercido mediante la participación humana apropiada al contexto, siempre debe considerarse a lo largo de todo el ciclo de vida de un sistema», dijo. “Nosotros y nuestros socios clave hemos sido claros en que nos oponemos a la creación y el uso de AWS que funcionaría de otra manera, pero nos enfrentamos a adversarios potenciales que no han asumido compromisos similares y es poco probable que sean tan responsables. “Más bien, como hemos visto en otros ámbitos, los adversarios buscarán utilizar la presión internacional y los instrumentos legales para limitar la investigación y el desarrollo legítimos mientras persiguen activamente casos de uso inseguros e irresponsables. Es importante que el Reino Unido mantenga la libertad de acción para desarrollar capacidades defensivas legales y responsables para proteger a nuestro pueblo y nuestra sociedad contra tales actividades hostiles”. El gobierno dijo que si bien la integración de tecnologías novedosas no es un desafío nuevo para el Ministerio de Defensa, “pronto” publicará más orientación sobre cómo se pueden poner en práctica los principios éticos, que describirán específicamente la gobernanza, las responsabilidades, los procesos y los mecanismos de presentación de informes que cree que son necesario traducir los principios en la práctica. Voces críticas Al comentar sobre la respuesta del gobierno, Peter Burt, de la organización no gubernamental Drone Wars (que prestó testimonio ante el comité en abril de 2023), dijo que hay poca información nueva en la respuesta y que nada en ella sorprendería a los observadores de la política gubernamental en esta área. “La respuesta simplemente describe cómo el gobierno pretende seguir el curso de acción que ya había planeado tomar, reiterando la sustancia de declaraciones políticas pasadas, como la Estrategia de Inteligencia Artificial de Defensa, y exaltando la actividad y los logros recientes del Ministerio de Defensa en el campo de la IA militar. ”, escribió en una publicación de blog. «Como se puede imaginar, la respuesta adopta un enfoque de apoyo a las recomendaciones de los Lores que están alineadas con su propia agenda, como el desarrollo de conjuntos de datos de alta calidad, la mejora de los acuerdos de adquisición de IA del Ministerio de Defensa y la realización de investigaciones sobre posibles capacidades futuras de IA». Sin embargo, señaló que en los raros casos en que el comité cuestionó “sustancialmente” el enfoque del Ministerio de Defensa, estos desafíos fueron finalmente rechazados por el gobierno, sobre todo en relación con la negativa a adoptar una definición de AWS sobre la base de que “el Reino Unido se estaría volviendo más vulnerable a la acción militar rusa. ¿En realidad?» Elke Schwarz, profesora asociada de teoría política en la Universidad Queen Mary de Londres y autora de Máquinas de muerte: la ética de las tecnologías violentas, dijo a Computer Weekly que, si bien hay algunos movimientos y señales alentadoras en la respuesta del gobierno, como especialista en ética, lo encuentra decepcionante. . «El problema de la ética no se aborda en absoluto», afirmó. “En cambio, el reciente giro hacia la ‘IA responsable’, por muy subdefinido y sobreutilizado que esté este concepto, está haciendo gran parte del trabajo pesado. “Lo que hemos visto en los últimos años es que la noción relativamente escasa de ‘responsabilidad’ se ha convertido en un sustituto de un compromiso más profundo con la ética. Este cambio lateral hacia la ‘responsabilidad’ en lugar de tratar de abordar cuestiones éticas más espinosas claramente presentes en la IA, especialmente la IA en los sistemas de focalización, tiene una serie de implicaciones para aquellos actores estatales que desean construir AWS». Schwarz añadió que centrarse en la “responsabilidad” también crea una distinción estratégicamente útil entre actores responsables (es decir, potencias occidentales) y actores intrínsecamente irresponsables (normalmente China o Rusia): “Vemos esto una y otra vez en el discurso”, afirmó. dicho. «Nuevamente, es eficaz para descartar los desafíos planteados por los críticos sobre los posibles obstáculos éticos, o incluso la posible falta de evidencia de que estos sistemas sean realmente efectivos». Burt señaló de manera similar que el énfasis del gobierno en el diálogo con “naciones con ideas afines” en torno a la IA militar y AWS “requiere poco esfuerzo y probablemente producirá dividendos limitados”, y que colaborar con aquellos que tienen puntos de vista diferentes es esencial para lograr un cambio genuino. «El Reino Unido claramente no ha hecho ningún esfuerzo para hacer esto en el escenario internacional», dijo. “La respuesta está salpicada de juicios como: ‘Sabemos que algunos adversarios pueden intentar hacer un mal uso de tecnologías avanzadas de IA, implementándolas de una manera maligna, insegura y poco ética’, lo que indica que el Reino Unido tiene la intención de adoptar un enfoque antagónico hacia estos adversarios. y no tiene ningún interés en entablar un diálogo con ellos”. En última instancia, Schwarz dijo que, dado lo rápido que están cambiando los objetivos en términos de lo que es y no es aceptable para las armas de IA, es difícil no sentirse «un poco hastiado» por la respuesta del gobierno, léala como un esfuerzo. circunnavegar las cuestiones éticas planteadas y seguir como hasta ahora. «Hay tantas contorsiones lingüísticas, generalidades, frases vagas y muy poco compromiso concreto con los detalles de las cuestiones éticas planteadas no sólo por el informe sino por los muchísimos expertos en este tema», dijo. «Uno tiene la sensación de que en este tema hay un fuerte sesgo de confirmación, por el cual sólo se reconocen aquellos aspectos del debate que el gobierno quiere escuchar». Socios clave Tanto Burt como Schwarz señalaron que la respuesta del gobierno destaca explícitamente a Israel como un “socio clave” en IA militar, que ha estado utilizando un sistema basado en aprendizaje automático conocido como Habsora (o el Evangelio, en inglés) para designar objetivos para su campaña de bombardeos en Gaza. Cuando el sistema de IA se hizo público a principios de diciembre de 2023, las Fuerzas de Defensa de Israel (FDI) ya habían matado a más de 15.000 personas en Gaza; una cifra que asciende a más de 30.000 en el momento de esta publicación, según estimaciones del Ministerio de Salud de Gaza. «En lugar de responsabilizar a Israel por su uso de métodos de guerra y ataques contra objetivos, que han llevado a niveles inflados de víctimas civiles, el Reino Unido está apoyando incondicionalmente su esfuerzo bélico», dijo Burt. “Diferencias como ésta entre las políticas gubernamentales expuestas en la respuesta al Comité de los Lores y la realidad de lo que se está experimentando durante el ataque a Gaza exponen la respuesta como lo que realmente es: un documento de relaciones públicas. El objetivo final de la respuesta no es convencer a los miembros de la Cámara de los Lores de que el gobierno está escuchando sus preocupaciones, sino «vender» la política existente del Ministerio de Defensa y la inversión en IA militar a los medios y al público». Al vincular esto con el efecto marginalizador que los sistemas de inteligencia artificial pueden tener en el juicio humano, Scwharz dijo que poner a un ser humano en el circuito puede no ser efectivo en absoluto, dado lo que el mundo ha estado presenciando con las FDI en Gaza. «La participación humana significa un proceso de aprobación acelerado; la norma será la aceptación en serie de objetivos sin mucho escrutinio», dijo. “Esta es una trayectoria obvia dada la lógica del sistema de IA y el atractivo de la velocidad que ofrece. Sin embargo, esa participación humana dista mucho de ser significativa”. Schwarz concluyó que, a pesar de las deficiencias de la respuesta del gobierno, estará interesada en ver los próximos documentos de orientación. «Todavía puede haber esperanza de que el gobierno no esté completamente persuadido por el fuerte y cada vez más poderoso lobby tecnológico que vende sus productos aún probados para una guerra futura», dijo.

Source link