Después de meses de preparación, la primera Cumbre de Seguridad de la IA del mundo llegó a su fin ayer después de dos días de discusiones mediadas por el Reino Unido y que incluyeron a representantes de las principales empresas de IA, gobiernos y partes interesadas de la industria. Un resultado que surgió de la cumbre fue la firma de la llamada Declaración de Bletchley, en la que 28 gobiernos, incluidos China, EE. UU. y la UE, acordaron trabajar juntos en la seguridad de la IA. Fue un resultado positivo porque demuestra que existe un entendimiento global de que los países individuales no pueden hacer frente a la amenaza de la IA de forma aislada, afirmó Shweta Singh, profesora adjunta de la Universidad de Warwick, cuya investigación incluye la IA ética y responsable. La IA sólo puede ocurrir a través de la colaboración, y no solo la colaboración entre uno o dos países, tiene que ser un esfuerzo internacional”, dijo. “[The Declaration] es el primer reconocimiento de que esta es la única manera de luchar realmente contra los riesgos de la IA y, por lo tanto, mitigar esos riesgos en el futuro”. Sin embargo, el único acuerdo real que contiene la declaración es la promesa de seguir hablando, en lugar de un compromiso con una regulación general. — un tema donde las divisiones entre naciones parecen ser más marcadas. El gobierno del Reino Unido continúa adoptando un enfoque de “esperar y ver” en materia de regulación, argumentando que con el ritmo actual de desarrollo, sería difícil presentar una legislación tan probablemente sería ineficaz casi tan pronto como se convirtiera en ley. Además, muchos de los puntos de conversación previos a la cumbre presentados por el Reino Unido se centraron en algunas de las amenazas existenciales que más llamaron la atención, incluida la posible capacidad de la IA para desarrollar armas biológicas y químicas (amenazas que incluso los funcionarios gubernamentales tuvieron que admitir que eran las peores). caso o escenarios altamente improbables. Por el contrario, la Declaración de Derechos de la IA de EE. UU., una orden ejecutiva firmada por el presidente estadounidense Joe Biden antes de la cumbre del lunes, busca abordar los riesgos inmediatos que presenta la IA, como el prejuicio, la discriminación y desinformación. Al abordar estas cuestiones en la Embajada de Estados Unidos en Londres, la vicepresidenta Kamala Harris dijo que si bien las amenazas existenciales como los ciberataques habilitados por IA y las armas biológicas formuladas por IA son profundas y exigen una acción global, existen problemas adicionales que actualmente están causando daños y están Algunos ya lo consideran existencial. “Cuando la gente de todo el mundo no puede discernir la realidad de la ficción debido a una avalancha de información errónea y desinformación basada en la IA… ¿no es eso existencial para la democracia?” Dijo Harris. «Para definir la seguridad de la IA, propongo que debemos considerar y abordar todo el espectro de riesgos de la IA: amenazas a la humanidad en su conjunto, así como amenazas a los individuos, las comunidades, nuestras instituciones y nuestras poblaciones más vulnerables». Singh dijo que si bien puede entender el argumento de esperar y ver qué presenta el gobierno del Reino Unido, eso no significa que el país deba simplemente sentarse y dejar que la IA continúe desarrollándose sin ninguna barrera establecida. También cree que El Primer Ministro del Reino Unido, Rishi Sunak, no logra comprender lo que Harris y Biden claramente tienen: que las amenazas de prejuicios, discriminación y desinformación no están llegando en el futuro, sino que ya están impactando las vidas de las personas. No veo que en realidad se esté hablando de eso. [by the UK government]”, dijo Singh. “[The government] Lo mira como si esto fuera algo que nos iba a afectar, diciendo ‘tendremos que domar a la bestia’, pero el punto es que la bestia ya está en la sala”. Los representantes de la industria dominaron el evento, aunque había alrededor de 100 Entre los asistentes a la cumbre, se expresó preocupación por la sobrerrepresentación de algunos grupos. Un tercio de los invitados procedían del sector privado y la lista de asistentes era muy occidental: el 60% de los asistentes a Bletchley Park procedían del Reino Unido o Estados Unidos. También hubo una participación extremadamente mínima de la sociedad civil y no estuvieron presentes organizaciones de derechos humanos ni de vigilancia de los medios de comunicación. Además, en la sesión que se centró en los riesgos de la integración de la IA de frontera en la sociedad, uno de los cuales es cómo la IA podría alterar los empleos y las industrias, no asistió ni un solo representante de los derechos de los trabajadores. “Las grandes tecnologías dominaron la sala – Elon Musk , por ejemplo, fue una gran distracción, y los pocos medios de comunicación allí ni siquiera pudieron hacer preguntas”, dijo Michael Bak, director ejecutivo del Foro sobre Información y Democracia. «No podemos permitir que quienes fabrican, comercializan y explotan la IA para beneficio privado ejerzan más influencia que otras partes interesadas críticas de la sociedad civil». Bak también dijo que el centro global anunciado con sede en el Reino Unido, encargado de probar la seguridad de las aplicaciones emergentes de IA, y La asistencia a la sala careció notablemente de aportes significativos de los países del hemisferio sur, algo que no debería haberse permitido que sucediera dado que la IA afectará a todas las democracias y a la humanidad. “Cincuenta y una democracias ya apoyan la Asociación Internacional y el Foro para la Información y la Democracia, un marco internacional innovador que garantice que la tecnología viva en la casa de la democracia y no al revés”, dijo Bak. “Estos marcos inclusivos son más sólidos y creíbles y, por lo tanto, más eficaces para salvaguardar nuestras democracias y satisfacer las necesidades y aspiraciones de las personas en todo el mundo”. ¿Qué sigue para la cooperación global en materia de IA? Un resultado tangible de la cumbre de esta semana fue el compromiso de Corea del Sur y Francia de organizar su propia Cumbre internacional sobre seguridad de la IA en 2024. Además, tanto el gobierno del Reino Unido como el de EE. UU. también se han comprometido a lanzar su propia Cumbre sobre la seguridad de la IA. Institutos de Seguridad de IA, enfocados en promover la seguridad de la IA para el interés público, una medida que Singh cree que harán más países. Si bien la regulación aún puede parecer muy lejana, Singh dijo que en el corto plazo, hay cosas que los gobiernos pueden estar haciendo. para combatir los daños actuales”.[These harms are] «Está sucediendo ahora mismo y debemos abordarlo, pero eso no siempre tiene que hacerse a través de la regulación», dijo. «Por ejemplo, la tecnología de marcas de agua se puede utilizar para combatir los deepfakes y ayudar a detener la difusión de información errónea, y eso es algo que no requiere que ningún gobierno apruebe una ley». La Declaración de Derechos de AI del gobierno, que, aunque no está directamente relacionada con la cumbre, según Singh, probablemente fue impulsada para coincidir con el evento. Las cuestiones descritas por la Administración Biden en el documento son ideales que Singh cree que todos los gobiernos podrían y deberían respaldar. proporcionando un enfoque verdaderamente universal para abordar los daños de la IA. “A medida que avancemos, es de esperar que cada nación adopte estos pilares, o al menos algo similar”, dijo. Copyright © 2023 IDG Communications, Inc.

Source link