En la muy publicitada Cumbre de Seguridad de la IA del primer ministro Rishi Sunak, decenas de gobiernos, empresas de inteligencia artificial (IA) y representantes de la sociedad civil se reunieron para discutir cómo la sociedad debería gestionar los riesgos de la tecnología, pero dependiendo de con quién se hable, el evento fue una oportunidad desperdiciada, un paso tentativo en la dirección correcta o un hito histórico en la gobernanza global de la IA. Si bien la Cumbre de Seguridad de la IA ha sido ampliamente criticada por sindicatos y organizaciones de la sociedad civil como una “oportunidad perdida”, en parte debido a su enfoque en riesgos especulativos futuros sobre daños en el mundo real que ya están ocurriendo (pero también debido a la exclusión de los trabajadores de la evento y su dominio por parte de las grandes empresas tecnológicas), figuras clave involucradas en la organización del evento elogiaron el enfoque del gobierno del Reino Unido con respecto a la seguridad de la IA. Por ejemplo, al hablar sobre el crecimiento exponencial de la potencia informática que es la columna vertebral de los recientes avances en IA, Ian Hogarth, empresario y presidente del Frontier AI Taskforce del gobierno del Reino Unido, financiado con £100 millones, dijo que “todas las tecnologías poderosas plantean preguntas sobre cómo hacerlas seguras”. ”. «El poder y el riesgo van de la mano», afirmó. “Desde los ensayos clínicos hasta los productos farmacéuticos y la regulación internacional de la industria nuclear, cada tecnología emergente, si es lo suficientemente poderosa, requiere una conversación sobre cómo hacerla segura. Y es por eso que nos hemos unido hoy”. Al vincular los avances en la informática (que, según dijo, se ha multiplicado por 10 millones en los últimos 10 años) con el riesgo potencialmente existencial que presenta la IA, Hogarth dijo que varios expertos están preocupados por los avances incontrolados en la IA que conduzcan a “consecuencias catastróficas”. , y que está personalmente preocupado por una situación en la que el progreso tecnológico supere nuestra capacidad de salvaguardar la sociedad. «Hay una amplia gama de creencias en esta sala en cuanto a la certeza y gravedad de estos riesgos; nadie en esta sala sabe, con certeza, cómo o si estos próximos saltos en el poder computacional se traducirán en nuevas capacidades o daños del modelo», afirmó. dijo, y agregó que el grupo de trabajo que encabeza ha estado tratando de fundamentar la comprensión de estos riesgos en el “empirismo y el rigor”. Hogarth añadió que la cumbre representa «un breve momento de reflexión a lo largo de esta curva, un momento para hacer una pausa y dar forma a su trayectoria y su impacto», y elogió el anuncio de Estados Unidos de su propio Instituto de Seguridad de IA, que la secretaria de Comercio de Estados Unidos, Gina Raimondo, confirmó. establecer una “asociación formal” con la versión del Reino Unido anunciada por Sunak una semana antes. Cumbres futuras Matt Clifford, un ex destacado inversor en esta tecnología y representante del primer ministro en IA, también dijo que era “notable” haber logrado tanto en sólo 10 semanas; desde la inclusión del gobierno chino y la confirmación de dos futuras cumbres (en Corea del Sur y Francia), hasta lograr que 28 países y la Unión Europea firmen la Desaceleración de Bletchley, afirmando la necesidad de un enfoque inclusivo y centrado en el ser humano para garantizar la confiabilidad de la IA. y seguridad. «Esta declaración es una base para futuras conversaciones y ciencia futura», dijo. “Espero que una de las cosas que surge de la declaración sea este compromiso con la colaboración internacional y el compromiso de unirnos, y creo que realmente vamos a querer responsabilizarnos”. Si bien se mantuvo a la prensa fuera de las discusiones de la mesa redonda, Clifford agregó que estaban presentes una variedad de opiniones y se hicieron algunas “preguntas difíciles” a las empresas de inteligencia artificial presentes. Comentarios de la ministra digital holandesa Al proporcionar más información sobre las mesas redondas cerradas, la ministra digital holandesa, Alexandra van Huffelen, dijo que algunas de las discusiones giraron en torno a lo que las propias empresas están haciendo para prevenir diversos daños relacionados con la IA. «Están diciendo ‘estamos fabricando productos que no sabemos exactamente qué están haciendo'», dijo. «Sabemos que pueden ser muy dañinos, sabemos que los riesgos existen, pero en realidad no sabemos si somos lo suficientemente buenos para hacerlo». Añadió que las empresas también estaban presentando sus políticas corporativas y otros avances relacionados con la seguridad, lo que «suena muy bien, pero es un poco como si los niños de la escuela marcaran sus propios deberes». “Muchas de las personas en la sala –personas de ONG o institutos de investigación, pero definitivamente también de gobiernos y yo mismo– básicamente dicen: ‘bueno, todo esto es muy agradable, por supuesto, que pienses… en los productos y servicios estás proporcionando’. Esto no es suficientemente bueno.» Cuando se le preguntó si había cambiado de opinión sobre algo como resultado de las mesas redondas que había presenciado a lo largo del día, van Huffelen respondió que “me hizo creer que necesitamos regular lo más rápido que podamos… No quiero que los compromisos voluntarios sean el final, pero necesitamos mucho más pronto para asegurarnos de que estamos por delante de la regulación”. El ministro añadió además que existe una tensión entre las empresas que quieren más tiempo para probar, evaluar e investigar sus modelos de IA antes de que se promulgue la regulación y que quieren sacar sus productos y servicios al mercado basándose en que solo pueden probarse adecuadamente. en manos de usuarios comunes. «Esto no me tranquiliza mucho, dice que estamos probando productos mientras están disponibles en el mundo», dijo, añadiendo que sigue siendo positivo tener intensos debates entre investigadores de ONG y funcionarios gubernamentales. y las empresas alrededor de una misma mesa. Sin embargo, van Huffelen también subrayó que le gustaría tener una mayor representación de los sindicatos, los trabajadores y la “gente corriente” en futuras cumbres. «No estamos hablando sólo de los riesgos de la IA, sino de las consecuencias para la sociedad», dijo. “La IA va a cambiar el lugar de trabajo, va a cambiar la atención sanitaria… por eso es muy importante que todos participen. Aplaudiría mucho la idea de tener más personas en la mesa para representarse a sí mismos… Todos deberían poder confiar en el mundo digital y tener control de sus propias vidas digitales”. Van Huffelen amplió esto para incluir más voces del Sur Global, señalando que algunas de las investigaciones indican que la IA generativa probablemente creará divisiones globales más grandes, en lugar de cerrar las brechas existentes. Resúmenes de las mesas redondas Al final del primer día, los presidentes de las mesas redondas brindaron comentarios en una transmisión en vivo sobre lo que se discutió durante las sesiones cerradas. Angela McLean, presidenta de una mesa redonda sobre el papel que puede desempeñar la comunidad científica en la seguridad de la IA, y principal asesora científica del gobierno del Reino Unido, dijo que parte de la discusión giró en torno a la necesidad de una “modestia epistémica” como “incertidumbre”. [around AI] está muy extendido”, añadiendo que la carga de la prueba para demostrar la seguridad de la tecnología debe recaer en los proveedores y en la comunidad científica. Dijo que quienes participen en la mesa redonda publicarán una lista de preguntas de investigación abiertas que pueden ayudar a dirigir el desarrollo responsable de la IA. «Claramente hay muchas cuestiones técnicas aquí, pero también hay muchas, muchas cuestiones sociales… el tiempo es esencial, vamos a necesitar hacer mucho de esto muy rápido», dijo McLean. “La cuestión de la inclusión se deja para que dure porque es la más importante y ha surgido una y otra vez en las discusiones de otras personas. ¿De quién es esta conversación? Esta debe ser una conversación de todos porque estos temas nos afectan a todos. Añadió que debemos aprender la lección sobre la “concentración de poder que ha terminado en manos de un número muy reducido de personas”. «Si podemos, debemos evitar que eso vuelva a suceder», afirmó McLean. “También necesitamos una inclusión que reconozca la gran diferencia geográfica en este momento, no solo en quién puede hablar, [but] quién llega a investigar y quién se beneficia. Necesitamos inclusión lingüística para que esta no sea tecnología para un pequeño número de idiomas”. McLean concluyó que quienes participan en la toma de decisiones sobre la IA “necesitan encontrar formas de escuchar al público; no sólo consultar con el público, sino escuchar lo que tienen que decirnos… somos nosotros los que debemos aprender a escuchar”. Tino Cuéllar, presidente del Carnegie Endowment for International Peace, que presidió una mesa redonda sobre qué acciones debe tomar la comunidad internacional en relación a los riesgos y oportunidades de la IA, habló de la necesidad de respetar a los diferentes países y sus formas de operar, y también destacó la necesidad de garantizar que la IA no se convierta en “una provincia del Norte Global”. Dijo que la discusión adicional giró en torno a la importancia de mejorar la comprensión compartida de las capacidades de los modelos de IA, así como de desarrollar un enfoque más coordinado para la investigación a nivel internacional. Hablando de la sesión que presidió sobre el escalamiento responsable de capacidades, la secretaria digital del Reino Unido, Michelle Donelan, dijo que había consenso sobre la necesidad de que “organizaciones externas confiables ejecuten puntos de referencia que determinen los riesgos”.

Source link