Representantes de 28 países y empresas de tecnología se reunieron en el sitio histórico de Bletchley Park en el Reino Unido para la Cumbre de Seguridad de la IA celebrada del 1 al 2 de noviembre de 2023. El primer día de la cumbre culminó con la firma de la “histórica” Declaración de Bletchley sobre la IA. Seguridad, que compromete a 28 países participantes, incluidos el Reino Unido, EE. UU. y China, a gestionar y mitigar conjuntamente los riesgos de la inteligencia artificial, garantizando al mismo tiempo un desarrollo y un despliegue seguros y responsables. En el segundo y último día de la cumbre, los gobiernos y las principales organizaciones de IA acordaron un nuevo plan para las pruebas seguras de tecnologías avanzadas de IA, que incluye un papel gubernamental en las pruebas de modelos previas y posteriores al despliegue. Saltar a: ¿Qué es la Cumbre de Seguridad de la IA? La Cumbre de Seguridad de la IA es una importante conferencia que se celebró los días 1 y 2 de noviembre de 2023 en Buckinghamshire, Reino Unido. Reunió a gobiernos internacionales, empresas de tecnología y académicos para considerar los riesgos de la IA “en la frontera del desarrollo” y discutir cómo se pueden abordar estos riesgos. mitigados mediante un esfuerzo conjunto y global. El día inaugural de la Cumbre de Seguridad de la IA contó con una serie de charlas de líderes empresariales y académicos destinadas a promover una comprensión más profunda de la IA de vanguardia. Esto incluyó una serie de mesas redondas con “desarrolladores clave”, incluidos OpenAI, Anthropic y Google DeepMind, con sede en el Reino Unido, que se centraron en cómo se pueden definir umbrales de riesgo, evaluaciones de seguridad efectivas y mecanismos sólidos de gobernanza y rendición de cuentas. VER: Hoja de referencia de ChatGPT: Guía completa para 2023 (TechRepublic) El primer día de la cumbre también contó con un discurso virtual del rey Carlos III, quien calificó la IA como uno de los “mayores saltos tecnológicos” de la humanidad y destacó el potencial de la tecnología para transformar la atención médica y diversos otros aspectos de la vida. El monarca británico pidió una sólida coordinación y colaboración internacional para garantizar que la IA siga siendo una tecnología segura y beneficiosa. ¿Quién asistió a la Cumbre de seguridad de la IA? Representantes del Instituto Alan Turing, la Universidad de Stanford, la Organización para la Cooperación y el Desarrollo Económicos y el Instituto Ada Lovelace estuvieron entre los asistentes a la Cumbre de Seguridad de la IA, junto con empresas de tecnología como Google, Microsoft, IBM, Meta y AWS, así como como líderes como el jefe de SpaceX, Elon Musk. También estuvo presente la vicepresidenta de Estados Unidos, Kamala Harris. ¿Qué es la Declaración de Bletchley sobre la seguridad de la IA? La Declaración de Bletchley establece que los desarrolladores de tecnologías de IA avanzadas y potencialmente peligrosas asumen una responsabilidad importante para garantizar que sus sistemas sean seguros a través de rigurosos protocolos de prueba y medidas de seguridad para evitar el mal uso y los accidentes. También enfatiza la necesidad de un terreno común para comprender los riesgos de la IA y fomentar asociaciones internacionales de investigación en seguridad de la IA, al tiempo que reconoce que existe «el potencial de que se produzcan daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más significativas de estos modelos de IA». .” El Primer Ministro del Reino Unido, Rishi Sunak, calificó la firma de la declaración como «un logro histórico que ve a las mayores potencias de IA del mundo acordar en la urgencia de comprender los riesgos de la IA». En una declaración escrita, Sunak dijo: “Bajo el liderazgo del Reino Unido, más de veinticinco países en la Cumbre de Seguridad de la IA han declarado una responsabilidad compartida para abordar los riesgos de la IA y promover una colaboración internacional vital en la investigación y la seguridad de la IA. «Una vez más, el Reino Unido lidera al mundo a la vanguardia de esta nueva frontera tecnológica al iniciar esta conversación, que nos permitirá trabajar juntos para hacer que la IA sea segura y aprovechar todos sus beneficios para las generaciones venideras». (El gobierno del Reino Unido ha denominado “IA de frontera” a los sistemas avanzados de inteligencia artificial que podrían plantear riesgos aún desconocidos para la sociedad). El Primer Ministro del Reino Unido, Rishi Sunak, fue el anfitrión de la Cumbre de IA del Reino Unido en Bletchley Park. Imagen: Simon Dawson / No 10 Downing Street Reacciones de los expertos a la Declaración de Bletchley Si bien el gobierno del Reino Unido subrayó repetidamente la importancia de la declaración, algunos analistas se mostraron más escépticos. Martha Bennett, vicepresidenta analista principal de Forrester, sugirió que la firma del acuerdo era más simbólica que sustantiva, y señaló que los firmantes “no habrían aceptado el texto de la Declaración de Bletchley si contuviera algún detalle significativo sobre cómo debería regularse la IA”. .” Bennett le dijo a TechRepublic por correo electrónico: «Esta declaración no tendrá ningún impacto real en la forma en que se regula la IA. Por un lado, la UE ya tiene en proceso la Ley de IA; en los EE. UU., el presidente Biden emitió el 30 de octubre una Orden Ejecutiva sobre IA, y el 30 de octubre se publicaron los Principios Rectores Internacionales y el Código Internacional de Conducta para la IA del G7. todos los cuales contienen más sustancia que la Declaración de Bletchley”. Sin embargo, Bennett dijo que el hecho de que la declaración no tuviera un impacto directo en la política no era necesariamente algo malo. “La Cumbre y la Declaración de Bletchley tienen más que ver con establecer señales y demostrar voluntad de cooperar, y eso es importante. Tendremos que esperar y ver si las buenas intenciones van seguidas de acciones significativas”, afirmó. ¿Cómo probarán los gobiernos los nuevos modelos de IA? Los gobiernos y las empresas de IA también acordaron un nuevo marco de pruebas de seguridad para modelos avanzados de IA en el que los gobiernos desempeñarán un papel más destacado en las evaluaciones previas y posteriores al despliegue. El marco, que se basa en la Declaración de Bletchley, garantizará que los gobiernos “tengan un papel en velar por que se realicen pruebas de seguridad externas de los modelos fronterizos de IA”, particularmente en áreas relacionadas con la seguridad nacional y el bienestar público. El objetivo es trasladar la responsabilidad de probar la seguridad de los modelos de IA de las empresas de tecnología únicamente. En el Reino Unido, esto será realizado por un nuevo Instituto de Seguridad de IA, que trabajará con el Instituto Alan Turing para “probar cuidadosamente nuevos tipos de IA de vanguardia” y “explorar todos los riesgos, desde daños sociales como prejuicios y desinformación, hasta la El riesgo más improbable pero extremo, como que la humanidad pierda completamente el control de la IA”. VER: Kit de contratación: Ingeniero rápido (TechRepublic Premium) El renombrado científico informático Yoshua Bengio tiene la tarea de liderar la creación de un informe sobre el «Estado de la ciencia», que evaluará las capacidades y los riesgos de la inteligencia artificial avanzada e intentará establecer un sistema unificado. comprensión de la tecnología. Durante la conferencia de prensa de clausura de la cumbre, un miembro de los medios de comunicación preguntó a Sunak si la responsabilidad de garantizar la seguridad de la IA debería recaer principalmente en las empresas que desarrollan modelos de IA, como lo respalda el profesor Bengio. En respuesta, Sunak expresó la opinión de que las empresas no pueden ser las únicas responsables de “marcar sus propios deberes” y sugirió que los gobiernos tenían el deber fundamental de garantizar la seguridad de sus ciudadanos. «Corresponde a los gobiernos mantener a sus ciudadanos seguros y protegidos, y es por eso que hemos invertido significativamente en nuestro Instituto de Seguridad de IA», dijo. “Nuestro trabajo es evaluar, monitorear y probar de forma independiente y externa estos modelos para asegurarnos de que sean seguros. ¿Creo que las empresas tienen una responsabilidad moral general de garantizar que el desarrollo de su tecnología se realice de forma segura? Sí, (y) todos han dicho exactamente lo mismo. Pero creo que también estarían de acuerdo en que los gobiernos deben desempeñar ese papel”. Otro periodista cuestionó a Sunak sobre el enfoque del Reino Unido para regular la tecnología de IA, específicamente si los acuerdos voluntarios eran suficientes en comparación con un régimen de licencias formal. En respuesta, Sunak argumentó que el ritmo al que evolucionaba la IA requería una respuesta gubernamental que se mantuviera al día, y sugirió que el Instituto de Seguridad de la IA sería responsable de realizar las evaluaciones e investigaciones necesarias para informar la regulación futura. «La tecnología se está desarrollando a tal ritmo que los gobiernos tienen que asegurarse de que podemos mantener el ritmo ahora, antes de empezar a exigir cosas y legislar al respecto», dijo Sunak. «Es importante que la regulación se base empíricamente en la evidencia científica, y por eso debemos hacer el trabajo primero». ¿Cuáles son las reacciones de los expertos a la Cumbre de Seguridad de la IA? Poppy Gustafsson, directora ejecutiva de la empresa de ciberseguridad de inteligencia artificial Darktrace, dijo a PA Media que le preocupaba que las discusiones se centraran demasiado en “riesgos hipotéticos del futuro”, como robots asesinos, pero que en la realidad las discusiones eran más “medidas”. Más cobertura de IA de lectura obligada Bennett de Forrester tenía una opinión marcadamente diferente y le dijo a TechRepublic que había «demasiado énfasis en escenarios lejanos y potencialmente apocalípticos». Y añadió: «Si bien la declaración (de Bletchley) incluye todas las palabras correctas sobre la investigación científica y la colaboración, que por supuesto son cruciales para abordar los problemas actuales relacionados con la seguridad de la IA, el final del documento lo devuelve a la IA de vanguardia». Bennet también señaló que, si bien gran parte de la retórica que rodeó la cumbre fue de cooperación y colaboración, las naciones individuales estaban avanzando con sus propios esfuerzos para convertirse en líderes en IA. “Si alguien esperaba que la Cumbre incluyera un anuncio sobre el establecimiento de un nuevo organismo global de investigación de IA, esas esperanzas se desvanecieron. Por ahora, los países se están centrando en sus propios esfuerzos: la semana pasada, el Primer Ministro del Reino Unido, Rishi Sunak, anunció el establecimiento del «primer Instituto de Seguridad de IA del mundo». Hoy (1 de noviembre), el presidente estadounidense Biden anunció el establecimiento del Instituto de Seguridad de Inteligencia Artificial de Estados Unidos”. Y añadió: «Esperemos que veamos el tipo de colaboración entre estos diferentes institutos que defiende la Declaración de Bletchley». VER: La Cumbre AI for Good de la ONU explora cómo la IA generativa plantea riesgos y fomenta las conexiones (TechRepublic) Rajesh Ganesan, presidente de ManageEngine, propiedad de Zoho, comentó en un comunicado por correo electrónico que, “Si bien algunos pueden sentirse decepcionados si la cumbre no logra establecer un organismo regulador global”, el hecho de que los líderes globales estuvieran discutiendo la regulación de la IA fue un paso positivo hacia adelante. «Lograr un acuerdo internacional sobre los mecanismos para gestionar los riesgos que plantea la IA es un hito importante: una mayor colaboración será fundamental para equilibrar los beneficios de la IA y limitar su capacidad dañina», dijo Ganesan en un comunicado. “Está claro que las prácticas de regulación y seguridad seguirán siendo fundamentales para la adopción segura de la IA y deben seguir el ritmo de sus rápidos avances. Esto es algo que la Ley de IA de la UE y los acuerdos del Código de Conducta del G7 podrían impulsar y proporcionar un marco para ello”. Ganesan añadió: “Necesitamos priorizar la educación continua y brindar a las personas las habilidades para utilizar sistemas de IA generativa de forma segura. Si no se logra que la adopción de la IA se centre en las personas que la utilizan y se benefician de ella, se corre el riesgo de obtener resultados peligrosos y subóptimos”. ¿Por qué es importante la seguridad de la IA? Actualmente no existe un conjunto integral de regulaciones que rijan el uso de la inteligencia artificial, aunque la Unión Europea ha redactado un marco que apunta a establecer reglas para la tecnología en el bloque de 28 naciones. El posible uso indebido de la IA, ya sea de forma maliciosa o mediante errores humanos o mecánicos, sigue siendo una preocupación clave. En la cumbre se escuchó que las vulnerabilidades de ciberseguridad, los peligros biotecnológicos y la difusión de desinformación representaban algunas de las amenazas más importantes publicadas por la IA, mientras que también se destacaron problemas con el sesgo algorítmico y la privacidad de los datos. La Secretaria de Tecnología del Reino Unido, Michelle Donelan, enfatizó la importancia de la Declaración de Bletchley como primer paso para garantizar el desarrollo seguro de la IA. También afirmó que la cooperación internacional era esencial para generar confianza pública en las tecnologías de IA, y agregó que “ningún país puede enfrentar por sí solo los desafíos y riesgos que plantea la IA”. El 1 de noviembre señaló: “La histórica Declaración de hoy marca el inicio de un nuevo esfuerzo global para generar confianza pública garantizando el desarrollo seguro de la tecnología”. ¿Cómo ha invertido el Reino Unido en IA? En vísperas de la Cumbre de Seguridad de la IA del Reino Unido, el gobierno del Reino Unido anunció una financiación de £118 millones (143 millones de dólares) para impulsar la financiación de habilidades de IA en el Reino Unido. La financiación se destinará a centros de investigación, becas y programas de visas y tiene como objetivo alentar a los jóvenes a estudiar los campos de la inteligencia artificial y la ciencia de datos. Mientras tanto, se han destinado £21 millones ($25,5 millones) para equipar al Servicio Nacional de Salud del Reino Unido con tecnología de diagnóstico y de imágenes impulsada por IA, como rayos X y tomografías computarizadas.

Source link