Agrandar / La secretaria de Tecnología del Reino Unido, Michelle Donelan (primera fila en el centro), se une a sus homólogos internacionales para una fotografía grupal en la Cumbre de Seguridad de la IA en Bletchley Park en Milton Keynes, Buckinghamshire, el 1 de noviembre de 2023. El miércoles, el Reino Unido organizó una Cumbre de Seguridad de la IA. Cumbre a la que asistieron 28 países, incluidos EE. UU. y China, que se reunieron para abordar los riesgos potenciales que plantean los sistemas avanzados de inteligencia artificial, informa The New York Times. El evento incluyó la firma de la «Declaración de Bletchley», que advierte sobre los daños potenciales de la IA avanzada y pide cooperación internacional para garantizar un despliegue responsable de la IA. «Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o no, derivados de las capacidades más significativas de estos modelos de IA», se lee en la declaración, que lleva el nombre de Bletchley Park, el lugar de la cumbre y un lugar histórico de la Segunda Guerra Mundial. vinculado a Alan Turing. Turing escribió unas primeras e influyentes especulaciones sobre las máquinas pensantes. Los rápidos avances en el aprendizaje automático, incluida la aparición de chatbots como ChatGPT, han llevado a los gobiernos de todo el mundo a considerar la posibilidad de regular la IA. Sus preocupaciones llevaron a la reunión, que generó críticas por su lista de invitados. En el mundo de la tecnología, entre los representantes de las principales empresas se encontraban Anthropic, Google DeepMind, IBM, Meta, Microsoft, Nvidia, OpenAI y Tencent. Grupos de la sociedad civil, como el Instituto Ada Lovelace de Gran Bretaña y la Liga de Justicia Algorítmica de Massachusetts, también enviaron representantes. Entre los representantes de la cumbre política de Estados Unidos se encontraban la vicepresidenta Kamala Harris y Gina Raimondo, secretaria de Comercio. El viceministro de ciencia y tecnología de China, Wu Zhaohui, expresó la voluntad de Beijing de «mejorar el diálogo y la comunicación» sobre la seguridad de la IA. Representantes del gobierno del Reino Unido, como la Secretaria de Tecnología, Michelle Donelan, desempeñaron un papel protagónico en el evento, con la esperanza de colocar al Reino Unido al frente y al centro del espacio de la IA. Según The Guardian, el primer ministro del Reino Unido, Rishi Sunak, aplaudió la Declaración de Bletchley y enfatizó la necesidad de identificar amenazas potenciales relacionadas con sistemas avanzados de inteligencia artificial que eventualmente puedan superar la inteligencia humana. En esa línea de pensamiento, Elon Musk, que asistió a la cumbre, dijo: «Por primera vez, tenemos una situación en la que hay algo que va a ser mucho más inteligente que el ser humano más inteligente… No está claro para mí que podamos realmente controlar tal cosa», según The Guardian. Musk ha sido un miembro destacado y franco de un movimiento para advertir sobre los hipotéticos riesgos existenciales de la IA. Sin embargo, algunos expertos en IA, como el cofundador de Google Brain, Andrew Ng, y el científico jefe de IA de Meta, Yann LeCun, consideran que esos riesgos están sobrevalorados. «La opinión de la *vasta* mayoría de científicos e ingenieros de IA (incluido yo) es que todo el debate sobre el riesgo existencial es tremendamente exagerado y muy prematuro», escribió LeCun en X (anteriormente Twitter) el 9 de octubre. Otros críticos de la IA La tecnología prefiere centrarse en los daños percibidos actualmente por la IA, incluidos problemas ambientales, de privacidad, éticos y de prejuicios, en lugar de amenazas hipotéticas. Si bien la cumbre inició un diálogo internacional sobre la seguridad de la IA, no llegó a establecer objetivos políticos específicos, según The Times. Eso puede tener algo que ver con la naturaleza nebulosa de la propia «IA». «Inteligencia artificial» es un término muy amplio con una definición confusa que puede abarcar muchas tecnologías, desde programas informáticos para jugar al ajedrez hasta grandes modelos de lenguaje que pueden codificar en Python. En particular, la declaración se refiere a lo que llama «IA de frontera», que el documento define vagamente como «modelos de IA de propósito general altamente capaces, incluidos modelos básicos, que podrían realizar una amplia variedad de tareas, así como IA específicas y relevantes». que podrían exhibir capacidades que causen daño, que igualan o superan las capacidades presentes en los modelos más avanzados de hoy». De manera similar, sigue habiendo una falta de consenso sobre lo que deberían implicar las regulaciones globales de IA o quién debería ser responsable de redactarlas. Estados Unidos, por su parte, ha anunciado un Instituto Estadounidense de Seguridad de la IA independiente, y el presidente Biden emitió recientemente una orden ejecutiva sobre la IA. La Unión Europea está trabajando en un proyecto de ley de IA para establecer principios y directrices regulatorios para tecnologías de IA específicas. Si bien la cumbre significa un paso hacia la cooperación internacional en materia de seguridad de la IA, algunos analistas creen que se inclinó más hacia las posturas y el simbolismo. Justo antes de la cumbre, el primer ministro Sunak anunció una entrevista en vivo con Musk el jueves que tendrá lugar en la plataforma de redes sociales de Musk, X.

Source link