China y Estados Unidos acordaron trabajar junto con al menos otros 25 países para mitigar cualquier riesgo que surja del avance de la IA. Los dos países, junto con varios otros países, incluidos la UE, Australia, India, Alemania y Francia, firmaron un acuerdo, denominado Declaración de Bletchley, en la Cumbre de Seguridad de la IA del Reino Unido para formar una línea de pensamiento común que supervisaría la evolución de la IA. y garantizar que la tecnología avance de forma segura. El acuerdo lleva el nombre de un lugar en Londres, que fue hogar de descifradores de códigos durante la Segunda Guerra Mundial. A la cumbre en la que se firmó el acuerdo asistieron varios líderes políticos y directores ejecutivos de empresas de tecnología, incluidos Elon Musk y Sam Altman de OpenAI. La Declaración de Bletchley insta a los países miembros firmantes a adoptar dos enfoques amplios para controlar los riesgos fronterizos, como los nucleares, guerra química o biológica que surge de la IA. “Estamos especialmente preocupados por estos riesgos en ámbitos como la ciberseguridad y la biotecnología, así como donde los sistemas de IA de frontera pueden amplificar riesgos como la desinformación. Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más significativas de estos modelos de IA”, se lee en el acuerdo. El primer enfoque es identificar los riesgos de seguridad de la IA de interés compartido y luego construir una base científica compartida. y una comprensión basada en evidencia de estos riesgos. Una vez que se forme un entendimiento, los países miembros adjudicarán las capacidades de IA en evolución frente al entendimiento formado para medir el impacto de las nuevas capacidades de IA en la sociedad en general, según el acuerdo. El segundo enfoque es construir políticas respectivas basadas en riesgos en todos los miembros. países para garantizar la seguridad ante cualquier riesgo y que cada miembro comprenda que los enfoques individuales pueden variar según las circunstancias nacionales y los marcos legales aplicables. «Este (el segundo enfoque) incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades relevantes del sector público e investigación científica», decía el acuerdo. A principios de mayo, cientos de Líderes de la industria tecnológica, académicos y otras figuras públicas firmaron una carta abierta advirtiendo que la evolución de la IA podría conducir a un evento de extinción y dijeron que controlar la tecnología debería ser una prioridad global. Esta semana, OpenAI, creador de ChatGPT, dijo que estaba preparando un equipo. para evitar que lo que la compañía llama modelos de inteligencia artificial de frontera desencadenen una guerra nuclear y otras amenazas. La administración del presidente estadounidense Joe Biden también emitió esta semana una orden ejecutiva muy esperada que establece reglas claras y medidas de supervisión para garantizar que la IA se mantenga bajo control, al tiempo que proporciona caminos para que crezca. Copyright © 2023 IDG Communications, Inc.

Source link