Comenta esta historiaComentarAgregar a tus historias guardadasGuardarBLETCHLEY, Gran Bretaña — Mientras Adolf Hitler infundía terror en Europa, el gobierno británico reclutó a sus mejores y más brillantes en este complejo secreto al noroeste de Londres para descifrar los códigos nazis. Los esfuerzos de Bletchley Park ayudaron a cambiar el rumbo de la guerra y sentaron las bases para la computadora moderna. Pero cuando los países de seis continentes concluyeron el jueves una cumbre histórica sobre los riesgos de la inteligencia artificial en el mismo sitio histórico que los descifradores de códigos británicos, se enfrentaron a una Una desconcertante realidad moderna: los gobiernos ya no tienen el control de la innovación estratégica, un hecho que los tiene luchando por contener una de las tecnologías más poderosas que el mundo haya conocido. La IA ya se está desplegando en los campos de batalla y en las campañas, poseyendo la capacidad para alterar el curso de las democracias, socavar o apuntalar autocracias y ayudar a determinar el resultado de las guerras. Sin embargo, la tecnología se está desarrollando bajo el velo del secreto corporativo, en gran medida fuera de la vista de los reguladores gubernamentales y con el alcance y las capacidades de cualquier modelo determinado celosamente guardados como información de propiedad. Las empresas de tecnología que impulsan esta innovación están pidiendo límites, pero por su propia cuenta. propios términos. El director ejecutivo de OpenAI, Sam Altman, ha sugerido que el gobierno necesita un nuevo regulador para abordar los futuros modelos avanzados de IA, pero la compañía continúa avanzando y lanzando sistemas de IA cada vez más avanzados. Elon Musk, director ejecutivo de Tesla, firmó una carta pidiendo una pausa en el desarrollo de la IA, pero sigue adelante con su propia empresa de IA, xAI. “Están desafiando a los gobiernos a quitarles las llaves, y es bastante difícil porque los gobiernos básicamente han dejado que las empresas de tecnología hicieron lo que quisieron durante décadas”, dijo Stuart Russell, un destacado profesor de informática en la Universidad de California en Berkeley. «Pero mi sensación es que el público ya ha tenido suficiente». La falta de controles gubernamentales sobre la IA ha dejado en gran medida a una industria basada en las ganancias para autocontrolar los riesgos y las implicaciones morales de una tecnología capaz de desinformar al siguiente nivel, arruinando reputaciones y carreras, incluso quitando vidas humanas. Eso puede estar cambiando. Esta semana en Gran Bretaña, la Unión Europea y 27 países, incluidos Estados Unidos y China, acordaron una declaración histórica para limitar los riesgos y aprovechar los beneficios de la inteligencia artificial. El impulso a la gobernanza global dio un paso adelante, con promesas sin precedentes de cooperación internacional por parte de aliados y adversarios. El jueves, los principales líderes tecnológicos, incluidos Altman, el fundador de DeepMind, Demis Hassabis, y el presidente de Microsoft, Brad Smith, se sentaron alrededor de una mesa circular con la vicepresidenta Kamala Harris. El primer ministro británico, Rishi Sunak, y otros líderes mundiales. Los ejecutivos acordaron permitir que los expertos del nuevo Instituto de Seguridad de IA de Gran Bretaña prueben los modelos en busca de riesgos antes de su lanzamiento al público. Sunak elogió esto como “el logro histórico de la cumbre”, ya que Gran Bretaña acuerda dos asociaciones, con el recientemente anunciado Instituto de Seguridad de Inteligencia Artificial de EE. UU. y con Singapur, para colaborar en las pruebas. Pero hay detalles limitados sobre cómo funcionarían las pruebas. – o en qué se diferencia del mandato de la Casa Blanca – y los acuerdos son en gran medida voluntarios. Los observadores dicen que el esfuerzo global – con cumbres de seguimiento planificadas en Corea del Sur y Francia dentro de seis meses y un año, respetuosamente – sigue en su relativa infancia y está siendo superado con creces por la velocidad de desarrollo de herramientas de IA tremendamente poderosas. Musk, que asistió al evento de dos días, se burló de los líderes gubernamentales al compartir una caricatura en las redes sociales que los mostraba diciendo que la IA era una amenaza para la humanidad y que no podían No espere para desarrollarlo primero. Las empresas ahora controlan la mayor parte de la financiación para la investigación y el desarrollo tecnológico y científico en los Estados Unidos. Las empresas estadounidenses representaron el 73 por ciento del gasto en este tipo de investigaciones en 2020, según datos compilados por el Centro Nacional de Estadísticas de Ciencia e Ingeniería. Se trata de un cambio dramático con respecto a 1964, cuando la financiación gubernamental representaba el 67 por ciento de este gasto. Ese cambio de paradigma ha creado un vacío geopolítico, con nuevas instituciones necesarias con urgencia para permitir a los gobiernos equilibrar las oportunidades presentadas por la IA con las preocupaciones de seguridad nacional, dijo Dario Gil. , vicepresidente senior y director de investigación de IBM. “Eso se está inventando”, dijo Gil. «Y si parece un poco caótico, es porque lo es». Dijo que la declaración de Bletchley de esta semana, así como los anuncios recientes de dos institutos gubernamentales de seguridad de IA, uno en Gran Bretaña y otro en Estados Unidos, eran pasos hacia ese objetivo. Sin embargo, el Instituto de Seguridad de la IA de EE. UU. se está creando dentro del Instituto Nacional de Estándares y Tecnología, un laboratorio federal que carece notoriamente de fondos y personal insuficientes. Eso podría presentar un impedimento clave para controlar a las empresas más ricas del mundo, que compiten entre sí para lanzar los modelos de IA más avanzados. Los equipos del NIST que trabajan en tecnología emergente e inteligencia artificial responsable solo tienen unos 20 empleados, y los de la agencia Los desafíos de financiación son tan importantes que sus laboratorios se están deteriorando. Los equipos han resultado dañados por problemas de plomería y techos con goteras, lo que ha retrasado proyectos e incurrido en nuevos costos, según un informe de las Academias Nacionales de Ciencias, Ingeniería y Medicina. “Las instalaciones del NIST no son de clase mundial y, por lo tanto, son un impedimento cada vez mayor para atraer y retener personal en un entorno STEM altamente competitivo”, decía el informe de 2023. El laboratorio enfrenta nuevas demandas para abordar la inteligencia artificial, la ciberseguridad, la computación cuántica y una gran cantidad de tecnologías emergentes, pero el Congreso no ha ampliado su presupuesto para seguir el ritmo de la evolución del mandato. «El NIST es una agencia de mil millones de dólares, pero se espera que funcione como una agencia de diez mil millones de dólares», dijo Divyansh Kaushik, director asociado de tecnologías emergentes y seguridad nacional de la Federación de Científicos Estadounidenses. «Sus edificios se están cayendo a pedazos, el personal está sobrecargado de trabajo, algunos están liderando múltiples iniciativas a la vez y eso es malo para ellos, es malo para el éxito de esas iniciativas». El portavoz del Departamento de Comercio, Charlie Andrews, dijo que el NIST ha logrado «resultados notables dentro de su presupuesto.» «Para aprovechar ese progreso, es fundamental que, como ha solicitado el presidente Biden, el Congreso asigne los fondos necesarios para seguir el ritmo de esta tecnología en rápida evolución que presenta oportunidades sustanciales y riesgos graves si se utiliza de manera irresponsable», dijo. Los gobiernos y las regiones están adoptando un enfoque gradual, siendo la UE y China los que avanzan más rápidamente hacia una regulación más estricta. Buscando cultivar el sector incluso cuando advierten sobre los graves riesgos de la IA, los británicos han adoptado el toque más ligero en las reglas, calificando su estrategia como un enfoque “pro innovación”. Estados Unidos, hogar de los desarrolladores de IA más grandes y sofisticados, se encuentra en algún punto intermedio, imponiendo nuevas obligaciones de seguridad a los desarrolladores de los sistemas de IA más sofisticados, pero no tanto como para obstaculizar el desarrollo y el crecimiento. Al mismo tiempo, los legisladores estadounidenses están considerando invertir miles de millones de dólares en el desarrollo de la IA en medio de preocupaciones de competencia con China. El líder de la mayoría del Senado, Charles E. Schumer (DN.Y.), que lidera los esfuerzos en el Congreso para desarrollar una legislación sobre IA, dijo que los legisladores están discutiendo la necesidad de un mínimo de 32 mil millones de dólares en financiación. Por ahora, Estados Unidos está del lado de los cautelosos. acción. Las empresas tecnológicas, dijo Paul Scharre, vicepresidente ejecutivo del Centro para la Nueva Seguridad Estadounidense, no necesariamente son amadas en Washington por los republicanos o los demócratas. Y la reciente orden ejecutiva del presidente Biden marcó un cambio notable con respecto a las políticas de laissez faire aplicadas a las empresas de tecnología en el pasado. “He escuchado a algunas personas argumentar que el gobierno simplemente necesita sentarse y confiar en estas empresas y que el gobierno no No tengo la experiencia técnica para regular esta tecnología”, dijo Scharre. “Creo que es un recibo por el desastre. Estas empresas no son responsables ante el público en general. Los gobiernos lo son”. La inclusión de China en la declaración de Bletchley decepcionó a algunos de los asistentes a la cumbre, incluido Michael Kratsios, ex director de tecnología de Estados Unidos designado por Trump. Kratsios dijo en 2019 que asistió a una reunión cumbre del G-20 en 2019 donde funcionarios de China acordaron los principios de la IA, incluido el compromiso de que «los actores de la IA deben respetar los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de IA». Sin embargo, en los últimos meses, China ha implementado nuevas reglas para mantener a la IA sujeta a “valores socialistas fundamentales” y en cumplimiento del vasto régimen de censura de Internet del país. “Al igual que con casi cualquier otra cosa cuando se trata de acuerdos internacionales, procedió a violar flagrantemente [the principles]”, dijo Kratsios, quien ahora es director general de Scale AI. Mientras tanto, los defensores de la sociedad civil que fueron excluidos del evento principal en Bletchley Park dicen que los gobiernos están avanzando demasiado lento, tal vez peligrosamente. Beeban Kidron, una baronesa británica que ha abogado por la seguridad de los niños en línea, advirtió que los reguladores corren el riesgo de cometer los mismos errores que han cometido al responder a las empresas de tecnología en las últimas décadas, que “ha privatizado la riqueza de la tecnología y subcontratado el costo a la sociedad”. «Es el excepcionalismo tecnológico lo que plantea una amenaza existencial para la humanidad, no la tecnología en sí», dijo Kidron en un discurso el jueves en un evento competitivo en Londres.
Source link
Deja una respuesta