En nuestra búsqueda por limitar el potencial destructivo de la inteligencia artificial, un artículo de la Universidad de Cambridge sugiere incorporar interruptores de apagado remoto y bloqueos, como los desarrollados para detener el lanzamiento no autorizado de armas nucleares, en el hardware que lo alimenta. El papel [PDF]que incluye voces de numerosas instituciones académicas y varias de OpenAI, defiende que regular el hardware en el que se basan estos modelos puede ser la mejor manera de evitar su uso indebido. «La computación relevante para la IA es un punto de intervención particularmente eficaz: es detectable, excluible y cuantificable, y se produce a través de una cadena de suministro extremadamente concentrada», argumentan los investigadores. Entrenar los modelos más prolíficos, que se cree que superan el billón de parámetros, requiere una inmensa infraestructura física: decenas de miles de GPU o aceleradores y semanas o incluso meses de tiempo de procesamiento. Esto, dicen los investigadores, hace que la existencia y el rendimiento relativo de estos recursos sean difíciles de ocultar. Es más, los chips más avanzados utilizados para entrenar estos modelos son producidos por un número relativamente pequeño de empresas, como Nvidia, AMD e Intel, lo que permite a los responsables políticos restringir la venta de estos productos a personas o países de interés. Estos factores, junto con otros como las limitaciones de la cadena de suministro en la fabricación de semiconductores, ofrecen a los responsables de la formulación de políticas los medios para comprender mejor cómo y dónde se implementa la infraestructura de IA, quién puede acceder a ella y quién no, y aplicar sanciones por su uso indebido, sostiene el documento. . Control de la infraestructura El documento destaca numerosas formas en que los formuladores de políticas podrían abordar la regulación del hardware de IA. Muchas de las sugerencias –incluidas aquellas diseñadas para mejorar la visibilidad y limitar la venta de aceleradores de IA– ya se están aplicando a nivel nacional. El año pasado, el presidente de Estados Unidos, Joe Biden, presentó una orden ejecutiva destinada a identificar empresas que desarrollen grandes modelos de IA de doble uso, así como proveedores de infraestructura capaces de entrenarlos. Si no está familiarizado, «doble uso» se refiere a tecnologías que pueden cumplir una doble función en aplicaciones civiles y militares. Más recientemente, el Departamento de Comercio de EE.UU. propuso una regulación que requeriría que los proveedores estadounidenses de nube implementaran políticas más estrictas de «conozca a su cliente» para evitar que personas o países de interés eludan las restricciones a las exportaciones. Este tipo de visibilidad es valiosa, señalan los investigadores, ya que podría ayudar a evitar otra carrera armamentista, como la provocada por la controversia sobre la brecha de misiles, donde informes erróneos llevaron a una acumulación masiva de misiles balísticos. Si bien son valiosos, advierten que el cumplimiento de estos requisitos de presentación de informes corre el riesgo de invadir la privacidad del cliente e incluso provocar la filtración de datos confidenciales. Mientras tanto, en el frente comercial, el Departamento de Comercio ha seguido intensificando las restricciones, limitando el rendimiento de los aceleradores vendidos a China. Pero, como informamos anteriormente, si bien estos esfuerzos han dificultado que países como China tengan en sus manos chips estadounidenses, están lejos de ser perfectos. Para abordar estas limitaciones, los investigadores propusieron implementar un registro global para las ventas de chips de IA que los rastrearía a lo largo de su ciclo de vida, incluso después de que hayan abandonado su país de origen. Sugieren que un registro de este tipo podría incorporar un identificador único en cada chip, lo que podría ayudar a combatir el contrabando de componentes. En el extremo más extremo del espectro, los investigadores han sugerido que se podrían incorporar interruptores de apagado en el silicio para evitar su uso en aplicaciones maliciosas. Así es como lo expresaron: ampliaron aún más ese mecanismo, y a nosotros nos parece como si estuvieran sugiriendo que los aceleradores podrían autodeshabilitarse o ser deshabilitados remotamente por perros guardianes: Los académicos son más claros en otras partes de su estudio, al proponer que la funcionalidad del procesador podría ser desactivado o reducido por los reguladores de forma remota mediante licencias digitales: en teoría, esto podría permitir a los organismos de control responder más rápido a los abusos de tecnologías sensibles cortando el acceso a los chips de forma remota, pero los autores advierten que hacerlo no está exento de riesgos. La implicación es que, si se implementa incorrectamente, dicho interruptor de apagado podría convertirse en un objetivo para que los ciberdelincuentes lo exploten. Otra propuesta requeriría que varias partes aprueben tareas de entrenamiento de IA potencialmente riesgosas antes de que puedan implementarse a escala. «Las armas nucleares utilizan mecanismos similares llamados enlaces de acción permisivos», escribieron. En el caso de las armas nucleares, estos bloqueos de seguridad están diseñados para evitar que una persona se vuelva rebelde y lance un primer ataque. Sin embargo, para la IA, la idea es que si un individuo o una empresa quisiera entrenar un modelo por encima de un cierto umbral en la nube, primero necesitaría obtener autorización para hacerlo. Aunque es una herramienta potente, los investigadores observan que esto podría resultar contraproducente al impedir el desarrollo de la IA deseable. El argumento parece ser que, si bien el uso de armas nucleares tiene un resultado bastante claro, la IA no siempre es tan blanca o negra. Pero si esto le parece demasiado distópico para su gusto, el artículo dedica una sección entera a reasignar recursos de IA para el mejoramiento de la sociedad en su conjunto. La idea es que los responsables políticos podrían unirse para hacer que la computación de IA sea más accesible para grupos que probablemente no la utilicen para el mal, un concepto descrito como «asignación». ¿Qué hay de malo en regular el desarrollo de la IA? ¿Porque pasar por todo este problema? Bueno, los autores del artículo postulan que el hardware físico es inherentemente más fácil de controlar. En comparación con el hardware, «otros insumos y resultados del desarrollo de la IA (datos, algoritmos y modelos entrenados) son bienes intangibles no rivales y fácilmente compartibles, lo que los hace intrínsecamente difíciles de controlar», se lee en el documento. El argumento es que una vez que se publica un modelo, ya sea abiertamente o filtrado, no hay manera de volver a meter al genio en la botella y detener su propagación por la red. Los investigadores también destacaron que los esfuerzos para prevenir el uso indebido de modelos han demostrado ser poco confiables. En un ejemplo, los autores destacaron la facilidad con la que los investigadores pudieron desmantelar las protecciones en Meta’s Llama 2 destinadas a evitar que el modelo generara lenguaje ofensivo. Llevado al extremo, se teme que se pueda emplear un modelo de doble uso suficientemente avanzado para acelerar el desarrollo de armas químicas o biológicas. El documento admite que la regulación del hardware de IA no es una solución milagrosa y no elimina la necesidad de regulación en otros aspectos de la industria. Sin embargo, es difícil ignorar la participación de varios investigadores de OpenAI considerando los intentos del CEO Sam Altman de controlar la narrativa en torno a la regulación de la IA. ®

Source link