La administración Biden emitió el martes un informe de inteligencia artificial en el que dijo que no “restringiría inmediatamente la amplia disponibilidad de pesos de modelos abiertos”. [numerical parameters that help determine a model’s response to inputs] El informe, que fue publicado oficialmente por la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio de Estados Unidos, se centró ampliamente en los pros y los contras de un modelo de base de doble uso, que definió como un modelo de IA que “se entrena con datos amplios; generalmente utiliza autosupervisión; contiene al menos decenas de miles de millones de parámetros; es aplicable en una amplia gama de contextos; y que muestra, o podría modificarse fácilmente para mostrar, altos niveles de desempeño en tareas que plantean un riesgo grave para la seguridad, la seguridad económica nacional, la salud pública nacional o la seguridad, o cualquier combinación de esos asuntos”. La amplia disponibilidad de modelos de IA “podría plantear una variedad de riesgos y beneficios marginales. Pero los modelos están evolucionando demasiado rápido, y la extrapolación basada en las capacidades y limitaciones actuales es demasiado difícil para concluir si los modelos de base abiertos plantean más riesgos marginales que beneficios”, decía el informe. “Por ejemplo”, decía, “¿cuánto reducen los pesos de los modelos abiertos la barrera de entrada para la síntesis, difusión y uso de material CBRN (químico, biológico, radiológico o nuclear)? ¿Los pesos de los modelos abiertos impulsan la investigación de seguridad más de lo que introducen nuevos riesgos de mal uso o control? ¿Refuerzan los ciberataques ofensivos más que impulsan la investigación de ciberdefensa? ¿Permiten más discriminación en los sistemas posteriores que promueven la investigación de sesgos? ¿Y cómo sopesamos estas consideraciones frente a la introducción y difusión de contenido CSAM (material de abuso sexual infantil) / NCII (imágenes íntimas no consensuadas)?” Reacciones mixtas Los ejecutivos de la industria tuvieron reacciones mixtas a la noticia, aplaudiendo la falta de restricciones inmediatas pero expresando preocupaciones de que el informe no descartara tales restricciones en el corto plazo. Yashin Manraj, el director ejecutivo de Pvotal, con sede en Oregón, dijo que había amplios temores en la industria antes de que se publicara el informe final de que Estados Unidos intentara restringir el desarrollo de IA de alguna manera. También se habló dentro de la comunidad inversora de que las operaciones de desarrollo de IA podrían tener que reubicarse fuera de Estados Unidos si se anunciaban regulaciones. Pvotal opera en nueve países. “Los inversores de capital riesgo ya no nos presionan” para trasladar el desarrollo de la IA a entornos más favorables a la IA, como Dubái, dijo Manraj, pero hubiera preferido haber visto una promesa a más largo plazo de que no habría más regulación. “Fue el paso correcto no implementar ningún tipo de acción ejecutable a corto plazo, pero no hay una promesa clara y definitiva. No sabemos qué pasará en tres meses”, dijo Manraj. “Al menos no tenemos que hacer ningún cambio drástico ahora, pero hay un poco de preocupación sobre cómo irán las cosas. Hubiera sido bueno haber tenido esa claridad”. Otro ejecutivo de IA, Hamza Tahir, director de tecnología de ZenML, dijo: “El informe hizo un buen trabajo al reconocer los peligros que la IA podría causar, al tiempo que se equivocaba por el lado de la no regulación y la apertura. Fue una respuesta prudente y racional, un enfoque sensato. No tienen la experiencia en este momento”. Problemas para los desarrolladores El informe se centró en el nivel de control que tienen los codificadores al desarrollar modelos de IA generativos. “Los desarrolladores que publican los pesos de los modelos renuncian al control y la visibilidad de las acciones de sus usuarios finales. No pueden rescindir el acceso a los pesos ni moderar el uso de los modelos. Aunque los pesos podrían eliminarse de las plataformas de distribución, como Hugging Face, una vez que los usuarios los hayan descargado, pueden compartirlos por otros medios”, decía. El informe señalaba que los modelos básicos de doble uso pueden ser beneficiosos, ya que “diversifican y amplían la gama de actores, incluidos los actores con menos recursos, que participan en la I+D de IA. Descentralizan el control del mercado de IA de unos pocos grandes desarrolladores de IA. Y permiten a los usuarios aprovechar los modelos sin compartir datos con terceros, lo que aumenta la confidencialidad y la protección de los datos”. ¿Por qué no hay nuevas regulaciones? Una de las razones que cita el informe para no imponer, al menos inicialmente, nuevas cargas regulatorias al desarrollo de IA es que la investigación hasta la fecha simplemente no ha sido muy concluyente, ya que se llevó a cabo en modelos ya publicados. “La evidencia de esta investigación proporciona una línea de base con la que medir los riesgos y beneficios marginales, pero no puede medir de manera preventiva los riesgos y beneficios introducidos por la amplia difusión de un modelo futuro”, afirma el informe. “Puede proporcionar relativamente poco respaldo para los riesgos y beneficios marginales de futuras publicaciones de modelos de base de doble uso con ponderaciones de modelo ampliamente disponibles. Sin cambios en las capacidades de investigación y monitoreo, esta dinámica puede persistir. Cualquier evidencia de riesgos que justifique posibles intervenciones de políticas para restringir la disponibilidad de ponderaciones de modelos podría surgir solo después de que esos modelos de IA, cerrados o abiertos, hayan sido publicados”. Agregó que muchos modelos de IA con ponderaciones de modelo ampliamente disponibles tienen menos de 10 mil millones de parámetros, por lo que estaban fuera del alcance del informe según se define en la Orden Ejecutiva de 2023. “Los avances en la arquitectura de modelos o las técnicas de entrenamiento pueden llevar a que modelos que antes requerían más de 10 mil millones de parámetros se igualen en capacidades y desempeño con modelos más nuevos con menos de 10 mil millones de parámetros”, señaló el informe. “Además, a medida que la ciencia avanza, es posible que esta dinámica se acelere, y que el número de parámetros necesarios para las capacidades avanzadas disminuya de manera constante”. El informe también advirtió que dichos modelos “podrían exacerbar plausiblemente los riesgos que los modelos de IA plantean a la seguridad pública al permitir que una gama más amplia de actores, incluidos usuarios irresponsables y maliciosos, aprovechen las capacidades existentes de estos modelos y las aumenten para crear sistemas más peligrosos. Por ejemplo, incluso si el modelo original tiene salvaguardas incorporadas para prohibir ciertos avisos que pueden dañar la seguridad pública, como filtros de contenido, listas de bloqueo y escudos de avisos, el acceso directo al peso del modelo puede permitir a las personas eliminar estas características de seguridad”. Amenazas a la seguridad pública También despertó a los lectores con un subtítulo que decía: “Amenazas químicas, biológicas, radiológicas o nucleares a la seguridad pública”. Esa sección señaló que las herramientas de diseño biológico (BDT) “que superan el umbral de parámetros recién están comenzando a aparecer. Las BDT suficientemente capaces de cualquier escala deben discutirse junto con los modelos de base de doble uso debido a su riesgo potencial para la creación de armas biológicas y químicas”. “Algunos expertos han argumentado que la distribución indiscriminada e imposible de rastrear, exclusiva de los pesos de los modelos abiertos, crea el potencial de permitir la actividad química, biológica, radiológica o nuclear (CBRN) entre los malos actores, especialmente a medida que los modelos de base aumentan sus capacidades multimodales y se convierten en mejores asistentes de laboratorio”, afirma el informe. Implicaciones internacionales El informe también advierte contra otros países que toman sus propias medidas, especialmente si esas reglas contradicen las reglas de otras regiones. “Las inconsistencias en los enfoques de la apertura de los modelos también pueden dividir Internet en silos digitales, lo que provoca un escenario de ‘red fragmentada’. Si un estado decide prohibir los pesos de los modelos abiertos pero otros, como Estados Unidos, no lo hacen, las naciones restrictivas deben, de alguna manera, impedir que sus ciudadanos accedan a los modelos publicados en otros lugares”, afirma el informe. “Dado que los desarrolladores suelen publicar los pesos de los modelos abiertos en línea, los países que opten por aplicar medidas más estrictas tendrán que restringir ciertos sitios web, ya que los sitios web de algunos países alojarían modelos abiertos y otros no”. Afirma que existen preocupaciones especiales sobre las naciones hostiles a la política estadounidense. “Los actores podrían experimentar con modelos básicos para avanzar en la I+D para una gran cantidad de aplicaciones militares y de inteligencia, incluidas la detección de señales, el reconocimiento de objetivos, el procesamiento de datos, la toma de decisiones estratégicas, la simulación de combate, el transporte, los bloqueos de señales, los sistemas de coordinación de armas y los enjambres de drones”, señala el informe. “Los modelos abiertos podrían potencialmente impulsar estas iniciativas de investigación, permitiendo a los actores extranjeros innovar sobre la base de los modelos estadounidenses y descubrir conocimientos técnicos cruciales para construir modelos de doble uso”.