Esta es una publicación invitada. Para conocer el otro lado del argumento sobre la IA de código abierto, consulte la reciente publicación invitada “La IA de código abierto es singularmente peligrosa”. Está surgiendo una guerra cultural en la IA entre quienes creen que el desarrollo de modelos debe estar restringido o no restringido por por defecto. En 2024, ese choque se extenderá a la ley y tendrá importantes implicaciones para el futuro de la innovación abierta en IA. Los sistemas de IA más cuestionados son los modelos de IA generativa actuales que han aprendido a leer, escribir, dibujar, animar, y hablar, y que se puede utilizar para impulsar herramientas como ChatGPT. Entrelazado con el debate sobre la regulación de la IA en general existe un desacuerdo acalorado y continuo sobre el riesgo de los modelos abiertos (modelos que pueden ser utilizados, modificados y compartidos por otros desarrolladores) y la conveniencia de publicar sus configuraciones o “pesos” distintivos. al público.Desde el lanzamiento de potentes modelos abiertos como las familias Llama, Falcon, Mistral y Stable Diffusion, los críticos han presionado para mantener a otros genios similares en la botella. «El software de código abierto y los datos abiertos pueden ser un recurso extraordinario para promover la ciencia», escribieron dos senadores estadounidenses a Meta (creador de Llama), pero «los modelos centralizados de IA pueden actualizarse y controlarse de manera más efectiva para prevenir y responder al abuso». Los grupos de expertos y las empresas de código cerrado han pedido que el desarrollo de la IA se regule como la investigación nuclear, con restricciones sobre quién puede desarrollar los modelos de IA más potentes. El mes pasado, un comentarista argumentó en IEEE Spectrum que “la IA de código abierto es excepcionalmente peligrosa”, haciéndose eco de los llamados a registrar y otorgar licencias a los modelos de IA. El debate está surgiendo en los recientes esfuerzos por regular la IA. En primer lugar, la Unión Europea finalizó su Ley de IA para regular el desarrollo y la implementación de sistemas de IA. Entre sus disposiciones más controvertidas estaba si aplicar estas reglas a modelos “libres y de código abierto”. En segundo lugar, tras la orden ejecutiva del presidente Biden sobre IA, el gobierno de EE. UU. ha comenzado a exigir informes a los desarrolladores de ciertos modelos de IA y pronto lanzará una investigación pública sobre la regulación de modelos de IA “ampliamente disponibles”. Para regular la IA, necesitamos promover un ecosistema de IA diverso: desde grandes empresas que crean superinteligencia patentada hasta expertos cotidianos que experimentan con tecnología abierta. Los modelos abiertos son la base de la innovación de base en IA. Me desempeño como jefe de políticas públicas de Stability AI (creadores de Stable Diffusion), donde trabajo con un pequeño equipo de investigadores apasionados que comparten modelos de medios y lenguajes que millones de desarrolladores y creadores de todo el mundo utilizan libremente. Estoy preocupado porque la innovación de base es especialmente vulnerable a las crecientes restricciones gubernamentales. Estas regulaciones pueden limitar la investigación fundamental y la colaboración de maneras que erosionen la cultura del desarrollo abierto, que hizo posible la IA en primer lugar. Los modelos abiertos promueven la transparencia y la competencia Los modelos abiertos desempeñan un papel vital para ayudar a impulsar la transparencia y la competencia en la IA. . En los próximos años, la IA generativa respaldará aplicaciones creativas, analíticas y científicas que van mucho más allá de los generadores de texto e imágenes actuales; veremos aplicaciones como tutores personalizados, asistentes médicos de escritorio y estudios de cine en el patio trasero. Estos modelos revolucionarán los servicios esenciales, remodelarán la forma en que accedemos a la información en línea y transformarán nuestras instituciones públicas y privadas. En resumen, la IA se convertirá en una infraestructura crítica. Como he argumentado ante el Congreso de Estados Unidos y el Parlamento del Reino Unido, la próxima ola de servicios digitales no debería depender únicamente de unos pocos sistemas de “caja negra” operados por un grupo de grandes empresas tecnológicas. Hoy en día, nuestra economía digital funciona con sistemas opacos que nos suministran contenido, controlan nuestro acceso a la información, determinan nuestra exposición a la publicidad y median en nuestras interacciones en línea. No podemos inspeccionar estos sistemas ni crear alternativas competitivas. Si los modelos (nuestros componentes básicos de la IA) son propiedad de un puñado de empresas, corremos el riesgo de repetir lo que ocurrió con Internet. Hemos visto lo que sucede cuando la infraestructura digital crítica está controlada por unas pocas empresas. En este entorno, los modelos abiertos desempeñan un papel vital. Si se publican los pesos de un modelo, los investigadores, desarrolladores y autoridades pueden «mirar debajo del capó» de estos motores de IA para comprender su idoneidad y mitigar sus vulnerabilidades antes de implementarlos en herramientas del mundo real. Los desarrolladores y las pequeñas empresas de todos los días pueden adaptar estos modelos abiertos para crear nuevas aplicaciones de IA, ajustar modelos de IA más seguros para tareas específicas, entrenar modelos de IA más representativos para comunidades específicas o lanzar nuevas empresas de IA sin gastar decenas de millones de dólares para construir un modelo. scratch.Sabemos por experiencia que la transparencia y la competencia son la base de un ecosistema digital próspero. Es por eso que el software de código abierto como Android impulsa la mayoría de los teléfonos inteligentes del mundo, y por qué Linux se puede encontrar en centros de datos, submarinos nucleares y cohetes SpaceX. El software de código abierto ha aportado nada menos que 8,8 billones de dólares en valor a nivel mundial. De hecho, los recientes avances en IA sólo fueron posibles gracias a investigaciones abiertas como la arquitectura de transformadores, bibliotecas de código abierto como PyTorch y la colaboración abierta de investigadores y desarrolladores de todo el mundo. Las regulaciones pueden sofocar la innovación de base. Afortunadamente, ningún gobierno se ha atrevido a abolir los modelos abiertos. en total. En todo caso, los gobiernos se han resistido a los llamados más extremos a intervenir. La Casa Blanca se negó a exigir licencias previas a la comercialización para modelos de IA en su orden ejecutiva. Y después de una confrontación con los gobiernos de sus estados miembros en diciembre, la UE acordó eximir parcialmente a los modelos abiertos de su Ley de IA. Mientras tanto, Singapur está financiando un esfuerzo de desarrollo de código abierto de 52 millones de dólares para el Sudeste Asiático, y los Emiratos Árabes Unidos continúan financiando algunos de los mayores modelos abiertos de IA generativa disponibles. El presidente francés Macron ha declarado “on croit dans l’open-source”: creemos en el código abierto. Sin embargo, las regulaciones de la UE y los EE. UU. podrían frenar esta cultura de desarrollo abierto en IA. Por primera vez, estos instrumentos establecen un umbral legal más allá del cual los modelos se considerarán tecnologías de “doble uso” o de “riesgo sistémico”. Esos umbrales se basan en una variedad de factores, incluida la potencia informática utilizada para entrenar el modelo. Los modelos que superen el umbral atraerán nuevos controles regulatorios, como notificar a las autoridades los resultados de las pruebas y mantener registros exhaustivos de investigación y desarrollo, y perderán las exenciones de la UE para el desarrollo de código abierto. En cierto sentido, estos umbrales son un esfuerzo de buena fe para evitar sobrerregulación de la IA. Centran la atención regulatoria en modelos futuros con capacidades desconocidas en lugar de restringir los modelos existentes. Pocos modelos existentes alcanzarán los umbrales actuales, y los que lo hagan primero serán modelos de empresas con buenos recursos y equipadas para cumplir con las nuevas obligaciones. Sin embargo, en otro sentido, este enfoque de la regulación es preocupante y augura un cambio sísmico en cómo gobernamos la tecnología novedosa. La innovación de base puede convertirse en un daño colateral. Las regulaciones perjudicarían al pequeño. En primer lugar, regular los componentes “ascendentes”, como los modelos, podría tener un efecto paralizador desproporcionado sobre la investigación en los sistemas “descendentes”. Muchas de estas restricciones para los modelos por encima del umbral suponen que los desarrolladores son empresas sofisticadas con relaciones formales con quienes utilizan sus modelos. Por ejemplo, la orden ejecutiva de EE. UU. exige que los desarrolladores informen sobre las personas que pueden acceder a los pesos del modelo y detallen los pasos tomados para asegurar esos pesos. La legislación de la UE exige que los desarrolladores realicen evaluaciones «de última generación» y supervisen sistemáticamente los incidentes que afecten a sus modelos. Por primera vez, estos instrumentos establecen un umbral legal más allá del cual los modelos se considerarán tecnologías de «doble uso» o «riesgo sistémico». Sin embargo, el ecosistema de IA es más que un puñado de laboratorios corporativos. También incluye innumerables desarrolladores, investigadores y creadores que pueden acceder, perfeccionar y compartir libremente modelos abiertos. Pueden iterar sobre potentes modelos “base” para crear modelos “ajustados” más seguros, menos sesgados o más confiables que luego lanzan a la comunidad. Si estos desarrolladores cotidianos reciben el mismo trato que las empresas que lanzaron el modelo por primera vez, habrá problemas. Los pequeños desarrolladores no podrán cumplir con los requisitos de aprobación y licencia previa a la comercialización que se han propuesto en el Congreso, ni con los requisitos de evaluación, mitigación y documentación de “talla única” redactados inicialmente por el Parlamento Europeo. Y nunca contribuirían al desarrollo de modelos (ni a ningún otro tipo de desarrollo de software) si pensaran que un senador podría responsabilizarlos por cómo los actores intermedios usan o abusan de su investigación. Las personas que lanzan modelos nuevos y mejorados en GitHub no deberían enfrentar la misma carga de cumplimiento que OpenAI o Meta. Los umbrales para las regulaciones parecen arbitrarios. En segundo lugar, los criterios que sustentan estos umbrales no están claros. Antes de poner barreras al desarrollo y distribución de una tecnología útil, los gobiernos deberían evaluar el riesgo inicial de la tecnología, el riesgo residual después de considerar todas las mitigaciones legales y técnicas disponibles, y el costo de oportunidad de equivocarse. No hay un marco para determinar si estos modelos realmente plantean un riesgo grave y absoluto de uso indebido catastrófico, o para medir el impacto de estas reglas en la innovación en IA. El umbral preliminar estadounidense (1.026 operaciones de punto flotante (FLOP) en computación de entrenamiento) apareció por primera vez como una nota a pie de página en un artículo de investigación. El umbral de la UE de 1.025 FLOP es un orden de magnitud más conservador y no apareció hasta el último mes de negociación. Es posible que crucemos ese umbral en el futuro previsible. Es más, ambos gobiernos se reservan el derecho de cambiar estos objetivos por cualquier motivo, lo que podría incluir una gran cantidad de modelos más pequeños pero cada vez más potentes, muchos de los cuales pueden ejecutarse localmente en computadoras portátiles o teléfonos inteligentes. Las regulaciones se justifican en función de riesgos especulativos. No hay consenso sobre qué riesgos precisamente justifican estos controles excepcionales. La seguridad en línea, la desinformación electoral, el malware inteligente y el fraude son algunos de los riesgos más inmediatos y tangibles que plantea la IA generativa. También es posible la perturbación económica. Sin embargo, estos riesgos rara vez se invocan para justificar controles previos a la comercialización de otras tecnologías de software útiles con aplicaciones de doble uso. Photoshop, Word, Facebook, Búsqueda de Google y WhatsApp han contribuido a la proliferación de deepfakes, noticias falsas y estafas de phishing, pero nuestro primer instinto no es regular sus bibliotecas subyacentes de C++ o Java. En cambio, los críticos se han centrado en el “riesgo existencial” para defender la regulación del desarrollo y distribución de modelos, citando la perspectiva de agentes desbocados o armas de destrucción masiva de fabricación casera. Sin embargo, como señala un artículo reciente del Instituto de Inteligencia Artificial Centrada en el Humano (HAI) de Stanford sobre estas afirmaciones, “la debilidad de la evidencia es sorprendente”. Para que estos argumentos justifiquen un alejamiento radical de nuestro enfoque convencional para regular la tecnología, el estándar de la prueba debería ser más alto que la especulación. Deberíamos regular la IA preservando al mismo tiempo la apertura. No hay debate sobre si la IA debe regularse, y todos los actores, desde los desarrolladores de modelos. hasta los implementadores de aplicaciones—tienen un papel que desempeñar en la mitigación de los riesgos emergentes. Sin embargo, las nuevas reglas deben tener en cuenta la innovación de base en modelos abiertos. En este momento, los esfuerzos bien intencionados para regular los modelos corren el riesgo de sofocar el desarrollo abierto. Llevados al extremo, estos marcos pueden limitar el acceso a la tecnología fundamental, cargar a los aficionados con obligaciones corporativas o restringir formalmente el intercambio de ideas y recursos entre los desarrolladores cotidianos. En muchos sentidos, los modelos ya están regulados, gracias a un complejo mosaico de marcos legales que rigen el desarrollo y la implementación de cualquier tecnología. Cuando existen lagunas en la legislación existente (como la ley federal de Estados Unidos que regula los deepfakes abusivos, fraudulentos o políticos), se pueden y se deben cerrar. Sin embargo, las presuntas restricciones al desarrollo de modelos deberían ser la opción de último recurso. Deberíamos regular los riesgos emergentes y al mismo tiempo preservar la cultura de desarrollo abierto que hizo posibles estos avances en primer lugar y que impulsa la transparencia y la competencia en la IA.

Source link