El gobierno del Reino Unido ha dicho que considerará crear “requisitos vinculantes específicos” para empresas seleccionadas que desarrollen sistemas de inteligencia artificial (IA) de alta capacidad, como parte de su tan esperada respuesta a la consulta del documento técnico sobre IA. El gobierno también confirmó que invertirá más de £100 millones en medidas para respaldar su marco regulatorio propuesto para la IA, incluidos varios proyectos relacionados con la seguridad de la IA y una serie de nuevos centros de investigación en todo el Reino Unido. Publicado en marzo de 2023, el documento técnico describe las propuestas “pro-innovación” de los gobiernos para regular la IA, que giran en torno a empoderar a los reguladores existentes para crear reglas adaptadas y específicas al contexto que se adapten a las formas en que se utiliza la tecnología en los sectores que examinan. También describió cinco principios que los reguladores deben considerar para facilitar “el uso seguro e innovador de la IA” en sus industrias y, en general, se basó en el enfoque establecido por el gobierno en su estrategia nacional de IA de septiembre de 2021, que buscaba impulsar la adopción corporativa de la tecnología. , impulsar las capacidades y atraer más inversiones internacionales. En respuesta a la consulta pública, que se desarrolló del 29 de marzo al 21 de junio de 2023 y recibió 406 presentaciones de una variedad de partes interesadas, el gobierno en general reafirmó su compromiso con las propuestas del documento técnico, afirmando que este enfoque de la regulación garantizará que el Reino Unido siga siendo más ágil. que las “naciones competidoras”, al mismo tiempo que lo encamina hacia ser líder en innovación de IA segura y responsable. «La tecnología se está desarrollando rápidamente y los riesgos y las mitigaciones más apropiadas aún no se comprenden completamente», dijo el Departamento de Ciencia, Innovación y Tecnología (DSIT) en un comunicado de prensa. “El gobierno del Reino Unido no se apresurará a legislar ni se arriesgará a implementar reglas de ‘solución rápida’ que pronto quedarían obsoletas o ineficaces. En cambio, el enfoque del gobierno basado en el contexto significa que los reguladores existentes están facultados para abordar los riesgos de la IA de manera específica”. Potencial para requisitos vinculantes Como parte de su respuesta, el gobierno describió su “pensamiento inicial” para requisitos vinculantes en el futuro, que dijo “podrían introducirse para los desarrolladores que construyen los sistemas de inteligencia artificial más avanzados” para garantizar que sigan siendo responsables. «Claramente, si el crecimiento exponencial de las capacidades de IA continúa y si, como creemos que podría ser el caso, las medidas voluntarias se consideran desproporcionadas con el riesgo, los países querrán algunas medidas vinculantes para mantener al público seguro», decía la respuesta formal a la consulta. , y agrega que los sistemas de IA de propósito general “altamente capaces” desafían el enfoque basado en el contexto del gobierno debido a cómo dichos sistemas pueden trascender las competencias regulatorias. «Si bien algunos reguladores demuestran enfoques avanzados para abordar la IA dentro de sus competencias, es posible que muchos de nuestros marcos legales y competencias reguladoras actuales no mitiguen de manera efectiva los riesgos que plantean los sistemas de IA de propósito general altamente capaces». Agregó que, si bien las reglas y leyes existentes se aplican con frecuencia al nivel de implementación o aplicación de la IA, las organizaciones que implementan o utilizan estos sistemas pueden no estar bien posicionadas para identificar, evaluar o mitigar los riesgos que pueden presentar: “Si este es el En este caso, las nuevas responsabilidades para los desarrolladores de modelos de propósito general altamente capaces pueden abordar los riesgos de manera más efectiva”. Sin embargo, el gobierno también dejó claro que no se apresurará a legislar para adoptar medidas vinculantes y que cualquier regulación futura estaría dirigida en última instancia al pequeño número de desarrolladores de los sistemas de propósito general más potentes. «El gobierno consideraría introducir medidas vinculantes si determináramos que las mitigaciones existentes ya no son adecuadas y hubiéramos identificado intervenciones que mitigarían los riesgos de manera específica», dijo. “Al igual que con cualquier decisión de legislar, el gobierno sólo consideraría introducir legislación si no tuviéramos suficiente confianza en que todas las partes relevantes implementarían medidas voluntarias de manera efectiva y si evaluáramos que los riesgos no podrían mitigarse de manera efectiva utilizando los poderes legales existentes”. También se comprometió a realizar revisiones periódicas de posibles lagunas regulatorias de forma continua: «Seguimos comprometidos con el enfoque iterativo establecido en el documento técnico, anticipando que nuestro marco deberá evolucionar a medida que surjan nuevos riesgos o brechas regulatorias». Un análisis de brechas ya realizado por el Instituto Ada Lovelace en julio de 2023 encontró que debido a que “grandes sectores” de la economía del Reino Unido no están regulados o solo están parcialmente regulados, no está claro quién sería responsable de examinar los despliegues de IA en una variedad de diferentes contextos. Esto incluye prácticas de reclutamiento y empleo, que no son monitoreadas exhaustivamente; educación y vigilancia, que son monitoreadas y aplicadas por una red desigual de reguladores; y actividades llevadas a cabo por departamentos del gobierno central que no están directamente regulados. Según la secretaria digital Michelle Donelan, el enfoque del Reino Unido respecto de la regulación de la IA ya ha convertido al país en un líder mundial tanto en seguridad como en desarrollo de la IA. «La IA se está moviendo rápido, pero hemos demostrado que los humanos pueden moverse igual de rápido», dijo. «Al adoptar un enfoque ágil y específico para cada sector, hemos comenzado a asumir los riesgos de inmediato, lo que a su vez está allanando el camino para que el Reino Unido se convierta en uno de los primeros países del mundo en aprovechar los beneficios de la IA de forma segura». Nueva financiación En términos de la nueva financiación anunciada para hacer realidad las ambiciones de su enfoque propuesto, el gobierno ha comprometido casi 90 millones de libras esterlinas para el lanzamiento de nueve nuevos centros de investigación, que están diseñados para ayudar a aprovechar el potencial de la tecnología en campos clave como la atención sanitaria, química y matemáticas. Se invertirán otros 19 millones de libras esterlinas en 21 proyectos de “IA responsable” para ayudar a acelerar su implementación, mientras que se otorgarán 2 millones de libras esterlinas de financiación del Arts & Humanities Research Council (AHRC) a proyectos que busquen definir una IA responsable. El gobierno también comprometió £10 millones para preparar y mejorar las habilidades de los reguladores del Reino Unido, lo que les ayudará a desarrollar “investigación de vanguardia y herramientas prácticas” para monitorear y abordar el uso de la IA en los sectores que regulan. “Muchos reguladores ya han tomado medidas. Por ejemplo, la Oficina del Comisionado de Información ha actualizado sus directrices sobre cómo se aplican nuestras estrictas leyes de protección de datos a los sistemas de inteligencia artificial que procesan datos personales para incluir la equidad y ha seguido exigiendo a las organizaciones que rindan cuentas, por ejemplo mediante la emisión de avisos de cumplimiento”, dijo DSIT. “Sin embargo, el gobierno del Reino Unido quiere aprovechar esto equipándolos aún más para la era de la IA a medida que aumenta el uso de la tecnología. El ágil sistema regulatorio del Reino Unido permitirá simultáneamente a los reguladores responder rápidamente a los riesgos emergentes, al tiempo que brindará a los desarrolladores espacio para innovar y crecer en el Reino Unido”. DSIT agregó que, en un esfuerzo por impulsar la transparencia y brindar confianza tanto a las empresas como a los ciudadanos británicos, se pidió a reguladores clave como Ofcom y la Autoridad de Mercados y Competencia (CMA) que publiquen sus respectivos enfoques para administrar la tecnología antes del 30 de abril de 2024. «Los verá establecer riesgos relacionados con la IA en sus áreas, detallar sus habilidades y experiencia actuales para abordarlos, y un plan sobre cómo regularán la IA durante el próximo año», dijo. La cuestión de los derechos de autor El 4 de febrero de 2024, un día antes de la respuesta a la consulta del documento técnico, el Financial Times informó que el Reino Unido está archivando temporalmente su tan esperado código de conducta sobre el uso de material protegido por derechos de autor en modelos de entrenamiento de IA debido a desacuerdos entre los ejecutivos de la industria sobre cómo debería ser un código de prácticas voluntario. Informó que, si bien las empresas de inteligencia artificial quieren un fácil acceso a grandes cantidades de contenido para sus modelos, a las empresas de industrias creativas les preocupa no recibir una compensación justa por el uso que hacen los modelos de sus materiales protegidos por derechos de autor. En la respuesta a la consulta, el gobierno dijo: “Ahora está claro que el grupo de trabajo [of industry executives] no podremos acordar un código voluntario eficaz”. Añadió que los ministros ahora liderarán un mayor compromiso con las empresas de inteligencia artificial y los titulares de derechos. «Nuestro enfoque deberá estar respaldado por la confianza y la transparencia entre las partes, y una mayor transparencia por parte de los desarrolladores de IA en relación con las entradas de datos y la atribución de resultados tendrá un papel importante que desempeñar», dijo. «Por lo tanto, nuestro trabajo también incluirá la exploración de mecanismos para proporcionar una mayor transparencia para que los titulares de derechos puedan comprender mejor si el contenido que producen se utiliza como insumo en los modelos de IA». Según Greg Clark, presidente del Comité de Ciencia, Innovación y Tecnología (SITC) de la Cámara de los Comunes, que está llevando a cabo una investigación en curso sobre las propuestas de gobernanza del Reino Unido para la IA, las leyes de derechos de autor existentes en el Reino Unido pueden no ser adecuadas para gestionar cómo se gestiona el material protegido por derechos de autor. se utiliza en modelos de entrenamiento de IA. Dijo que esto se debe a que la IA presenta desafíos «particulares» que pueden requerir que se actualicen los poderes existentes, como por ejemplo si es posible rastrear el uso de material protegido por derechos de autor en modelos de IA o qué grado de dilución del material original protegido por derechos de autor es aceptable. «Una cosa es si tomas una pieza musical o un escrito… y lo desempolvas como si fuera tuyo o de otra persona, la jurisprudencia está bien establecida», dijo. “Pero por el momento, según tengo entendido, no hay mucha jurisprudencia contra el uso de música en una nueva composición que cuenta con cientos de miles de colaboradores. Ése es un desafío bastante nuevo”. En un informe publicado el 2 de febrero de 2024, el comité instó posteriormente al gobierno a no “quedarse de brazos cruzados” mientras los desarrolladores de IA generativa explotan el trabajo de los titulares de derechos, y reprendió a las empresas de tecnología por utilizar datos sin permiso ni compensación. En respuesta a una demanda por derechos de autor presentada por editores de música, la empresa de inteligencia artificial generativa Anthropic afirmó en enero de 2024 que el contenido ingerido en sus modelos se considera «uso legítimo» y que «las herramientas de inteligencia artificial de uso general actuales simplemente no podrían existir» si las empresas de inteligencia artificial tuvieran pagar licencias de derechos de autor por el material. Afirmó además que la escala de los conjuntos de datos necesarios para capacitar a los LLM es simplemente demasiado grande para que funcione un régimen de licencias eficaz: «No se podrían realizar transacciones de licencia con suficientes propietarios de derechos para cubrir los miles de millones de textos necesarios para producir los billones de tokens». que los LLM de propósito general requieren para una formación adecuada. Si se necesitaran licencias para capacitar a los LLM en contenido protegido por derechos de autor, las herramientas de inteligencia artificial de uso general actuales simplemente no podrían existir”.

Source link