Un nuevo y potente modelo de inteligencia artificial para generar videos se ha vuelto ampliamente disponible hoy, pero hay un problema: el modelo parece estar censurando temas que el gobierno de su país de origen, China, considera demasiado sensibles políticamente. El modelo, Kling, desarrollado por la empresa Kuaishou, con sede en Pekín, se lanzó en acceso en lista de espera a principios de año para usuarios con un número de teléfono chino. Hoy, se implementó para cualquiera que esté dispuesto a proporcionar su correo electrónico. Después de registrarse, los usuarios pueden ingresar indicaciones para que el modelo genere videos de cinco segundos de lo que han descrito. Kling funciona prácticamente como se anuncia. Sus videos de 720p, que tardan uno o dos minutos en generarse, no se desvían demasiado de las indicaciones. Y Kling parece simular la física, como el susurro de las hojas y el agua que fluye, casi tan bien como los modelos de generación de videos como Gen-3 de la startup de inteligencia artificial Runway y Sora de OpenAI. Pero Kling directamente no genera clips sobre ciertos temas. Mensajes como «Democracia en China», «El presidente chino Xi Jinping caminando por la calle» y «Protestas en la Plaza de Tiananmen» arrojan un mensaje de error no específico. Créditos de imagen: Kuaishou El filtrado parece estar ocurriendo solo en el nivel de mensaje. Kling admite la animación de imágenes fijas y generará sin quejarse un video de un retrato de Jinping, por ejemplo, siempre que el mensaje que lo acompaña no mencione a Jinping por su nombre (por ejemplo, «Este hombre dando un discurso»). Nos comunicamos con Kuaishou para obtener comentarios. Créditos de imagen: Kuaishou El curioso comportamiento de Kling es probablemente el resultado de la intensa presión política del gobierno chino sobre los proyectos de IA generativa en la región. A principios de este mes, el Financial Times informó que los modelos de IA en China serán probados por el principal regulador de Internet de China, la Administración del Ciberespacio de China (CAC), para garantizar que sus respuestas sobre temas sensibles «incorporen valores socialistas fundamentales». Según el informe del Financial Times, los funcionarios de la CAC deben evaluar los modelos en función de sus respuestas a una variedad de consultas, muchas de ellas relacionadas con Jinping y las críticas al Partido Comunista. Según se informa, la CAC ha llegado al extremo de proponer una lista negra de fuentes que no se pueden utilizar para entrenar modelos de IA. Las empresas que envían modelos para su revisión deben preparar decenas de miles de preguntas diseñadas para comprobar si los modelos producen respuestas «seguras». El resultado son sistemas de IA que se niegan a responder sobre temas que podrían provocar la ira de los reguladores chinos. El año pasado, la BBC descubrió que Ernie, el modelo insignia de chatbot de IA de la empresa china Baidu, se mostraba reacio y desviaba la atención cuando se le hacían preguntas que podrían percibirse como políticamente controvertidas, como «¿Es Xinjiang un buen lugar?» o «¿Es el Tíbet un buen lugar?». Las políticas draconianas amenazan con frenar los avances de la IA de China. No solo exigen analizar datos para eliminar información políticamente sensible, sino que también exigen invertir una enorme cantidad de tiempo de desarrollo en la creación de barreras ideológicas, barreras que aún podrían fallar, como ejemplifica Kling. Desde la perspectiva del usuario, las regulaciones de inteligencia artificial de China ya están dando lugar a dos clases de modelos: algunos paralizados por un filtrado intensivo y otros decididamente menos paralizados. ¿Es eso realmente algo bueno para el ecosistema de inteligencia artificial en general?