Meta introdujo un modelo básico capaz de crear vídeos de apariencia realista, rivalizando con Sora de OpenAI y Veo de Google en la emergente competencia de vídeos de IA generativa. El 4 de octubre se revelaron dos nuevos modelos: el Movie Gen Video con parámetro 30B. El parámetro 13B Movie Gen Audio. Ambos están basados ​​en el modelo Llama 3 de Meta. El gigante tecnológico espera incorporar Movie Gen en Instagram en 2025. ¿Qué es la familia de modelos Movie Gen? Los modelos Movie Gen son IA generativa de texto a video o de texto a audio. Meta afirma que Movie Gen puede crear videos de hasta 16 segundos de duración. En comparación, Sora de OpenAI, actualmente no disponible para el público, puede generar vídeos de un minuto con múltiples escenas. Veo, que está disponible para creadores selectos, puede crear videos de aproximadamente un minuto de duración. Movie Gen se controla mediante lenguaje natural. Esto significa que los usuarios pueden describir la escena que quieren ver, incluidos elementos individuales y el tono general. También pueden cambiar elementos de vídeo basándose en indicaciones de texto en lenguaje natural, como agregar o eliminar partes de una escena. Imagen fija de un vídeo creado con Movie Gen. El resumen del mensaje era “Una niña corre por una playa sosteniendo una cometa. Lleva pantalones cortos de mezclilla y una camiseta amarilla. El sol está brillando”. Imagen: Meta El aspecto de personalización fue posible mediante “procedimientos posteriores a la capacitación”, dijo Meta. Estos procedimientos enfocaron la IA de manera que «mantenga la identidad de la persona mientras sigue el mensaje de texto». Esto permite a los usuarios ubicarse a sí mismos (o a otra persona) en una escena personalizada. Se pueden utilizar indicaciones en lenguaje natural para editar videos. Imagen: El producto de Meta Meta parece estar dirigido principalmente a creadores de contenido en la presentación inicial del producto. El objetivo es «ayudar a las personas a expresarse de nuevas maneras y brindar oportunidades a personas que de otro modo no las tendrían», afirmó Meta en una publicación de blog. VER: La transformación digital a veces puede parecer un disparo al azar en la oscuridad, pero hay maneras de ayudar a que los proyectos tengan éxito. Luces, acción y sonido Movie Gen Audio puede crear música o efectos de sonido para vídeos de «hasta varios minutos de duración», según el artículo de investigación de Meta. La música se genera a 48 kHz y puede coincidir con las imágenes que se ven en la pantalla o servir como banda sonora. Una imagen fija de la demostración de Meta de Movie Gen Audio que crea tanto una banda sonora como un sonido diegético. Imagen: Meta Más cobertura de IA de lectura obligada Meta apunta a Llama 3 para abordar las preocupaciones de seguridad y deepfake Para las empresas, la generación rápida de videos creados por IA podría reducir significativamente el tiempo necesario para producir contenido interno y externo. Por otro lado, el uso de contenido generado por IA, especialmente sin atribución, puede crear confusión entre las audiencias y reducir la confianza, como lo demuestra un informe reciente del Journal of Hospitality Marketing and Management. Quizás en un esfuerzo por abordar los problemas de confianza, Meta agregó una marca de agua a las imágenes de Video Gen. Un gráfico transparente «brillante» que a menudo se usa para indicar la IA se encuentra en la esquina inferior izquierda de los videos. La seguridad y el uso de IA generativa para crear contenido perturbador, dañino o engañoso son preocupaciones, especialmente en casos de uso empresarial en los que la reputación de la empresa podría estar en juego. En el anuncio de Movie Gen, Meta se vinculó a un informe de septiembre sobre la protección de sus modelos de IA, incluida la familia Llama 3. El informe detalla cómo el modelo contiene salvaguardias contra contenido inapropiado y que las imágenes incluirán marcas de agua visibles e invisibles.