Únase a los líderes en Boston el 27 de marzo para una noche exclusiva de networking, conocimientos y conversaciones. Solicite una invitación aquí. El popular servicio de generación de imágenes de IA Midjourney ha implementado una de sus características más solicitadas: la capacidad de recrear personajes de manera consistente en nuevas imágenes. Este ha sido un gran obstáculo para los generadores de imágenes de IA hasta la fecha, por su propia naturaleza. Esto se debe a que la mayoría de los generadores de imágenes de IA se basan en «modelos de difusión», herramientas similares o basadas en el algoritmo de generación de imágenes de código abierto Stable Diffusion de Stability AI, que funcionan de manera aproximada tomando texto ingresado por un usuario e intentando reconstruir una imagen píxel por -píxel que coincide con esa descripción, como se desprende de imágenes y etiquetas de texto similares en su conjunto de datos de entrenamiento masivo (y controvertido) de millones de imágenes creadas por humanos. ¿Por qué los caracteres consistentes son tan poderosos (y esquivos) para las imágenes de IA generativa? Sin embargo, como es el caso de los modelos de lenguaje grande (LLM) basados ​​en texto, como ChatGPT de OpenAI o el nuevo Command-R de Cohere, el problema con todas las aplicaciones de IA generativa está en su inconsistencia de respuestas: la IA genera algo nuevo para cada mensaje ingresado, incluso si el mensaje se repite o se usan algunas de las mismas palabras clave. Evento VB The AI ​​Impact Tour – Boston Estamos emocionados por la próxima parada del AI Impact Tour en Boston el 27 de marzo. Este evento exclusivo al que solo se puede acceder por invitación, en asociación con Microsoft, incluirá debates sobre las mejores prácticas para la integridad de los datos en 2024 y más allá. El espacio es limitado, así que solicite una invitación hoy. Solicitar una invitación Esto es fantástico para generar contenidos completamente nuevos (en el caso de Midjourney, imágenes). Pero, ¿qué pasa si estás escribiendo el guión gráfico de una película, una novela, una novela gráfica o un cómic, o algún otro medio visual en el que quieres que el mismo personaje o personajes se muevan a través de él y aparezcan en diferentes escenas, escenarios, con diferentes expresiones faciales y ¿accesorios? Este escenario exacto, que suele ser necesario para la continuidad narrativa, ha sido muy difícil de lograr con la IA generativa, hasta ahora. Pero Midjourney ahora está intentando hacerlo, introduciendo una nueva etiqueta, “–cref” (abreviatura de “referencia de personaje”) que los usuarios pueden agregar al final de sus indicaciones de texto en Midjourney Discord e intentarán coincidir con la cara del personaje. características, tipo de cuerpo e incluso ropa a partir de una URL que el usuario pega siguiendo dicha etiqueta. A medida que la función avanza y se perfecciona, Midjourney podría pasar de ser un juguete genial o una fuente de ideas a convertirse en una herramienta más profesional. Cómo utilizar la nueva función de caracteres consistentes de Midjourney. La etiqueta funciona mejor con imágenes de Midjourney generadas previamente. Entonces, por ejemplo, el flujo de trabajo para un usuario sería generar o recuperar primero la URL de un carácter generado previamente. Comencemos desde cero y digamos que estamos generando un nuevo personaje con este mensaje: «un hombre calvo y musculoso con una cuenta y un parche en el ojo». Mejoraremos la imagen que más nos guste y luego presionaremos la tecla Control y haga clic en ella en el servidor de Midjourney Discord para encontrar la opción «copiar enlace». Luego, podemos escribir un nuevo mensaje en “usar un esmoquin blanco en una villa –cref [URL]” y pegue la URL de la imagen que acabamos de generar, y Midjourney intentará generar el mismo carácter de antes en nuestra configuración recién escrita. Como verá, los resultados están lejos de ser exactos al carácter original (o incluso a nuestro mensaje original), pero definitivamente son alentadores. Además, el usuario puede controlar hasta cierto punto el «peso» de qué tan fielmente la nueva imagen reproduce el carácter original aplicando la etiqueta «-cw» seguida de un número del 1 al 100 al final de su nuevo mensaje (después del » –cref [URL]”cadena, así: “–cref [URL] –cw 100.” Cuanto menor sea el número «cw», más variación tendrá la imagen resultante. Cuanto mayor sea el número “cw”, más estrechamente seguirá la nueva imagen resultante a la referencia original. Como puede ver en nuestro ejemplo, al ingresar un “cw 8” muy bajo, en realidad se obtiene lo que queríamos: el esmoquin blanco. Aunque ahora se ha eliminado el parche distintivo de nuestro personaje. Bueno, nada que una pequeña “variación de región” no pueda solucionar, ¿verdad? Ok, entonces el parche está en el ojo equivocado… ¡pero ya estamos llegando! También puede combinar varios caracteres en uno usando dos etiquetas “–cref” una al lado de la otra con sus respectivas URL. La función se lanzó esta tarde, pero los artistas y creadores ya la están probando. Pruébelo usted mismo si tiene Midjourney. Y lea la nota completa del fundador David Holz a continuación: Hola @todos @aquí estamos probando una nueva característica de “Referencia de personaje” hoy. Esto es similar a la característica “Referencia de estilo”, excepto que en lugar de coincidir con un estilo de referencia, intenta crear el personaje coincide con una imagen de “Referencia de personaje”. Cómo funciona Escriba –cref URL después del mensaje con una URL a una imagen de un personaje. Puede usar –cw para modificar la ‘fuerza’ de referencia de 100 a 0. La fuerza 100 (–cw 100) es la predeterminada y usa la cara. , cabello y ropa Con fuerza 0 (–cw 0) solo se enfocará en la cara (bueno para cambiarse de ropa/pelo, etc.) Para qué sirve Esta función funciona mejor cuando se usan personajes creados a partir de imágenes de Midjourney. No está diseñado para personas/fotos reales (y probablemente las distorsionará como lo hacen las indicaciones de imágenes normales). Cref funciona de manera similar a las indicaciones de imágenes normales, excepto que se «centra» en los rasgos de los personajes. La precisión de esta técnica es limitada, no copiará exactamente hoyuelos / pecas / o logotipos de camisetas. Cref funciona tanto para Niji como para los modelos MJ normales y también se puede combinar con –sref Funciones avanzadas Puede usar más de una URL para combinar la información/caracteres de múltiples imágenes como esta –cref URL1 URL2 (esto es similar a múltiples imágenes o indicaciones de estilo) ¿Cómo funciona en la web alfa? Arrastre o pegue una imagen en la barra de imaginación; ahora tiene tres íconos. seleccionando estos conjuntos ya sea una imagen, una referencia de estilo o una referencia de personaje. Mayús+seleccione una opción para usar una imagen para múltiples categorías Recuerde, mientras MJ V6 está en alfa, esta y otras características pueden cambiar repentinamente, pero la versión beta oficial de V6 llegará pronto. Nos encantaría conocer la opinión de todos sobre ideas y características. Esperamos que disfrutes de esta versión temprana y que te ayude a jugar con la construcción de historias y mundos. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas obtengan conocimientos sobre la transformación. tecnología empresarial y transacciones. Descubra nuestros Briefings.

Source link