Google reconoció recientemente que la función de generación de imágenes dentro de su aplicación de inteligencia artificial conversacional, Gemini, produjo algunos resultados inexactos y tal vez incluso ofensivos. La empresa detuvo la función mientras investigaba qué se debía hacer para corregirla. Es fácil reírse de estos errores o ofenderse por su absurdo, y algunas personas incluso llegan a pensar que hay algún tipo de conspiración con trasfondo racial. Android & Chill (Crédito de la imagen: Future) Uno de los programas más antiguos de la web. columnas de tecnología, Android & Chill es su discusión del sábado sobre Android, Google y todo lo relacionado con la tecnología. Esto es posible pero extremadamente improbable. Google está en el negocio de tratar de decirte lo que quieres saber y la compañía no está en el negocio de hacer del mundo un lugar mejor. Su propósito es ganar dinero, y la controversia no ayuda a lograrlo. Entonces, ¿qué salió mal y por qué Géminis falló en sus intentos de producir imágenes realistas de las personas? ¿Demasiado bueno? Bueno, supuse que la gente estaba exagerando con estas cosas, pero aquí está la primera solicitud de imagen que probé con Gemini. pic.twitter.com/Oipcn96wMh21 de febrero de 2024Ver másUno de los principales problemas fue una excesiva adaptación a la inclusión y la diversidad. Google quería combatir posibles sesgos en su modelo de generación de imágenes. Desafortunadamente, la puesta a punto tuvo efectos secundarios no deseados. En lugar de simplemente evitar estereotipos injustos, Géminis a veces parecía insertar diversidad donde no era históricamente exacta ni apropiada para el tema dado. Una solicitud de un «médico de la década de 1940» podría dar lugar a imágenes que muestren médicos de diversas etnias, aunque esa no habría sido una representación precisa durante esa época. Google necesita hacer esto, y no tiene nada que ver con estar «despertado». . Las personas que programan y entrenan modelos de IA no representan a todos. Por ejemplo, Joe de Indiana no tiene mucho en común con Fadhila de Tanzania. Ambos pueden utilizar Google Gemini y ambos esperan resultados inclusivos. Google simplemente fue demasiado lejos en una dirección. En un intento por garantizar la inclusión y evitar sesgos, la generación de imágenes de Gemini se ajustó para priorizar la representación diversa en sus resultados. Sin embargo, esta sintonización fue incorrecta en determinadas situaciones. Cuando los usuarios solicitaban imágenes de personas en contextos específicos, el modelo no siempre generaba imágenes precisas, sino que priorizaba mostrar personas de diversos orígenes, independientemente de su idoneidad para el mensaje específico. Por eso vimos cosas como un George Washington afroamericano o una Papa. La IA es tan inteligente como el software que la impulsa porque en realidad no es inteligente. (Crédito de la imagen: Derrek Lee / Android Central) Hay que reconocer que Google se da cuenta de este error y no ha intentado esquivar el problema. En declaraciones al New York Post, Jack Krawczyk, director senior de gestión de productos de Google para Gemini Experiences, dijo: «Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes mediante IA de Gemini genera una amplia gama de personas. Y eso es generalmente una «Es bueno porque lo usan personas de todo el mundo. Pero aquí no da en el blanco». Además de tener en cuenta la diversidad y la inclusión, el modelo también fue diseñado para ser cauteloso a la hora de evitar contenidos dañinos o replicar estereotipos dañinos. -intencionado, se convirtió en un problema. En algunos casos, Gemini evitaba generar ciertas imágenes por completo, incluso cuando no parecía haber ninguna intención dañina detrás del mensaje. Estas dos cuestiones combinadas condujeron a una situación en la que Gemini a veces producía imágenes extrañas o inexactas, Especialmente cuando se trata de representar personas. La IA generativa es muy diferente a la IA que impulsa muchos de los otros productos de Google que tienes instalados en tu teléfono y requiere más atención. El camino a seguir (Crédito de la imagen: Google) Google ha reconocido estos problemas y la necesidad de equilibrar la inclusión con la precisión histórica y contextual. Es un desafío difícil para los modelos de IA generativa. Si bien prevenir el refuerzo de estereotipos dañinos es un objetivo noble, no debería realizarse a expensas de que el modelo simplemente haga lo que se le pide que haga. Encontrar ese equilibrio es crucial para el éxito futuro de los modelos de IA de generación de imágenes. Google, junto con otras empresas que trabajan en este espacio, necesitarán perfeccionar sus modelos cuidadosamente para lograr resultados inclusivos y la capacidad de cumplir con precisión una gama más amplia de indicaciones de los usuarios. Es importante recordar que estas son las primeras etapas de este tipo de tecnología. . Si bien son decepcionantes, estos contratiempos son una parte esencial del proceso de aprendizaje que, en última instancia, conducirá a una IA generativa más capaz y confiable. Los modelos de IA generativa requieren ajustes para lograr el equilibrio entre inclusión y precisión. Al intentar abordar posibles sesgos, los modelos pueden volverse demasiado cautelosos y producir resultados incompletos o engañosos: el desarrollo de una IA de generación de imágenes más sólida es un desafío continuo. En lo que Google se equivocó fue en no explicar lo que sucedió de una manera que la gente normal pudiera entender. . Saber cómo se entrenan los modelos de IA no es algo que interese a muchas personas, y comprender por qué se hace de cierta manera es importante en este contexto. Google podría haber escrito este artículo en uno de sus muchos blogs y evitar gran parte de la controversia sobre que Géminis es malo en algo.


Source link