Para los asistentes al festival tecnológico que marca tendencias aquí, el escándalo que estalló después de que el chatbot Gemini de Google generara imágenes de soldados nazis negros y asiáticos fue visto como una advertencia sobre el poder que la inteligencia artificial puede otorgar a los titanes de la tecnología. El mes pasado, el director ejecutivo de Google, Sundar Pichai, criticó como «completamente inaceptables» los errores de la aplicación Gemini AI de su compañía, después de que errores como las imágenes de tropas nazis étnicamente diversas la obligaron a impedir temporalmente que los usuarios crearan imágenes de personas. Los usuarios de las redes sociales se burlaron y criticaron a Google por las imágenes históricamente inexactas, como las que muestran a una senadora estadounidense negra del siglo XIX, cuando el primer senador de ese tipo no fue elegido hasta 1992. «Definitivamente cometimos un error en la generación de imágenes», dijo Google. -dijo el fundador Sergey Brin en un reciente «hackathon» de IA, y agregó que la compañía debería haber probado Gemini más a fondo. Personas entrevistadas en el popular festival de arte y tecnología South by Southwest en Austin dijeron que el tropiezo de Géminis pone de relieve el poder desmesurado que tienen un puñado de empresas sobre las plataformas de inteligencia artificial que están preparadas para cambiar la forma en que la gente vive y trabaja. «Esencialmente, era demasiado ‘despertar'», dijo Joshua Weaver, abogado y empresario tecnológico, lo que significa que Google se había excedido en su esfuerzo por proyectar inclusión y diversidad. Google corrigió rápidamente sus errores, pero el problema subyacente persiste, dijo Charlie Burgoyne, director ejecutivo del laboratorio de ciencias aplicadas Valkyrie en Texas. Él comparó la solución de Géminis de Google con poner una curita en una herida de bala. Si bien Google tuvo durante mucho tiempo el lujo de tener tiempo para perfeccionar sus productos, ahora está luchando en una carrera de IA con Microsoft, OpenAI, Anthropic y otros, señaló Weaver, y agregó: «Se están moviendo más rápido de lo que saben». Los errores cometidos en un esfuerzo de sensibilidad cultural son puntos álgidos, particularmente dadas las tensas divisiones políticas en Estados Unidos, una situación exacerbada por la plataforma X de Elon Musk, la antigua Twitter. «La gente en Twitter está muy contenta de celebrar cualquier cosa vergonzosa que suceda en la tecnología», dijo Weaver, añadiendo que la reacción a la metedura de pata nazi fue «exagerada». Sin embargo, el percance puso en duda el grado de control que tienen sobre la información quienes utilizan herramientas de inteligencia artificial, sostuvo. En la próxima década, la cantidad de información (o desinformación) creada por la IA podría eclipsar la generada por las personas, lo que significa que quienes controlen las salvaguardas de la IA tendrán una enorme influencia en el mundo, dijo Weaver. Karen Palmer, una galardonada creadora de realidad mixta de Interactive Films Ltd., dijo que podría imaginar un futuro en el que alguien se suba a un robo-taxi y «si la IA te escanea y piensa que hay violaciones pendientes en tu contra, … lo llevarán a la estación de policía local», no a su destino previsto. La IA se entrena con montañas de datos y puede utilizarse en una gama cada vez mayor de tareas, desde la generación de imágenes o audio hasta determinar quién obtiene un préstamo o si un escaneo médico detecta cáncer. Pero esos datos provienen de un mundo plagado de prejuicios culturales, desinformación e inequidad social (sin mencionar el contenido en línea que puede incluir charlas casuales entre amigos o publicaciones intencionalmente exageradas y provocativas) y los modelos de inteligencia artificial pueden hacerse eco de esos defectos. Con Gemini, los ingenieros de Google intentaron reequilibrar los algoritmos para proporcionar resultados que reflejaran mejor la diversidad humana. El esfuerzo fracasó. «Puede ser realmente complicado, matizado y sutil descubrir dónde está el sesgo y cómo se incluye», dijo el abogado de tecnología Alex Shahrestani, socio gerente del bufete de abogados Promise Legal para empresas de tecnología. Él y otros creen que incluso los ingenieros bien intencionados involucrados en el entrenamiento de la IA no pueden evitar aportar su propia experiencia de vida y prejuicios subconscientes al proceso. Burgoyne, de Valkyrie, también criticó a las grandes empresas tecnológicas por mantener el funcionamiento interno de la IA generativa oculto en «cajas negras», de modo que los usuarios no pueden detectar ningún sesgo oculto. «Las capacidades de los resultados han excedido con creces nuestra comprensión de la metodología», dijo. Expertos y activistas piden más diversidad en los equipos que crean IA y herramientas relacionadas, y una mayor transparencia en cuanto a cómo funcionan, particularmente cuando los algoritmos reescriben las solicitudes de los usuarios para «mejorar» los resultados. Un desafío es cómo incorporar adecuadamente las perspectivas de las muchas y diversas comunidades del mundo, dijo aquí Jason Lewis del Centro de Recursos para Futuros Indígenas y grupos relacionados. En Indigenous AI, Jason trabaja con comunidades indígenas remotas para diseñar algoritmos que utilicen sus datos de manera ética y al mismo tiempo reflejen sus perspectivas sobre el mundo, algo que no siempre ve en la «arrogancia» de los grandes líderes tecnológicos. Su propio trabajo, le dijo a un grupo, contrasta mucho con la retórica de Silicon Valley, donde hay una tontería de arriba hacia abajo: ‘Oh, estamos haciendo esto porque vamos a beneficiar a toda la humanidad’, ¿verdad? Su audiencia se rió. © 2024 AFP

Source link