Meta dijo el martes que está trabajando con otras empresas de tecnología en estándares que le permitirán detectar y etiquetar mejor las imágenes generadas por inteligencia artificial compartidas con sus miles de millones de usuarios. El titán de las redes sociales de Silicon Valley espera tener un sistema implementado en cuestión de meses para identificar y etiquetar imágenes creadas por IA publicadas en sus plataformas Facebook, Instagram y Threads. Meta y otras plataformas están bajo presión para controlar el contenido generado por IA por temor a que los malos actores aumenten la desinformación, y este año se celebrarán elecciones en países que representan la mitad de la población mundial. «No es perfecto, no va a cubrir todo; la tecnología no está completamente madura», dijo a la AFP el director de asuntos globales de Meta, Nick Clegg. Si bien Meta ha implementado etiquetas visibles e invisibles en imágenes creadas con sus propias herramientas de inteligencia artificial desde diciembre, también quiere trabajar con otras compañías «para maximizar la transparencia que tienen los usuarios», agregó Clegg. «Es por eso que hemos estado trabajando con socios de la industria para alinearnos con estándares técnicos comunes que indiquen cuándo se ha creado un contenido utilizando IA», dijo la compañía en una publicación de blog. Esto se hará con empresas con las que Meta ya trabaja en estándares de IA, incluidas OpenAI, Google, Microsoft, Midjourney y otras empresas involucradas en la feroz carrera por liderar el sector naciente, dijo Clegg. Pero si bien las empresas han comenzado a incluir «señales» en imágenes creadas con sus herramientas de inteligencia artificial, la industria ha tardado más en comenzar a incluir dichos marcadores de identificación en audio o video creados con inteligencia artificial, según Clegg. Clegg admite que este etiquetado a gran escala, utilizando marcadores invisibles, «no eliminará totalmente» el riesgo de que se produzcan imágenes falsas, pero sostiene que «ciertamente minimizaría» su proliferación «dentro de los límites de lo que permite la tecnología actualmente». Mientras tanto, Meta aconsejó a las personas que observen críticamente el contenido en línea, verificando si las cuentas que lo publican son confiables y buscando detalles que parezcan o suenen poco naturales. Los políticos y las mujeres han sido los principales objetivos de las llamadas imágenes «deepfake», y los desnudos de la cantante superestrella Taylor Swift creados por IA se volvieron virales recientemente en X, anteriormente Twitter. El auge de la IA generativa ha generado temores de que la gente pueda utilizar ChatGPT y otras plataformas para sembrar el caos político mediante desinformación o clones de IA. OpenAI anunció el mes pasado que «prohibiría cualquier uso de nuestra plataforma por parte de organizaciones políticas o individuos». Meta ya pide que los anunciantes revelen cuándo se utiliza la IA para crear o alterar imágenes o audio en anuncios políticos. La Junta de Supervisión de la compañía, que revisa de forma independiente las decisiones de moderación de contenido, advirtió el lunes que la política de Meta sobre contenido deepfake necesita una actualización urgente. La advertencia estuvo en una decisión sobre un video manipulado del presidente estadounidense Joe Biden que no fue creado con IA. La Junta dijo que la política de Meta en su forma actual era «incoherente, carecía de justificación persuasiva y se centraba inapropiadamente en cómo se había creado el contenido». © 2024 AFP

Source link