OpenAI, el fabricante de ChatGPT, ha dicho que introducirá herramientas para combatir la desinformación antes de las docenas de elecciones de este año en países que albergan a la mitad de la población mundial. El éxito explosivo del generador de texto ChatGPT impulsó una revolución global de la inteligencia artificial, pero también generó advertencias de que tales herramientas podrían inundar Internet con desinformación e influir en los votantes. Con elecciones programadas para este año en países como Estados Unidos, India y Gran Bretaña, OpenAI dijo el lunes que no permitirá que su tecnología, incluidos ChatGPT y el generador de imágenes DALL-E 3, se utilice para campañas políticas. «Queremos asegurarnos de que nuestra tecnología no se utilice de una manera que pueda socavar» el proceso democrático, dijo OpenAI en una publicación de blog. «Todavía estamos trabajando para comprender cuán efectivas podrían ser nuestras herramientas para la persuasión personalizada», agregó. «Hasta que sepamos más, no permitimos que la gente cree aplicaciones para campañas políticas y lobby». La desinformación y la información errónea impulsadas por la IA son los mayores riesgos globales a corto plazo y podrían socavar a los gobiernos recién elegidos en las principales economías, advirtió el Foro Económico Mundial en un informe publicado la semana pasada. Los temores sobre la desinformación electoral comenzaron hace años, pero la disponibilidad pública de potentes generadores de texto e imágenes de IA ha aumentado la amenaza, dicen los expertos, especialmente si los usuarios no pueden saber fácilmente si el contenido que ven es falso o está manipulado. OpenAI dijo el lunes que estaba trabajando en herramientas que asignarían una atribución confiable al texto generado por ChatGPT y también brindarían a los usuarios la capacidad de detectar si una imagen fue creada usando DALL-E 3. «A principios de este año, implementaremos la Coalición para el Contenido Credenciales digitales de Procedencia y Autenticidad: un enfoque que codifica detalles sobre la procedencia del contenido utilizando criptografía», dijo la compañía. La coalición, también conocida como C2PA, tiene como objetivo mejorar los métodos para identificar y rastrear contenido digital. Entre sus miembros se incluyen Microsoft, Sony, Adobe y las empresas japonesas de imágenes Nikon y Canon. OpenAI dijo que ChatGPT, cuando se le hagan preguntas de procedimiento sobre las elecciones estadounidenses, como dónde votar, dirigirá a los usuarios a sitios web autorizados. «Las lecciones de este trabajo informarán nuestro enfoque en otros países y regiones», dijo la compañía. Añadió que DALL-E 3 tiene «barandillas» que impiden a los usuarios generar imágenes de personas reales, incluidos los candidatos. El anuncio de OpenAI sigue las medidas reveladas el año pasado por los gigantes tecnológicos estadounidenses Google y Meta, matriz de Facebook, para limitar la interferencia electoral, especialmente mediante el uso de IA. La AFP ya ha desmentido los deepfakes (vídeos manipulados) del presidente estadounidense Joe Biden anunciando un reclutamiento militar y de la exsecretaria de Estado Hillary Clinton apoyando al gobernador de Florida, Ron DeSantis, para la presidencia. Imágenes y audios manipulados de políticos circularon en las redes sociales antes de las elecciones presidenciales de este mes en Taiwán, según constató AFP Fact Check. Si bien gran parte de este contenido es de baja calidad y no está claro de inmediato si se creó con aplicaciones de inteligencia artificial, los expertos dicen que la desinformación está alimentando una crisis de confianza en las instituciones políticas. © 2024 AFP

Source link