Una junta de supervisión está criticando las políticas del propietario de Facebook, Meta, con respecto a los medios manipulados, calificándolas de «incoherentes» e insuficientes para abordar la avalancha de desinformación en línea que ya ha comenzado a afectar las elecciones en todo el mundo este año. La junta casi independiente dijo el lunes que su revisión de una Un video alterado del presidente Joe Biden que se difundió en Facebook expuso lagunas en la política. La junta dijo que Meta debería ampliar la política para centrarse no solo en videos generados con inteligencia artificial, sino también en los medios, independientemente de cómo se hayan creado. Eso incluye grabaciones de audio falsas. , que ya se han hecho pasar por candidatos políticos de manera convincente en EE.UU. y otros lugares. La compañía también debería aclarar los daños que está tratando de prevenir y debería etiquetar imágenes, videos y clips de audio como manipulados en lugar de eliminar las publicaciones por completo, dijo la Junta de Supervisión Meta. Los comentarios de la junta reflejan el intenso escrutinio que enfrentan muchas empresas de tecnología por su manejo de las falsedades electorales en un año en el que los votantes de más de 50 países acudirán a las urnas. Mientras tanto los deepfakes de inteligencia artificial generativa como las “falsificaciones baratas” de menor calidad en las redes sociales amenazan con engañar a los votantes, las plataformas están tratando de ponerse al día y responder a publicaciones falsas mientras protegen los derechos de los usuarios a la libertad de expresión. «Tal como está, la política tiene poco sentido», dijo el lunes el copresidente de la Junta de Supervisión, Michael McConnell, sobre la política de Meta en un comunicado. Dijo que la compañía debería cerrar las brechas en la política y al mismo tiempo garantizar que el discurso político esté «protegido inquebrantablemente». Meta dijo que está revisando la guía de la Junta de Supervisión y responderá públicamente a las recomendaciones dentro de 60 días. El portavoz Corey Chambliss dijo que si bien los deepfakes de audio no se mencionan en la política de medios manipulados de la compañía, son elegibles para ser verificados y serán etiquetados o degradados si los verificadores los califican como falsos o alterados. La compañía también toma medidas contra cualquier tipo de contenido si viola los Estándares Comunitarios de Facebook, dijo. Facebook, que cumplió 20 años esta semana, sigue siendo el sitio de redes sociales más popular para que los estadounidenses obtengan noticias, según Pew. Pero otros sitios de redes sociales, entre ellos Instagram, WhatsApp y Threads de Meta, así como X, YouTube y TikTok, también son centros potenciales donde los medios engañosos pueden difundirse y engañar a los votantes. Meta creó su junta de supervisión en 2020 para servir como árbitro del contenido de sus plataformas. Sus recomendaciones actuales se producen después de que revisó un clip alterado del presidente Biden y su nieta adulta que era engañoso pero que no violaba las políticas específicas de la compañía. Las imágenes originales mostraban a Biden colocando una pegatina que decía “Yo voté” en lo alto del pecho de su nieta, siguiendo sus instrucciones, y luego besándola en la mejilla. La versión que apareció en Facebook fue modificada para eliminar el contexto importante, haciendo que pareciera que la tocó de manera inapropiada. El fallo de la junta del lunes confirmó la decisión de Meta de 2023 de dejar el clip de siete segundos en Facebook, ya que no violaba la política de medios manipulados existente de la compañía. La política actual de Meta dice que eliminará los videos creados con herramientas de inteligencia artificial que tergiversan el discurso de alguien. «Dado que el vídeo de esta publicación no fue alterado utilizando IA y muestra al presidente Biden haciendo algo que no hizo (no algo que no dijo), no viola la política existente», decía el fallo. La junta recomendó a la empresa que actualizara la política y etiquetara vídeos similares como manipulados en el futuro. Argumentó que para proteger los derechos de los usuarios a la libertad de expresión, Meta debería etiquetar el contenido como manipulado en lugar de eliminarlo de la plataforma si no viola ninguna otra política. La junta también señaló que algunas formas de medios manipulados están hechos con fines de humor, parodia o sátira y deben protegerse. En lugar de centrarse en cómo se creó una imagen, vídeo o clip de audio distorsionado, la política de la empresa debería centrarse en el daño que pueden causar las publicaciones manipuladas, como la interrupción del proceso electoral, según el fallo. Meta dijo en su sitio web que acoge con agrado el fallo de la Junta de Supervisión sobre la publicación de Biden y que actualizará la publicación después de revisar las recomendaciones de la junta. Meta debe prestar atención a las decisiones de la Junta de Supervisión sobre decisiones de contenido específicas, aunque no tiene la obligación de seguir las recomendaciones más amplias de la junta. Aún así, la junta ha logrado que la compañía realice algunos cambios a lo largo de los años, incluido hacer que los mensajes a los usuarios que violan sus políticas sean más específicos para explicarles qué hicieron mal. Jen Golbeck, profesora de la Facultad de Estudios de la Información de la Universidad de Maryland, dijo que Meta es lo suficientemente grande como para ser líder en el etiquetado de contenido manipulado, pero el seguimiento es tan importante como cambiar la política. “¿Implementarán esos cambios y luego los harán cumplir frente a la presión política de la gente que quiere hacer cosas malas? Esa es la verdadera pregunta”, dijo. «Si hacen esos cambios y no los aplican, de alguna manera contribuye aún más a la destrucción de la confianza que viene con la desinformación». La periodista de tecnología de Associated Press Barbara Ortutay en San Francisco contribuyó a este informe. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link