Microsoft y Meta tienen iniciativas muy diferentes para combatir la desinformación en 2024, que será un año electoral muy ocupado en todo el mundo, pero si serán efectivas es otra cuestión. Por su parte, Microsoft anunció una estrategia de protección electoral de cinco pasos que implementará en los próximos meses «en Estados Unidos y otros países donde se llevarán a cabo elecciones críticas en 2024», dijeron el presidente de Microsoft, Brad Smith, y el vicepresidente de tecnología para los derechos fundamentales. Teresa Hutson dijo en una publicación de blog. Más de 40 países celebrarán elecciones nacionales en 2024. La primera iniciativa de Microsoft es el servicio Content Credentials, donde Redmond implementará metadatos de marcas de agua digitales para imágenes y videos según lo diseñado por la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), de la cual Microsoft es un miembro. «Los usuarios pueden adjuntar credenciales de contenido a sus imágenes o vídeos para mostrar cómo, cuándo y quién fue creado o editado el contenido, incluso si fue generado por IA», dijo Microsoft. Las credenciales de contenido permitirán a las campañas «afirmar que una imagen o video proviene de ellos y, al mismo tiempo, proteger contra la manipulación al mostrar si el contenido fue alterado después de que se crearon sus credenciales». La función estará disponible como vista previa privada en la primavera (hemisferio norte) de 2024 e inicialmente solo estará disponible para campañas políticas. Como señaló The Reg anteriormente, la tecnología de marca de agua Content Credentials de Microsoft, que creó con Adobe y otras organizaciones en el C2PA, depende en gran medida de si las aplicaciones que muestran contenido marcado pueden procesar los metadatos que lo etiquetan como tal. Chrome no lo reconoce, por lo que el símbolo «cr» que marca una imagen no aparecerá en absoluto en el navegador web más popular del mundo. Además, no hay nada que impida que la gente mala elimine los metadatos, que Adobe nos dijo que se pueden recuperar fácilmente a través de su Nube de Credenciales de Contenido, suponiendo que el editor que aloja el contenido manipulado esté conectado a dicha nube, por supuesto. Las credenciales de contenido están diseñadas para proteger las campañas contra el uso indebido de sus medios, pero Microsoft no mencionó cómo podría controlar la difusión de información errónea maliciosa a través de sus servicios, incluido LinkedIn, que ha tenido problemas con la falsificación generada por IA en los últimos años. Hemos pedido claridad a la empresa. Además de brindar a las campañas la capacidad de poner marcas de agua en sus medios, Microsoft también ha formado un «Equipo de éxito de campañas» que asesorará a las campañas políticas sobre cómo «navegar por el mundo de la IA, combatir [and] campañas de influencia cibernética.» El fabricante de Windows también planea crear un Centro de Comunicaciones Electorales donde los equipos de seguridad estarán disponibles para las autoridades electorales, y planea asociarse con organizaciones que etiquetan fuentes de noticias como autorizadas para garantizar «[Bing] Las consultas sobre la administración electoral aparecerán en sitios de buena reputación». Además, Microsoft planea «usar nuestra voz como empresa para apoyar cambios legislativos y legales que aumentarán la protección de las campañas y los procesos electorales contra los deepfakes y otros usos nocivos de las nuevas tecnologías». Está empezando por apoyar la bipartidista «Ley para proteger las elecciones contra la IA engañosa» presentada en el Senado de los EE. UU. en septiembre, que no se ha movido desde que fue asignada al comité. Meta tritura la desinformación para las masas, tal vez Microsoft no dijo si Las credenciales de contenido serían requeridas para las campañas políticas, y no mencionaban la vigilancia de los anuncios en sus servicios. El anuncio de Meta fue enteramente en esa línea: «Los anunciantes tendrán que informar siempre que un anuncio sobre un tema social, electoral o político contenga una imagen o video fotorrealista , o audio que suena realista, que fue creado o alterado digitalmente», dijo Meta en una publicación de blog publicada hoy. La medida afectará a cualquier medio que represente a una persona real haciendo o diciendo algo que en realidad no hizo, imágenes falsas o alteradas de eventos reales y/o imágenes «de apariencia realista» de personas o eventos que en realidad no sucedieron. No es necesario marcar los cambios que «no tienen consecuencias o son irrelevantes para el reclamo» en el anuncio. «Meta agregará información sobre el anuncio cuando un anunciante revele en el flujo publicitario que el contenido fue creado o alterado digitalmente», dijo la compañía. «Si determinamos que un anunciante no divulga lo requerido, rechazaremos el anuncio y la falta repetida de divulgación puede resultar en sanciones». El cambio entrará en vigor en 2024, dijo Meta, y se aplicará a nivel mundial. Sin embargo, el mes pasado, la junta de supervisión de Meta dictaminó que un video del presidente estadounidense Biden manipulado para que pareciera que estaba tocando inapropiadamente a su nieta podía permanecer en Facebook porque, a pesar de que fue alterado para engañar, no lo hacía. Técnicamente no viola las reglas. La política de medios manipulados de la compañía dice que los usuarios no deben publicar imágenes creadas con IA, incluidos los deepfakes, que «fusionen, combinen, reemplacen y/o superpongan contenido en un video, creando un video que parezca auténtico», además de prohibir el contenido que «probablemente engañaría a una persona promedio haciéndole creer que un sujeto del video dijo palabras que no dijo». Entonces, modificado o no, se permitió que el video falso permaneciera. En cuanto a la aplicación de sus nuevas reglas, Meta dijo que planeaba confiar en «socios independientes de verificación de datos» para revisar los medios en busca de contenido falso que pasara por alto el nuevo requisito de divulgación de la compañía. Meta aún no ha respondido nuestras preguntas sobre el anuncio. Nos acercamos a otras empresas de redes sociales para saber si tenían nuevas iniciativas de desinformación electoral para compartir y las actualizaremos cuando tengamos noticias. ®

Source link