Tres semanas antes de las elecciones generales del Reino Unido, Matthew Feeney, jefe de tecnología e innovación del Centro de Estudios Políticos con sede en el Reino Unido, advirtió sobre la amenaza de los deepfake a la integridad electoral en un nuevo informe. El experto en política tecnológica dijo que los avances tecnológicos han hecho que producir deepfakes sea más fácil y más barato que nunca. Sin embargo, advirtió contra la inevitable reacción instintiva ante dicha tecnología, citando el precedente de otros intentos recientes de regular las nuevas tecnologías. En Facing Fakes: How Politics and Politicians Can Respond to the Deepfake Age, Feeney recomienda que el gobierno del Reino Unido actualice las leyes existentes en lugar de crear nuevas «regulaciones sobre IA/deepfake». Sostuvo que los gobiernos deberían “vigilar el contenido en lugar de la tecnología utilizada para crearlo”. También aconsejó al gobierno del Reino Unido que aprovechara las Cumbres de Seguridad de la IA y el trabajo del Instituto de Seguridad de la IA para crear un grupo de trabajo sobre deepfakes, patrocinar más concursos de detección de deepfakes y apoyar el desarrollo de tecnologías de marcas de agua. Las primeras elecciones generales ultrafalsas del Reino Unido, pero no las últimas En el informe, Feeney afirmó: “Estamos en medio de las primeras elecciones generales ultrafalsas del Reino Unido. Aunque las campañas electorales apenas llevan unas semanas, los contenidos deepfake u otros contenidos generados por IA ya se están extendiendo rápidamente”. Mientras que algunos ejemplos son inofensivos porque el contenido sintético es obviamente falso, otros son mucho más creíbles y, por tanto, suponen un riesgo. El experto en políticas tecnológicas citó un vídeo que pretendía mostrar a Wes Streeting, secretario de Salud en la sombra del Partido Laborista, llamando a Diane Abbott una «mujer tonta» durante una aparición en el programa de televisión de actualidad Politics Live y otro que parecía mostrar al candidato laborista de North Durham, Luke Akehurst, usando crudo. lenguaje para burlarse de los electores. Añadió: “Desafortunadamente para los legisladores, la naturaleza de las redes sociales, el estado de las herramientas de detección de deepfakes, el bajo costo de la creación de deepfakes y el alcance limitado de la ley británica significan que deberíamos esperar que prolifere contenido deepfake dañino independientemente de cómo actúe el Parlamento. . Las actuales elecciones generales podrían ser las primeras elecciones generales ultrafalsas en el Reino Unido, pero no serán las últimas”. También cree que, aunque se deben apoyar las iniciativas de mitigación de los deepfakes lideradas por el sector privado, como las soluciones de contenido con marcas de agua, probablemente no lograrán resolver la interferencia extranjera impulsada por los deepfakes. Abordar el riesgo de desinformación preservando al mismo tiempo las oportunidades tecnológicas A pesar de los riesgos que plantean los deepfakes y la IA, Feeney se opuso a la prohibición total de la IA o las tecnologías deepfake, como las que respaldan algunas campañas políticas como ControlAI y Ban Deepfakes. “Los deepfakes tienen muchos usos valiosos, que corren el riesgo de verse socavados por la legislación o la regulación. Muchas tecnologías de creación y alteración de contenidos, como la imprenta, la radio, la fotografía, la edición de películas, CGI, etc., plantean riesgos, pero los legisladores se han resistido a la prohibición de estas tecnologías debido a estos riesgos y criticaron muchas de las regulaciones de IA existentes y futuras”. el escribio. Además, Feeney argumentó que para prohibir los deepfakes, los reguladores deben definir qué abarca el término, lo cual es un desafío importante. Leer más: La Junta de Supervisión de Meta insta a un cambio de política después de un video falso de Biden En lugar de eso, el experto en política tecnológica sugirió que los gobiernos se centren en el contenido en lugar de la tecnología. Propuso que los gobiernos se asocien con el sector privado y el mundo académico para abordar los riesgos de los deepfake en dos niveles: en el operativo, mediante el establecimiento de grupos de trabajo público-privados, basándose en el trabajo realizado por el AI Safety Institute. En el nivel legislativo, actualizando los existentes. leyes que sancionan afirmaciones falsas, discursos de odio, acoso, chantaje, fraude y otros comportamientos dañinos