Seguridad digital A medida que se generalizan las imágenes, los vídeos y los clips de audio fabricados de personas reales, la perspectiva de una fuente de desinformación impulsada por la IA es motivo de creciente preocupación 13 de febrero de 2024 • , 5 min. leer Las noticias falsas han dominado los titulares electorales desde que se convirtieron en una gran noticia durante la carrera por la Casa Blanca en 2016. Pero ocho años después, existe una amenaza posiblemente mayor: una combinación de desinformación y deepfakes que podría engañar incluso a los expertos. Hay muchas posibilidades de que ejemplos recientes de contenido generado por IA con temas electorales, incluida una serie de imágenes y videos que circularon en el período previo a las elecciones presenciales de Argentina y un audio manipulado del presidente estadounidense Joe Biden, fueran presagios de lo que probablemente sucederá. una escala mayor. Con alrededor de una cuarta parte de la población mundial acudiendo a las urnas en 2024, aumenta la preocupación de que actores nefastos puedan utilizar la desinformación y los engaños impulsados ​​por la inteligencia artificial para influir en los resultados, y muchos expertos temen las consecuencias de que los deepfakes se generalicen. La amenaza de la desinformación profunda Como se mencionó, no menos de dos mil millones de personas están a punto de acudir a sus colegios electorales locales este año para votar por sus representantes y líderes estatales favoritos. Dado que se celebrarán elecciones importantes en más de un país, incluidos Estados Unidos, el Reino Unido y la India (así como para el Parlamento Europeo), esto tiene el potencial de cambiar el panorama político y la dirección de la geopolítica durante los próximos años, y más allá de. Al mismo tiempo, sin embargo, el Foro Económico Mundial (WEF) clasificó recientemente la desinformación y la desinformación como el riesgo global número uno de los próximos dos años. El desafío con los deepfakes es que la tecnología impulsada por la inteligencia artificial ahora se está volviendo barata, accesible y lo suficientemente poderosa como para causar daño a gran escala. democratiza la capacidad de los ciberdelincuentes, los actores estatales y los hacktivistas para lanzar campañas de desinformación convincentes y más estafas puntuales y ad hoc. Es parte de la razón por la que el WEF recientemente clasificó la desinformación como el mayor riesgo global de los próximos dos años, y el segundo riesgo actual, después del clima extremo. Esto es según 1.490 expertos del mundo académico, empresarial, gubernamental, de la comunidad internacional y de la sociedad civil que el FEM consultó. El informe advierte: “El contenido sintético manipulará a los individuos, dañará las economías y fracturará las sociedades de numerosas maneras durante los próximos dos años… existe el riesgo de que algunos gobiernos actúen con demasiada lentitud, enfrentándose a una disyuntiva entre prevenir la desinformación y proteger la libertad de expresión. » (Deep)falsificación El desafío es que herramientas como ChatGPT y la IA generativa (GenAI) de libre acceso han hecho posible que una gama más amplia de personas participen en la creación de campañas de desinformación impulsadas por tecnología deepfake. Con todo el arduo trabajo realizado por ellos, los actores maliciosos tienen más tiempo para trabajar en sus mensajes y esfuerzos de amplificación para garantizar que su contenido falso sea visto y escuchado. En un contexto electoral, los deepfakes obviamente podrían usarse para erosionar la confianza de los votantes en un candidato en particular. Después de todo, es más fácil convencer a alguien de que no haga algo que al revés. Si los partidarios de un partido político o candidato pueden dejarse convencer adecuadamente mediante audio o vídeo falso, eso sería una victoria definitiva para los grupos rivales. En algunas situaciones, los Estados rebeldes pueden intentar socavar la fe en todo el proceso democrático, de modo que quien gane tendrá dificultades para gobernar con legitimidad. En el centro del desafío se encuentra una verdad simple: cuando los humanos procesan información, tienden a valorar la cantidad y la facilidad de comprensión. Eso significa que cuanto más contenido veamos con un mensaje similar y más fácil de entender, mayores serán las posibilidades de que lo creamos. Es por eso que las campañas de marketing tienden a estar compuestas de mensajes breves y repetidos continuamente. Si a esto le sumamos el hecho de que cada vez es más difícil diferenciar los deepfakes del contenido real, tenemos una receta potencial para un desastre democrático. De la teoría a la práctica Es preocupante que los deepfakes probablemente tengan un impacto en el sentimiento de los votantes. Tomemos este nuevo ejemplo: en enero de 2024, un audio falso del presidente estadounidense Joe Biden circuló a través de una llamada automática a un número desconocido de votantes primarios en New Hampshire. En el mensaje aparentemente les dijo que no asistieran y que, en cambio, «guardaran su voto para las elecciones de noviembre». El número de identificación de llamadas mostrado también fue falsificado para que pareciera que el mensaje automático fue enviado desde el número personal de Kathy Sullivan, ex presidenta estatal del Partido Demócrata que ahora dirige un súper PAC pro-Biden. No es difícil ver cómo estos llamados podrían usarse para disuadir a los votantes de votar por su candidato preferido antes de las elecciones presidenciales de noviembre. El riesgo será particularmente grave en elecciones muy disputadas, donde el cambio de un pequeño número de votantes de un lado a otro determina el resultado. Con sólo decenas de miles de votantes en un puñado de estados indecisos que probablemente decidirán el resultado de las elecciones, una campaña dirigida como esta podría causar un daño incalculable. Y para colmo de males, como en el caso anterior se propagó a través de llamadas automáticas en lugar de redes sociales, es aún más difícil rastrear o medir el impacto. ¿Qué están haciendo las empresas de tecnología al respecto? Se dice que tanto YouTube como Facebook han tardado en responder a algunos deepfakes que estaban destinados a influir en una elección reciente. Esto a pesar de una nueva ley de la UE (la Ley de Servicios Digitales) que exige que las empresas de redes sociales tomen medidas drásticas contra los intentos de manipulación electoral. Por su parte, OpenAI ha dicho que implementará las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) para las imágenes generadas por DALL-E 3. La tecnología de marca de agua criptográfica, que también está siendo probada por Meta y Google, está diseñada para hacer Es más difícil producir imágenes falsas. Sin embargo, estos son todavía sólo pequeños pasos y existen preocupaciones justificadas de que la respuesta tecnológica a la amenaza sea demasiado escasa y demasiado tarde a medida que la fiebre electoral se apodera del mundo. Especialmente cuando se difunde en redes relativamente cerradas como grupos de WhatsApp o llamadas automáticas, será difícil rastrear y desacreditar rápidamente cualquier audio o vídeo falso. La teoría del “sesgo de anclaje” sugiere que la primera información que los humanos escuchan es la que se queda en nuestras mentes, incluso si resulta ser falsa. Si los deepfakers llegan primero a los votantes indecisos, todas las apuestas sobre quién será el vencedor final. En la era de las redes sociales y la desinformación impulsada por la inteligencia artificial, el dicho de Jonathan Swift “la falsedad vuela, y la verdad viene cojeando tras ella” adquiere un significado completamente nuevo.

Source link