Dirige tu mente hacia adelante. Es el 8 de noviembre de 2028, el día después de otra elección presidencial. Esto transcurrió sin contratiempos (no hubo denuncias de manipulación desenfrenada, ni ninguna mancha significativa de artimaña) debido en gran parte a la derrota de los deepfakes, el nuevo enemigo de la democracia. ¿Es posible un futuro así? Hasta ahora, ni el gobierno ni la industria tecnológica han acordado medidas de seguridad efectivas contra los deepfakes. Pero estas preguntas frecuentes (de cinco años en el futuro) muestran que los acontecimientos de 2024 bien pueden forzar la cuestión y que es posible encontrar una solución. ¿Por qué llevó tanto tiempo encontrar una forma eficaz de luchar contra los deepfakes? A finales de 2022, apareció un sofisticado software de inteligencia artificial de bajo costo que facilitó la creación de audio, videos y fotografías realistas: los llamados deepfakes. A medida que estos programas de IA generativa mejoraron rápidamente, quedó claro que el contenido deepfake sería un peligro para la democracia. Pronto surgieron deepfakes políticos, tanto de audio como de vídeo: el presidente Biden anunció que los estadounidenses serían reclutados para luchar en Ucrania. Una foto de Donald Trump abrazando y besando al Dr. Anthony Fauci. La senadora Elizabeth Warren (D-Mass.) le dice a MSNBC que a los republicanos no se les debería permitir votar en 2024. Eric Adams, el alcalde monolingüe de Nueva York, habla español, yiddish y mandarín en llamadas automáticas producidas por IA. Muy rápidamente, el La Casa Blanca, la Unión Europea y las principales empresas de tecnología lanzaron propuestas de regulación de IA de amplio alcance que incluían “marcas de agua” en el contenido de IA: insertar etiquetas de identificación, un código informático permanente, en el archivo digital de cualquier contenido generado por IA para identificar su origen artificial. Pero el establecimiento de reglas de IA resultó complejo, y el etiquetado ejemplificó los dilemas: ¿Sería legalmente necesaria la marca de agua de IA? ¿Cómo se haría cumplir? Ya en 2023, algunas cámaras de teléfonos móviles utilizaban IA en el procesamiento de imágenes. ¿Qué cantidad de entrada de IA en el contenido requeriría un identificador? ¿Necesitaría una influencer de belleza de Instagram poner una marca de agua en sus selfies con rostro ajustado? Las complicaciones fueron tales que ningún sistema se adoptó ampliamente. ¿Qué cambió? El mayor ataque coordinado de deepfake de la historia tuvo lugar el día después de las elecciones de noviembre de 2024. Todos los canales de redes sociales de EE. UU. se vieron inundados de audio, videos e imágenes fijas falsas que mostraban fraude electoral en una docena de estados en disputa, contenido altamente realista que en cuestión de horas fue visto por millones. Los esfuerzos de desacreditación por parte de los medios y el gobierno se vieron obstaculizados por un flujo constante de nuevos deepfakes, en su mayoría fabricados en Rusia, Corea del Norte, China e Irán. El ataque generó un caos legal y civil que duró hasta bien entrada la primavera de 2025. ¿Sin embargo, no se adoptó ninguno de los primeros esfuerzos de autenticación? Correcto. En realidad, el gran avance se produjo a principios de 2026 de la mano de un grupo de trabajo de periodistas digitales de organizaciones de noticias estadounidenses e internacionales. Su objetivo era encontrar una manera de mantener los deepfakes fuera de las noticias, para poder proteger la credibilidad que aún conservaban los principales medios de comunicación. Era una tarea lógica: los periodistas son históricamente despiadados a la hora de castigar a sus pares por mala conducta, rompiendo el alquitrán y las plumas incluso por desviaciones menores del rigor fáctico. Las organizaciones periodísticas formaron la Alianza FAC – “Contenido autenticado por hechos” – basándose en una idea simple: Ya había demasiadas falsificaciones de IA en el mundo como para intentar imponer un sistema de marcas de agua para la desinformación y la desinformación. E incluso las normas de etiquetado más estrictas serían simplemente ignoradas por los malos actores. Pero sería posible poner marcas de agua en fragmentos de contenido que no fueran deepfakes. Y así nació el FACStamp voluntario el 1 de mayo de 2026. ¿Cómo es un FACStamp? Para los consumidores, el contenido con sello FAC muestra un pequeño ícono «FAC» en una esquina de la pantalla o incluye un aviso FAC de audio. El usuario puede apagar la señal o puede configurarla para que aparezca solo durante cinco o 10 segundos al inicio de una transmisión multimedia. Los FACStamps son completamente voluntarios. Pero todos los miembros de la Alianza FAC se comprometieron a que sus informes físicos, de transmisión y de Internet publicarían solo medios con sello FACS en sus secciones de noticias. ¿Cómo califica el contenido para un sello FACStam? Los teléfonos, tabletas, cámaras, grabadoras y computadoras de escritorio más nuevos incluyen software que inserta automáticamente el código FACStamp en cada pieza de contenido visual o de audio a medida que se captura, antes de que se pueda aplicar cualquier modificación de IA. Esto demuestra que la imagen, el sonido o el vídeo no fueron generados por IA. También puedes descargar la aplicación FAC, que hace lo mismo con equipos más antiguos. El FACStamp es lo que los tecnólogos llaman “frágil”: la primera vez que la IA falsifica una imagen, un video o un archivo de audio, el sello desaparece. Pero la IA a menudo se usa apropiadamente para hacer cosas como reducir el ruido de fondo en un archivo de audio. ¿El contenido FacStamped no se puede editar en absoluto? Ciertamente puede. Pero para conservar el FACStamp, su computadora debe estar conectada al Centro de verificación FAC sin fines de lucro. Las computadoras del centro detectan si la edición es menor (como un recorte o incluso un ajuste cosmético del rostro) y el sello permanece. Cualquier manipulación mayor, desde intercambiar caras hasta fondos falsos, y el FACStamp desaparece. ¿Cómo se extendió FACStamps más allá del periodismo? Resultó que mucha gente podía utilizar FACStamp. Los minoristas de Internet adoptaron FACStamps para vídeos e imágenes de sus productos. Pronto le siguieron los particulares, que utilizan FACStamps para vender productos en línea. Cuando los compradores potenciales juzgan una camioneta usada o un sofá de segunda mano, es reconfortante saber que la imagen no fue eliminada ni borrada por la IA. En 2027, el sello comenzó a aparecer en medios de comunicación social. Cualquier padre puede generar artificialmente una imagen perfectamente realista de su familia feliz parada frente a la Torre Eiffel y publicarla o enviarla por correo electrónico a amigos envidiosos. Un FACStamp demuestra que la familia realmente estuvo allí. Los perfiles de aplicaciones de citas sin FACStamps finalmente se están volviendo raros. Las aplicaciones de videoconferencia tienen opciones FAC para garantizar que todos los participantes en la llamada sean reales. Y para los influencers, es cada vez más difícil reclamar “autenticidad” sin al menos el FACStamp ocasional. Incluso la industria de la IA apoya el uso de FACStamps. Durante los entrenamientos en Internet, si un programa de IA absorbe cantidades excesivas de datos generados por IA en lugar de datos auténticos, puede sufrir un «colapso del modelo» y volverse tremendamente inexacto. Por eso, FACStamp ayuda a las empresas de IA a entrenar sus modelos basándose únicamente en la realidad. ¿Qué sigue? Un grupo bipartidista de senadores y miembros de la Cámara planea presentar la Ley del Derecho a la Realidad cuando se abra el próximo Congreso en enero de 2029. Exigirá el uso de FACStamps en múltiples sectores, incluidos el gobierno local, los sitios comerciales y las ofertas de inversión y bienes raíces. La falsificación de un FACStamp se convertiría en un delito penal. Las encuestas indican un amplio apoyo público a la ley, y la Alianza FAC ya ha comenzado una campaña de promoción de marca. El eslogan: “¿Es eso una FAC? “Michael Rogers es un autor y futurista cuyo libro más reciente es “Email From the Future: Notes From 2084”.

Source link