En la historia reciente no ha aparecido ninguna tecnología con el potencial de dañar a la sociedad más que los deepfakes. El contenido manipulador e insidioso generado por IA ya se está utilizando como arma en la política y será omnipresente en las próximas elecciones presidenciales de Estados Unidos, así como en las del Senado y la Cámara de Representantes. Mientras los reguladores luchan por controlar la tecnología, se utilizan deepfakes increíblemente realistas para difamar a los candidatos, influir en la opinión pública y manipular la participación electoral. Por otro lado, algunos candidatos, en intentos fallidos, han recurrido a la IA generativa para ayudar a reforzar sus campañas. El profesor Hany Farid de la Escuela de Información de la Universidad de California, Berkeley, ya está harto de todo esto. Ha lanzado un proyecto dedicado a rastrear deepfakes a lo largo de la campaña presidencial de 2024. Evento VB The AI ​​Impact Tour – Nueva York Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicitar una invitación Fuente: LinkedIn. «Mi esperanza es que al arrojar luz sobre este contenido, generemos conciencia entre los medios y el público, y les indiquemos a quienes crean este contenido que estamos viendo y que los encontraremos», dijo Farid a VentureBeat. Desde Biden en traje de faena hasta DeSantis lamentándose por desafiar a Trump En su entrada más reciente (30 de enero), el sitio de Farid proporciona tres imágenes del presidente Joe Biden en traje de faena sentado en lo que parece ser un centro de mando militar. Fuente: https://farid.berkeley.edu/deepfakes2024election/ Sin embargo, la publicación señala: “Hay signos reveladores de objetos mal informados sobre la mesa, y nuestro análisis geométrico de las placas del techo revela un punto de fuga físicamente inconsistente. » Los “objetos mal informados” incluyen ratones de computadora colocados al azar y un revoltijo de equipos indistinguibles en el centro. El sitio también hace referencia a las ahora infames llamadas automáticas falsas que se hacen pasar por Biden antes de las primarias de New Hampshire. Estos instaron a los electores a no participar y dijeron que “votar este martes sólo permite a los republicanos en su búsqueda de elegir nuevamente al expresidente Donald Trump”. Su voto marca la diferencia en noviembre, no este martes”. Aún no está claro quién está detrás de las llamadas, pero Farid señala que la calidad de la voz es «bastante baja» y tiene una cadencia que suena extraña. Otra publicación destaca el «movimiento de la boca bastante crudo» y la calidad del audio en un deepfake de Ron DeSantis diciendo «Nunca debí haber desafiado al presidente Trump, el mejor presidente de mi vida». El sitio también desglosa un montaje de seis fotografías de Trump abrazando al ex asesor médico jefe Anthony Fauci. Estos contenían inconsistencias físicas, como un logotipo “sin sentido” de la Casa Blanca y estrellas deformes en la bandera estadounidense. Además, señala el sitio, la forma de la oreja de Trump no coincide con varias imágenes de referencia reales. Farid señaló que “con respecto a las elecciones aquí en los EE. UU., no se necesita mucho para cambiar una elección nacional completa: miles de votos en un número selecto de condados en unos pocos estados indecisos pueden cambiar una elección entera”. Cualquier cosa puede ser falsa; nada tiene que ser real En los últimos meses, muchos otros deepfakes generalizados han mostrado a Trump siendo abordado por media docena de agentes de policía; el ucraniano Vladimir Zelenskiy pidiendo a sus soldados que depongan las armas y regresen con sus familias; y la vicepresidenta de Estados Unidos, Kamala Harris, aparentemente divagando y ebria en un evento en la Universidad de Howard. La tecnología dañina también se ha utilizado para alterar las elecciones en Turquía y Bangladesh (y en muchas otras por venir), y algunos candidatos, entre ellos el representante Dean Phillips de Minnesota y el alcalde de Miami, Francis Suárez, han utilizado deepfakes para interactuar con los votantes. «He visto en los últimos años un aumento en la sofisticación de los deepfakes y su uso indebido», dijo Farid. «Este año se siente como un punto de inflexión, donde miles de millones votarán en todo el mundo y la tecnología para manipular y distorsionar la realidad está saliendo de su infancia». Más allá de su impacto en los votantes, los deepfakes pueden usarse como escudos cuando se graba a personas infringiendo la ley o diciendo o haciendo algo inapropiado. “Pueden negar la realidad afirmando que es falsa”, dijo, señalando que este llamado “dividendo del mentiroso” ya ha sido utilizado por Trump y Elon Musk. «Cuando entramos en un mundo en el que todo es falso», dijo Farid, «nada tiene que ser real». Detente, piensa, revisa tus prejuicios. Las investigaciones han demostrado que los humanos solo pueden detectar videos deepfake un poco más de la mitad de las veces y audio falso el 73% de las veces. Los deepfakes son cada vez más peligrosos porque las imágenes, el audio y el vídeo creados por IA son cada vez más realistas, señaló Farid. Además, los materiales manipulados se difunden rápidamente en las redes sociales y pueden volverse virales en minutos. «Hace un año vimos principalmente deepfakes basados ​​en imágenes que eran claramente falsas», dijo Farid. «Hoy estamos viendo más deepfakes de audio y vídeo que son más sofisticados y creíbles». Debido a que la tecnología está evolucionando tan rápidamente, es difícil identificar “artefactos específicos” que seguirán siendo útiles con el tiempo para detectar deepfakes, señaló Farid. «Mi mejor consejo es dejar de recibir noticias de las redes sociales; no fueron diseñadas para esto», dijo. «Si debe pasar tiempo en las redes sociales, disminuya la velocidad, piense antes de compartir/dar me gusta, verifique sus prejuicios y su sesgo de confirmación y comprenda que cuando comparte información falsa, es parte del problema». Señales reveladoras de deepfake a las que hay que prestar atención Otros ofrecen dispositivos más concretos y específicos para detectar deepfakes. El proyecto Detect Fakes de la Universidad Northwestern, por ejemplo, ofrece una prueba donde los usuarios pueden determinar su habilidad para detectar farsantes. Mientras tanto, el MIT Media Lab ofrece varios consejos, entre ellos: Prestar atención a los rostros, ya que las manipulaciones de alto nivel son «casi siempre transformaciones faciales». Buscar mejillas y frentes que sean “demasiado lisas o demasiado arrugadas” y observar si el “envejecimiento de la piel” es similar al del cabello y los ojos”, ya que los deepfakes pueden ser “incongruentes en algunas dimensiones”. Notar ojos, cejas y sombras que aparecen donde no deberían estar. Los deepfakes no siempre pueden representar la física natural. Observar si las gafas tienen demasiado brillo, ninguno, o si el brillo cambia cuando la persona se mueve. Prestar atención al vello facial (o a la falta de él) y si parece real. Si bien los deepfakes pueden agregar o eliminar bigotes, patillas o barbas, esas transformaciones no siempre son completamente naturales. Observe la forma en que la persona parpadea (demasiado o nada) y la forma en que se mueven sus labios, ya que algunos deepfakes se basan en la sincronización de labios. ¿Crees que has visto un deepfake relacionado con las elecciones estadounidenses? Contacta con Farid. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link