La primera ministra de Italia, Giorgia Meloni, pide 100.000 euros por daños y perjuicios después de que se compartieran en línea vídeos pornográficos falsos de ella. Meloni exige una compensación a un hombre de 40 años y a su padre por los deepfakes, que fueron vistos millones de veces. Los videos porno falsos se subieron antes de su nombramiento como primera ministra en 2022. Si tiene éxito, la primera ministra se comprometió a donar el dinero a un fondo para apoyar a las mujeres que han sido víctimas de violencia de género. Si bien los funcionarios en este caso pudieron identificar a los perpetradores, que ahora podrían enfrentar penas de cárcel, la mayoría pasa desapercibida. Los creadores y compartidores de imágenes deepfake son notoriamente difíciles de rastrear. El <3 de la tecnología de la UELos últimos rumores de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris y algo de arte de IA cuestionable. Es gratis, todas las semanas, en tu bandeja de entrada. ¡Regístrese ahora! En 2016, los investigadores identificaron solo un video porno deepfake en línea. Solo en los primeros tres trimestres de 2023, se subieron 143,733 nuevos videos porno deepfake, según una nueva investigación de Channel 4 News. En el marco de la investigación, la emisora ​​británica encontró vídeos de 4.000 personajes famosos en los 40 sitios más populares para este tipo de contenidos. De ellos, 250 eran del Reino Unido, incluida Cathy Newman, presentadora del propio Channel 4 News. “Se siente como una violación. Simplemente se siente realmente siniestro que alguien que ha creado esto, yo no pueda verlo, y ellos puedan ver este tipo de versión imaginaria de mí, esta versión falsa de mí”, dijo Newman. “No puedes dejar de ver eso. Eso es algo a lo que seguiré volviendo. Y simplemente la idea de que miles de mujeres han sido manipuladas de esta manera. Se siente como una intrusión y violación absolutamente grave”, continuó. "Es realmente inquietante que puedas, con solo hacer clic en un botón, encontrar estas cosas, y que la gente pueda hacer esta grotesca parodia de la realidad con absoluta facilidad". La proliferación de herramientas de inteligencia artificial ha hecho que sea más fácil que nunca la creación de videos porno deepfake, que superponen una imagen del rostro de alguien al cuerpo de otro. Esta misma semana, el canal de noticias holandés AD descubrió una avalancha de vídeos porno falsificados en los que aparecían docenas de celebridades, parlamentarios y miembros de la familia real holandeses, todos ellos mujeres. El caso más sonado del año se produjo el mes pasado, cuando imágenes explícitas y no consensuadas de Taylor Swift inundaron X, anteriormente Twitter. Uno de los videos acumuló 47 millones de visitas antes de ser eliminado 17 horas después. Si bien los casos en los que las celebridades se ven afectadas reciben la mayor atención de la prensa, este es un problema que afecta a mujeres (y a veces a niños) de todos los ámbitos de la vida. Casi dos tercios de las mujeres temen ser víctimas de pornografía deepfake, según un informe de la firma de ciberseguridad ESET publicado el miércoles. "Las imágenes digitales son casi imposibles de eliminar, y es más fácil que nunca generar pornografía artificialmente con la cara de alguien", dijo Jake Moore, asesor de ESET. En el Reino Unido, el próximo proyecto de ley de seguridad en línea prohíbe compartir pornografía deepfake. Sin embargo, en general, la ley tiene dificultades para mantenerse al día. En la UE, a pesar de una serie de regulaciones entrantes dirigidas a la inteligencia artificial y las redes sociales, no existen leyes específicas que protejan a las víctimas de pornografía deepfake no consensuada. Muchos ahora están recurriendo a las empresas de inteligencia artificial para que tomen medidas enérgicas contra la creación de pornografía deepfake y a los gigantes de las redes sociales para controlar su propagación en línea. Sin embargo, depender de las empresas de tecnología (que obtienen ingresos publicitarios gracias a la oleada de actividad en línea en sus plataformas) para hacer lo correcto puede no ser la mejor estrategia. Mientras esperamos que la ley se ponga al día, tecnologías como los sistemas de autenticación, las marcas de agua digitales y la cadena de bloques podrían ayudar a abordar y rastrear los deepfakes, haciéndonos a todos más seguros en línea. “Lo que necesitamos es una estrategia de colaboración global integral y multidimensional que haga hincapié en la regulación, la tecnología y la seguridad”, dijo anteriormente a TNW Mark Minevich, autor de Our Planet Powered by AI y asesor de la ONU en tecnología de IA. "Esto no sólo enfrentará los desafíos inmediatos de los deepfakes no consensuados, sino que también sentará las bases para un entorno digital caracterizado por la confianza, la transparencia y la seguridad duradera".
Source link