Comenta esta historiaComentarAgregar a tus historias guardadasGuardarCuando Gabi Belle se enteró de que había una foto de ella desnuda circulando en Internet, su cuerpo se enfrió. La influencer de YouTube nunca había posado para la imagen, que la mostraba parada en un campo sin ropa. Sabía que debía ser falso. Pero cuando Belle, de 26 años, le envió un mensaje a un colega pidiéndole ayuda para eliminar la imagen, él le dijo que había casi 100 fotos falsas esparcidas por la web, la mayoría alojadas en sitios web conocidos por albergar pornografía generada por inteligencia artificial. Fueron eliminadas en julio, dijo Belle, pero ya han aparecido nuevas imágenes que la representan en situaciones sexuales gráficas. “Me sentí asquerosa y violada”, dijo Belle en una entrevista. “Esas partes privadas no están destinadas a que el mundo las vea porque no he dado mi consentimiento para ello. Así que es realmente extraño que alguien haga imágenes mías”. La inteligencia artificial está impulsando este año un auge sin precedentes de imágenes y vídeos pornográficos falsos. Esto es posible gracias al aumento de herramientas de inteligencia artificial baratas y fáciles de usar que pueden «desnudar» a las personas en fotografías (analizar cómo se verían sus cuerpos desnudos e imponerlos en una imagen) o cambiar sin problemas una cara en un video pornográfico. Entre los 10 principales sitios web que albergan fotografías pornográficas generadas por IA, los desnudos falsos se han disparado en más de un 290 por ciento desde 2018, según Genevieve Oh, analista de la industria. Estos sitios presentan a celebridades y figuras políticas como la representante de Nueva York Alexandria Ocasio-Cortez junto a adolescentes comunes y corrientes, cuyas imágenes han sido aprovechadas por malos actores para incitar a la vergüenza, extorsionar dinero o vivir fantasías privadas. Las víctimas tienen pocos recursos. No existe una ley federal que regule la pornografía deepfake y solo un puñado de estados han promulgado regulaciones. La orden ejecutiva sobre IA del presidente Biden emitida el lunes recomienda, pero no exige, que las empresas etiqueten las fotografías, los vídeos y el audio generados por IA para indicar el trabajo generado por computadora. Mientras tanto, los juristas advierten que las imágenes falsas de IA pueden no estar cubiertas por la protección de derechos de autor para imágenes personales. , porque se basan en conjuntos de datos poblados por millones de imágenes. «Este es claramente un problema muy serio», dijo Tiffany Li, profesora de derecho en la Universidad de San Francisco. La llegada de las imágenes de IA conlleva un riesgo particular para las mujeres y los adolescentes, muchos de los cuales no están preparados para tal visibilidad. Un estudio de 2019 realizado por Sensity AI, una empresa que monitorea los deepfakes, encontró que el 96 por ciento de las imágenes deepfake son pornografía y el 99 por ciento de esas fotos están dirigidas a mujeres. «Ahora se dirige principalmente a las niñas», dijo Sophie Maddocks, investigadora y defensora de los derechos digitales. en la Universidad de Pensilvania. “Niñas y mujeres jóvenes que no están en el ojo público”. ‘Mira, mamá. ¿Qué me han hecho?’El 17 de septiembre, Miriam Al Adib Mendiri regresaba de un viaje a su casa en el sur de España cuando encontró a su hija de 14 años angustiada. Su hija compartió una foto de ella desnuda. “Mira, mamá. ¿Qué me han hecho? Al Adib Mendiri recordó que su hija dijo: «Nunca había posado desnuda». Pero un grupo de chicos locales tomó fotos vestidas de los perfiles de redes sociales de varias chicas de su ciudad y utilizó una aplicación «nudificadora» de inteligencia artificial para crear las imágenes desnudas, según la policía. Scarlett Johansson sobre videos sexuales falsos generados por inteligencia artificial: ‘ Nada puede impedir que alguien corte y pegue mi imagen. La aplicación es una de las muchas herramientas de inteligencia artificial que utilizan imágenes reales para crear fotos de desnudos y que han inundado la web en los últimos meses. Al analizar millones de imágenes, el software de IA puede predecir mejor cómo se verá un cuerpo desnudo y superponer fluidamente un rostro en un video pornográfico, dijo Gang Wang, experto en IA de la Universidad de Illinois en Urbana-Champaign. Los generadores impiden a los usuarios crear material pornográfico, el software de código abierto, como Stable Diffusion, hace público su código, lo que permite a los desarrolladores aficionados adaptar la tecnología, a menudo con fines nefastos. (Stability AI, el creador de Stable Diffusion, no respondió a una solicitud de comentarios). Una vez que estas aplicaciones son públicas, utilizan programas de referencia que alientan a los usuarios a compartir estas fotos generadas por IA en las redes sociales a cambio de dinero en efectivo, dijo Oh. Cuando Oh examinó los 10 principales sitios web que alojan imágenes pornográficas falsas, descubrió que este año se habían subido más de 415.000, obteniendo casi 90 millones de visitas. Los videos pornográficos generados por IA también se han disparado en la web. Después de explorar los 40 sitios web más populares en busca de videos falsos, Oh descubrió que se habían agregado más de 143.000 videos en 2023, una cifra que supera todos los videos nuevos de 2016 a 2022. Los videos falsos han recibido más de 4.200 millones de visitas, descubrió Oh. La Oficina Federal de Investigaciones advirtió en junio sobre un aumento de la extorsión sexual por parte de estafadores que exigen pagos o fotografías a cambio de no distribuir imágenes sexuales. Si bien no está claro qué porcentaje de estas imágenes son generadas por IA, la práctica se está expandiendo. Hasta septiembre, más de 26.800 personas han sido víctimas de campañas de «sextorsión», un aumento del 149 por ciento con respecto a 2019, dijo el FBI a The Post. «No estás segura como mujer» En mayo, comenzó un cartel en un popular foro de pornografía. un hilo llamado «Puedo fingir que te gusta». La idea era simple: “Envíame a quien quieras ver desnudo y puedo fingirlo” usando IA, escribió el moderador. En cuestión de horas, aparecieron fotos de mujeres. “¿Puedes hacer esta chica? No soy una celebridad ni una persona influyente”, preguntó un cartel. “¿Mi compañero de trabajo y mi vecino?” añadió otro. Minutos después de una solicitud, aparecía en el hilo una versión desnuda de la imagen. «Muchas gracias hermano, es perfecto», escribió un usuario. Estas imágenes falsas revelan cómo la IA amplifica nuestros peores estereotipos. Las celebridades son un objetivo popular para los creadores de pornografía falsa que buscan capitalizar el interés de búsqueda de fotos de desnudos de actores famosos. Pero los sitios web que presentan personajes famosos pueden provocar un aumento de otros tipos de desnudos. Los sitios a menudo incluyen contenido «amateur» de personas desconocidas y albergan anuncios que comercializan herramientas de creación de pornografía mediante inteligencia artificial. Google cuenta con políticas para evitar que aparezcan imágenes sexuales no consensuadas en los resultados de búsqueda, pero sus protecciones para imágenes ultrafalsas no son tan sólidas. El porno deepfake y las herramientas para que aparezca de forma destacada en los motores de búsqueda de la empresa, incluso sin buscar específicamente contenido generado por IA. Oh documentó más de una docena de ejemplos en capturas de pantalla, que fueron confirmadas de forma independiente por The Post. Ned Adriance, portavoz de Google, dijo en un comunicado que la compañía está «trabajando activamente para brindar más protecciones a las búsquedas» y que la compañía permite a los usuarios solicitar la eliminación de pornografía falsa involuntaria. Google está en el proceso de “construir salvaguardias más amplias” que no requieran que las víctimas soliciten individualmente que se elimine el contenido, dijo. Li, de la Universidad de San Francisco, dijo que puede ser difícil penalizar a los creadores de este contenido. La sección 230 de la Ley de Decencia en las Comunicaciones protege a las empresas de redes sociales de la responsabilidad por el contenido publicado en sus sitios, lo que deja poca carga para los sitios web a la hora de controlar las imágenes. Las víctimas pueden solicitar que las empresas eliminen fotos y vídeos de su imagen. Pero debido a que la IA se basa en una gran cantidad de imágenes en un conjunto de datos para crear una foto falsa, es más difícil para una víctima afirmar que el contenido se deriva únicamente de su semejanza, dijo Li. «Tal vez todavía se pueda decir: ‘Es una violación de los derechos de autor’. , está claro que tomaron mi foto original con derechos de autor y luego le agregaron un poco’”, dijo Li. «Pero en el caso de las falsificaciones profundas… no está tan claro… cuáles eran las fotos originales». Vea por qué la IA como ChatGPT se ha vuelto tan buena y tan rápida. En ausencia de leyes federales, al menos nueve estados, incluidos California, Texas y Virginia, han aprobado legislación dirigida a los deepfakes. Pero estas leyes varían en alcance: en algunos estados las víctimas pueden presentar cargos penales, mientras que otros sólo permiten demandas civiles, aunque puede ser difícil determinar a quién demandar. distribución, abordando las preocupaciones sobre la interferencia electoral, dijo Sam Gregory, director ejecutivo de la organización tecnológica de defensa de los derechos humanos Witness. Pero estas reglas hacen poco por la pornografía deepfake, donde las imágenes compartidas en grupos pequeños pueden causar estragos en la vida de una persona, agregó Gregory. , la influencer de YouTube, todavía no está segura de cuántas fotos falsas de ella son públicas y dijo que se necesitan reglas más estrictas para abordar su experiencia. “No estás segura como mujer”, dijo.

Source link