Gracias a las herramientas de inteligencia artificial generativa actuales, es terriblemente fácil crear pornografía deepfake de cualquier persona. Un informe de 2023 de Home Security Heroes (una empresa que analiza los servicios de protección contra el robo de identidad) descubrió que bastaba con una imagen clara de un rostro y menos de 25 minutos para crear un vídeo pornográfico deepfake de 60 segundos, de forma gratuita. El mundo se dio cuenta de esta nueva realidad en enero, cuando circularon en las redes sociales imágenes deepfake gráficas de Taylor Swift, y una de ellas recibió 47 millones de visitas antes de que la eliminaran. Otras personas de la industria del entretenimiento, sobre todo estrellas del pop coreano, también han visto sus imágenes tomadas y mal utilizadas, pero también ha ocurrido lo mismo con personas alejadas del foco público. Sin embargo, hay una cosa que prácticamente todas las víctimas tienen en común: según el informe de 2023, el 99 por ciento de las víctimas son mujeres o niñas. Esta terrible situación está impulsando la acción, en gran medida por parte de mujeres que están hartas. Como dice una de las fundadoras de una startup, Nadia Lee: “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos en problemas”. Si bien se han realizado muchas investigaciones sobre los detectores de deepfakes, estos tienen dificultades para seguir el ritmo de las herramientas de generación de deepfakes. Es más, los detectores solo ayudan si una plataforma está interesada en filtrar deepfakes, y la mayoría de la pornografía deepfake se aloja en sitios dedicados a ese género. “Nuestra generación se enfrenta a su propio momento Oppenheimer”, dice Lee, CEO de la startup That’sMyFace, con sede en Australia. “Construimos esta cosa” (es decir, la IA generativa) “y podríamos ir por este o aquel camino con ella”. La empresa de Lee primero ofrece herramientas de reconocimiento visual a clientes corporativos que quieren estar seguros de que sus logotipos, uniformes o productos no aparecen en pornografía (pensemos, por ejemplo, en las azafatas de los aviones). Pero su objetivo a largo plazo es crear una herramienta que cualquier mujer pueda usar para escanear todo Internet en busca de imágenes o videos deepfake que tengan su propia cara. “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos jodidos”. —Nadia Lee, That’sMyFaceOtra fundadora de una startup tenía una razón personal para involucrarse. Breeze Liu fue víctima de pornografía deepfake en 2020; finalmente encontró más de 800 enlaces que conducían al video falso. Se sintió humillada, dice, y se horrorizó al descubrir que tenía pocos recursos: la policía dijo que no podían hacer nada, y ella misma tuvo que identificar todos los sitios donde aparecía el video y solicitar que lo eliminaran, apelaciones que no siempre tuvieron éxito. Tenía que haber una manera mejor, pensó. “Necesitamos usar la IA para combatir la IA”, dice. Liu, que ya estaba trabajando en tecnología, fundó Alecto AI, una startup que lleva el nombre de una diosa griega de la venganza. La aplicación que está desarrollando permite a los usuarios implementar el reconocimiento facial para verificar el uso indebido de su propia imagen en las principales plataformas de redes sociales (no está considerando asociaciones con plataformas pornográficas). Liu pretende asociarse con las plataformas de redes sociales para que su aplicación también pueda permitir la eliminación inmediata de contenido ofensivo. «Si no puedes eliminar el contenido, solo estás mostrando a las personas imágenes realmente angustiantes y creando más estrés», dice. Liu dice que actualmente está negociando con Meta sobre un programa piloto, que dice que beneficiará a la plataforma al proporcionar moderación de contenido automatizada. Sin embargo, pensando en grande, dice que la herramienta podría convertirse en parte de la «infraestructura para la identidad en línea», permitiendo que las personas también verifiquen cosas como perfiles falsos en las redes sociales o perfiles de sitios de citas configurados con su imagen. ¿Pueden las regulaciones combatir la pornografía deepfake? Eliminar material deepfake de las plataformas de redes sociales es bastante difícil; eliminarlo de las plataformas de pornografía es aún más difícil. Para tener una mejor oportunidad de forzar la acción, los defensores de la protección contra el abuso sexual basado en imágenes creen que se necesitan regulaciones, aunque difieren en qué tipo de regulaciones serían más efectivas. Susanna Gibson comenzó la organización sin fines de lucro MyOwn después de su propia historia de terror deepfake. Se postulaba para un escaño en la Cámara de Delegados de Virginia en 2023 cuando el partido republicano oficial de Virginia envió por correo imágenes sexuales de ella que habían sido creadas y compartidas sin su consentimiento, incluidas, dice, capturas de pantalla de pornografía deepfake. Después de perder las elecciones por poco, se dedicó a liderar la carga legislativa en Virginia y luego a nivel nacional para luchar contra el abuso sexual basado en imágenes. «El problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras». —Susanna Gibson, MyOwnSu primera victoria fue un proyecto de ley que el gobernador de Virginia firmó en abril para expandir la ley existente del estado sobre «pornografía de venganza» para cubrir más tipos de imágenes. «No se acerca ni de lejos a lo que creo que debería ser, pero es un paso en la dirección correcta para proteger a las personas», dice Gibson. Si bien se han presentado varios proyectos de ley federales para criminalizar explícitamente la distribución no consentida de imágenes íntimas o pornografía deepfake en particular, Gibson dice que no tiene grandes esperanzas de que esos proyectos de ley se conviertan en ley del país. Hay más acciones a nivel estatal, dice ella. “En este momento hay 49 estados, más el Distrito de Columbia, que tienen legislación contra la distribución no consensual de imágenes íntimas”, dice Gibson. “Pero el problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras”. Gibson señala que casi todas las leyes requieren prueba de que el perpetrador actuó con la intención de acosar o intimidar a la víctima, lo que puede ser muy difícil de probar. Entre las diferentes leyes, y las propuestas de nuevas leyes, hay un desacuerdo considerable sobre si la distribución de pornografía deepfake debe considerarse un asunto penal o civil. Y si es civil, lo que significa que las víctimas tienen derecho a demandar por daños y perjuicios, hay desacuerdo sobre si las víctimas deberían poder demandar a las personas que distribuyeron la pornografía deepfake o a las plataformas que la alojaron. Más allá de los Estados Unidos hay un mosaico aún mayor de políticas. En el Reino Unido, la Ley de Seguridad en Internet aprobada en 2023 penalizó la distribución de pornografía deepfake, y una enmienda propuesta este año puede penalizar también su creación. La Unión Europea adoptó recientemente una directiva que combate la violencia y la ciberviolencia contra las mujeres, que incluye la distribución de pornografía deepfake, pero los estados miembros tienen hasta 2027 para implementar las nuevas reglas. En Australia, una ley de 2021 convirtió en delito civil publicar imágenes íntimas sin consentimiento, pero una nueva ley propuesta tiene como objetivo convertirlo en delito penal y también pretende abordar explícitamente las imágenes deepfake. Corea del Sur tiene una ley que aborda directamente el material deepfake y, a diferencia de muchos otros, no requiere prueba de intención maliciosa. China tiene una ley integral que restringe la distribución de «contenido sintético», pero no ha habido evidencia de que el gobierno use las regulaciones para tomar medidas enérgicas contra la pornografía deepfake. Mientras las mujeres esperan una acción regulatoria, los servicios de empresas como Alecto AI y That’sMyFace pueden llenar los vacíos. Pero la situación nos recuerda a los silbatos anti-violación que algunas mujeres urbanas llevan en sus bolsos para estar listas para pedir ayuda si son atacadas en un callejón oscuro. Es útil tener una herramienta así, sin duda, pero sería mejor si nuestra sociedad tomara medidas enérgicas contra la depredación sexual en todas sus formas y tratara de asegurarse de que los ataques no ocurran en primer lugar. Artículos de su sitio Artículos relacionados en la Web