Todo lo que necesitas saber sobre tecnología

Etiqueta: pornografía

Los generadores de imágenes de IA crean material sobre abuso sexual infantil (CSAM)

Los generadores de imágenes de IA crean material sobre abuso sexual infantil (CSAM)

¿Por qué las empresas de inteligencia artificial, valoradas en millones y miles de millones de dólares, crean y distribuyen herramientas que pueden generar material de abuso sexual infantil (CSAM) generado por IA? Un generador de imágenes llamado Stable Diffusion versión 1.5, creado por la empresa de inteligencia artificial Runway con financiación de Stability AI, ha estado particularmente implicado en la producción de CSAM. Y plataformas populares como Hugging Face y Civitai han estado alojando ese modelo y otros que pueden haber sido entrenados con imágenes reales de abuso sexual infantil. En algunos casos, las empresas pueden incluso estar infringiendo leyes al alojar material sintético de CSAM en sus servidores. ¿Y por qué las empresas e inversores tradicionales como Google, Nvidia, Intel, Salesforce y Andreesen Horowitz están invirtiendo cientos de millones de dólares en estas empresas? Su apoyo equivale a subvencionar contenido para pedófilos. Como expertos en seguridad de la inteligencia artificial, hemos estado haciendo estas preguntas para denunciar a estas empresas y presionarlas para que tomen las medidas correctivas que describimos a continuación. Y hoy nos complace informar de un gran triunfo: aparentemente en respuesta a nuestras preguntas, la versión 1.5 de Stable Diffusion ha sido eliminada de Hugging Face. Pero todavía queda mucho por hacer, y es posible que para lograr avances significativos se requiera legislación. El alcance del problema del abuso sexual infantil Los defensores de la seguridad infantil comenzaron a hacer sonar la alarma el año pasado: los investigadores del Observatorio de Internet de Stanford y la organización tecnológica sin fines de lucro Thorn publicaron un informe preocupante en junio de 2023. Descubrieron que las herramientas de generación de imágenes de IA ampliamente disponibles y de «código abierto» ya estaban siendo mal utilizadas por actores maliciosos para crear material de abuso sexual infantil. En algunos casos, los actores maliciosos estaban creando sus propias versiones personalizadas de estos modelos (un proceso conocido como ajuste fino) con material real de abuso sexual infantil para generar imágenes a medida de víctimas específicas. El pasado mes de octubre, un informe de la organización sin fines de lucro británica Internet Watch Foundation (que gestiona una línea directa para denuncias de material de abuso sexual infantil) detallaba la facilidad con la que los actores maliciosos están creando ahora material de abuso sexual infantil fotorrealista generado por IA, a gran escala. Los investigadores incluyeron un estudio de «instantánea» de un foro de CSAM en la dark web, analizando más de 11.000 imágenes generadas por IA publicadas en un período de un mes; de ellas, casi 3.000 fueron juzgadas lo suficientemente graves como para ser clasificadas como criminales. El informe instó a una supervisión regulatoria más fuerte de los modelos de IA generativos. Los modelos de IA se pueden utilizar para crear este material porque han visto ejemplos antes. Los investigadores de Stanford descubrieron en diciembre pasado que uno de los conjuntos de datos más importantes utilizados para entrenar modelos de generación de imágenes incluía miles de piezas de CSAM. Muchos de los generadores de imágenes de IA de código abierto descargables más populares, incluido el popular modelo Stable Diffusion versión 1.5, se entrenaron utilizando estos datos. Esa versión de Stable Diffusion fue creada por Runway, aunque Stability AI pagó por la potencia informática para producir el conjunto de datos y entrenar el modelo, y Stability AI lanzó las versiones posteriores. Runway no respondió a una solicitud de comentarios. Un portavoz de Stability AI enfatizó que la compañía no lanzó ni mantuvo la versión 1.5 de Stable Diffusion, y dice que la compañía ha «implementado salvaguardas sólidas» contra el CSAM en modelos posteriores, incluido el uso de conjuntos de datos filtrados para el entrenamiento. También en diciembre pasado, los investigadores de la firma de análisis de redes sociales Graphika encontraron una proliferación de docenas de servicios de «desnudez», muchos basados ​​en generadores de imágenes de IA de código abierto, probablemente incluido Stable Diffusion. Estos servicios permiten a los usuarios cargar fotos de personas vestidas y producir lo que los expertos denominan imágenes íntimas no consensuales (NCII) de menores y adultos, también conocidas a veces como pornografía deepfake. Estos sitios web se pueden encontrar fácilmente a través de búsquedas de Google, y los usuarios pueden pagar los servicios con tarjetas de crédito en línea. Muchos de estos servicios solo funcionan con mujeres y niñas, y este tipo de herramientas se han utilizado para apuntar a celebridades femeninas como Taylor Swift y políticas como la representante estadounidense Alexandria Ocasio-Cortez. El CSAM generado por IA tiene efectos reales. El ecosistema de seguridad infantil ya está sobrecargado, con millones de archivos de presunto CSAM reportados a las líneas directas anualmente. Cualquier cosa que se sume a ese torrente de contenido, especialmente material de abuso fotorrealista, hace que sea más difícil encontrar a los niños que están activamente en peligro. Para empeorar las cosas, algunos actores maliciosos están utilizando CSAM existente para generar imágenes sintéticas de estos sobrevivientes, una horrible nueva violación de sus derechos. Otros están utilizando las aplicaciones de «desnudez» fácilmente disponibles para crear contenido sexual a partir de imágenes benignas de niños reales, y luego usan ese contenido recién generado en esquemas de extorsión sexual. Una victoria contra el CSAM generado por IA Según la investigación de Stanford del pasado mes de diciembre, es bien sabido en la comunidad de IA que Stable Diffusion 1.5 fue entrenado con material de abuso sexual infantil, al igual que todos los demás modelos entrenados con el conjunto de datos LAION-5B. Estos modelos están siendo mal utilizados activamente por actores maliciosos para hacer CSAM generado por IA. E incluso cuando se utilizan para generar material más benigno, su uso revictimiza inherentemente a los niños cuyas imágenes de abuso se incluyeron en sus datos de entrenamiento. Por eso, preguntamos a las populares plataformas de alojamiento de IA Hugging Face y Civitai por qué alojaban Stable Diffusion 1.5 y modelos derivados, poniéndolos a disposición para su descarga gratuita. Vale la pena señalar que Jeff Allen, un científico de datos del Integrity Institute, descubrió que Stable Diffusion 1.5 se descargó de Hugging Face más de 6 millones de veces en el último mes, lo que lo convierte en el generador de imágenes de IA más popular de la plataforma. Cuando le preguntamos a Hugging Face por qué ha seguido alojando el modelo, la portavoz de la empresa, Brigitte Tousignant, no respondió directamente a la pregunta, sino que afirmó que la empresa no tolera el CSAM en su plataforma, que incorpora una variedad de herramientas de seguridad y que alienta a la comunidad a utilizar el modelo Safe Stable Diffusion que identifica y suprime las imágenes inapropiadas. Luego, ayer, verificamos Hugging Face y descubrimos que Stable Diffusion 1.5 ya no está disponible. Tousignant nos dijo que Hugging Face no lo eliminó y sugirió que nos comunicáramos con Runway, lo cual hicimos, nuevamente, pero aún no hemos recibido una respuesta. Sin duda, es un éxito que este modelo ya no esté disponible para descargar desde Hugging Face. Desafortunadamente, todavía está disponible en Civitai, al igual que cientos de modelos derivados. Cuando nos comunicamos con Civitai, un portavoz nos dijo que no tienen conocimiento de qué datos de entrenamiento usó Stable Diffusion 1.5 y que solo lo eliminarían si hubiera evidencia de mal uso. Las plataformas deberían estar nerviosas por su responsabilidad. La semana pasada se produjo el arresto de Pavel Durov, director ejecutivo de la aplicación de mensajería Telegram, como parte de una investigación relacionada con CSAM y otros delitos. ¿Qué se está haciendo con el CSAM generado por IA? El constante ritmo de informes y noticias inquietantes sobre CSAM generado por IA y NCII no ha disminuido. Si bien algunas empresas están tratando de mejorar la seguridad de sus productos con la ayuda de Tech Coalition, ¿qué progreso hemos visto en el tema más amplio? En abril, Thorn y All Tech Is Human anunciaron una iniciativa para reunir a las principales empresas de tecnología, desarrolladores de IA generativa, plataformas de alojamiento de modelos y más para definir y comprometerse con los principios de seguridad por diseño, que colocan la prevención del abuso sexual infantil en el centro del proceso de desarrollo de productos. Diez empresas (incluidas Amazon, Civitai, Google, Meta, Microsoft, OpenAI y Stability AI) se comprometieron con estos principios, y varias otras se unieron para coescribir un documento relacionado con mitigaciones recomendadas más detalladas. Los principios instan a las empresas a desarrollar, implementar y mantener modelos de IA que aborden de manera proactiva los riesgos de seguridad infantil; a construir sistemas para garantizar que cualquier material de abuso que se produzca se detecte de manera confiable; y a limitar la distribución de los modelos y servicios subyacentes que se utilizan para producir este material de abuso. Este tipo de compromisos voluntarios son un comienzo. Rebecca Portnoff, directora de ciencia de datos de Thorn, dice que la iniciativa busca la rendición de cuentas al exigir a las empresas que emitan informes sobre su progreso en los pasos de mitigación. También está colaborando con instituciones que establecen estándares como IEEE y NIST para integrar sus esfuerzos en estándares nuevos y existentes, abriendo la puerta a auditorías de terceros que «dejarían de lado el sistema de honor», dice Portnoff. Portnoff también señala que Thorn está trabajando con los responsables de las políticas para ayudarlos a concebir una legislación que sea técnicamente factible e impactante. De hecho, muchos expertos dicen que es hora de ir más allá de los compromisos voluntarios. Creemos que actualmente se está llevando a cabo una carrera temeraria hacia el abismo en la industria de la IA. Las empresas luchan tan furiosamente por estar técnicamente a la cabeza que muchas de ellas ignoran las consecuencias éticas y posiblemente incluso legales de sus productos. Si bien algunos gobiernos, incluida la Unión Europea, están avanzando en la regulación de la IA, no han ido lo suficientemente lejos. Si, por ejemplo, las leyes hicieran ilegal proporcionar sistemas de IA que puedan producir material sexualmente degradante, las empresas tecnológicas podrían tomar nota. La realidad es que, si bien algunas empresas cumplirán con los compromisos voluntarios, muchas no lo harán. Y de los que lo hagan, muchos lo harán con demasiada lentitud, ya sea porque no están preparados o porque les cuesta mantener su ventaja competitiva. Mientras tanto, los actores maliciosos gravitarán hacia esos servicios y causarán estragos. Ese resultado es inaceptable. Lo que las empresas tecnológicas deberían hacer con el CSAM generado por IA Los expertos vieron venir este problema a una milla de distancia, y los defensores de la seguridad infantil han recomendado estrategias de sentido común para combatirlo. Si perdemos esta oportunidad de hacer algo para solucionar la situación, todos asumiremos la responsabilidad. Como mínimo, todas las empresas, incluidas las que lanzan modelos de código abierto, deberían estar obligadas legalmente a seguir los compromisos establecidos en los principios de seguridad por diseño de Thorn: detectar, eliminar y denunciar el CSAM de sus conjuntos de datos de entrenamiento antes de entrenar sus modelos de IA generativos. Incorporar marcas de agua robustas y sistemas de procedencia de contenido en sus modelos de IA generativos para que las imágenes generadas puedan vincularse a los modelos que las crearon, como se exigiría en virtud de un proyecto de ley de California que crearía estándares de procedencia de contenido digital para las empresas que hacen negocios en el estado. El proyecto de ley probablemente se presentará para la firma del gobernador Gavin Newson en el mes próximo. Eliminar de sus plataformas cualquier modelo de IA generativa que se sepa que está entrenado en CSAM o que es capaz de producir CSAM. Negarse a volver a alojar estos modelos a menos que hayan sido completamente reconstituidos con el CSAM eliminado. Identificar los modelos que han sido ajustados intencionalmente en CSAM y eliminarlos permanentemente de sus plataformas. Eliminar las aplicaciones «desnudistas» de las tiendas de aplicaciones, bloquear los resultados de búsqueda para estas herramientas y servicios, y trabajar con los proveedores de pagos para bloquear los pagos a sus creadores. No hay ninguna razón por la que la IA generativa necesite ayudar e incitar al horrible abuso de los niños. Pero necesitaremos todas las herramientas a mano (compromisos voluntarios, regulación y presión pública) para cambiar el rumbo y detener la carrera hacia el abismo. Los autores agradecen a Rebecca Portnoff de Thorn, David Thiel del Observatorio de Internet de Stanford, Jeff Allen del Instituto de Integridad, Ravit Dotan de TechBetter y al investigador de políticas tecnológicas Owen Doyle por su ayuda con este artículo. Artículos de su sitio Artículos relacionados en la Web

La pornografía deepfake genera herramientas tecnológicas y exige regulaciones

La pornografía deepfake genera herramientas tecnológicas y exige regulaciones


Gracias a las herramientas de inteligencia artificial generativa actuales, es terriblemente fácil crear pornografía deepfake de cualquier persona. Un informe de 2023 de Home Security Heroes (una empresa que analiza los servicios de protección contra el robo de identidad) descubrió que bastaba con una imagen clara de un rostro y menos de 25 minutos para crear un vídeo pornográfico deepfake de 60 segundos, de forma gratuita. El mundo se dio cuenta de esta nueva realidad en enero, cuando circularon en las redes sociales imágenes deepfake gráficas de Taylor Swift, y una de ellas recibió 47 millones de visitas antes de que la eliminaran. Otras personas de la industria del entretenimiento, sobre todo estrellas del pop coreano, también han visto sus imágenes tomadas y mal utilizadas, pero también ha ocurrido lo mismo con personas alejadas del foco público. Sin embargo, hay una cosa que prácticamente todas las víctimas tienen en común: según el informe de 2023, el 99 por ciento de las víctimas son mujeres o niñas. Esta terrible situación está impulsando la acción, en gran medida por parte de mujeres que están hartas. Como dice una de las fundadoras de una startup, Nadia Lee: “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos en problemas”. Si bien se han realizado muchas investigaciones sobre los detectores de deepfakes, estos tienen dificultades para seguir el ritmo de las herramientas de generación de deepfakes. Es más, los detectores solo ayudan si una plataforma está interesada en filtrar deepfakes, y la mayoría de la pornografía deepfake se aloja en sitios dedicados a ese género. “Nuestra generación se enfrenta a su propio momento Oppenheimer”, dice Lee, CEO de la startup That’sMyFace, con sede en Australia. “Construimos esta cosa” (es decir, la IA generativa) “y podríamos ir por este o aquel camino con ella”. La empresa de Lee primero ofrece herramientas de reconocimiento visual a clientes corporativos que quieren estar seguros de que sus logotipos, uniformes o productos no aparecen en pornografía (pensemos, por ejemplo, en las azafatas de los aviones). Pero su objetivo a largo plazo es crear una herramienta que cualquier mujer pueda usar para escanear todo Internet en busca de imágenes o videos deepfake que tengan su propia cara. “Si la tecnología de seguridad no se acelera al mismo ritmo que el desarrollo de la IA, entonces estamos jodidos”. —Nadia Lee, That’sMyFaceOtra fundadora de una startup tenía una razón personal para involucrarse. Breeze Liu fue víctima de pornografía deepfake en 2020; finalmente encontró más de 800 enlaces que conducían al video falso. Se sintió humillada, dice, y se horrorizó al descubrir que tenía pocos recursos: la policía dijo que no podían hacer nada, y ella misma tuvo que identificar todos los sitios donde aparecía el video y solicitar que lo eliminaran, apelaciones que no siempre tuvieron éxito. Tenía que haber una manera mejor, pensó. “Necesitamos usar la IA para combatir la IA”, dice. Liu, que ya estaba trabajando en tecnología, fundó Alecto AI, una startup que lleva el nombre de una diosa griega de la venganza. La aplicación que está desarrollando permite a los usuarios implementar el reconocimiento facial para verificar el uso indebido de su propia imagen en las principales plataformas de redes sociales (no está considerando asociaciones con plataformas pornográficas). Liu pretende asociarse con las plataformas de redes sociales para que su aplicación también pueda permitir la eliminación inmediata de contenido ofensivo. «Si no puedes eliminar el contenido, solo estás mostrando a las personas imágenes realmente angustiantes y creando más estrés», dice. Liu dice que actualmente está negociando con Meta sobre un programa piloto, que dice que beneficiará a la plataforma al proporcionar moderación de contenido automatizada. Sin embargo, pensando en grande, dice que la herramienta podría convertirse en parte de la «infraestructura para la identidad en línea», permitiendo que las personas también verifiquen cosas como perfiles falsos en las redes sociales o perfiles de sitios de citas configurados con su imagen. ¿Pueden las regulaciones combatir la pornografía deepfake? Eliminar material deepfake de las plataformas de redes sociales es bastante difícil; eliminarlo de las plataformas de pornografía es aún más difícil. Para tener una mejor oportunidad de forzar la acción, los defensores de la protección contra el abuso sexual basado en imágenes creen que se necesitan regulaciones, aunque difieren en qué tipo de regulaciones serían más efectivas. Susanna Gibson comenzó la organización sin fines de lucro MyOwn después de su propia historia de terror deepfake. Se postulaba para un escaño en la Cámara de Delegados de Virginia en 2023 cuando el partido republicano oficial de Virginia envió por correo imágenes sexuales de ella que habían sido creadas y compartidas sin su consentimiento, incluidas, dice, capturas de pantalla de pornografía deepfake. Después de perder las elecciones por poco, se dedicó a liderar la carga legislativa en Virginia y luego a nivel nacional para luchar contra el abuso sexual basado en imágenes. «El problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras». —Susanna Gibson, MyOwnSu primera victoria fue un proyecto de ley que el gobernador de Virginia firmó en abril para expandir la ley existente del estado sobre «pornografía de venganza» para cubrir más tipos de imágenes. «No se acerca ni de lejos a lo que creo que debería ser, pero es un paso en la dirección correcta para proteger a las personas», dice Gibson. Si bien se han presentado varios proyectos de ley federales para criminalizar explícitamente la distribución no consentida de imágenes íntimas o pornografía deepfake en particular, Gibson dice que no tiene grandes esperanzas de que esos proyectos de ley se conviertan en ley del país. Hay más acciones a nivel estatal, dice ella. “En este momento hay 49 estados, más el Distrito de Columbia, que tienen legislación contra la distribución no consensual de imágenes íntimas”, dice Gibson. “Pero el problema es que cada estado es diferente, por lo que es un mosaico de leyes. Y algunas son significativamente mejores que otras”. Gibson señala que casi todas las leyes requieren prueba de que el perpetrador actuó con la intención de acosar o intimidar a la víctima, lo que puede ser muy difícil de probar. Entre las diferentes leyes, y las propuestas de nuevas leyes, hay un desacuerdo considerable sobre si la distribución de pornografía deepfake debe considerarse un asunto penal o civil. Y si es civil, lo que significa que las víctimas tienen derecho a demandar por daños y perjuicios, hay desacuerdo sobre si las víctimas deberían poder demandar a las personas que distribuyeron la pornografía deepfake o a las plataformas que la alojaron. Más allá de los Estados Unidos hay un mosaico aún mayor de políticas. En el Reino Unido, la Ley de Seguridad en Internet aprobada en 2023 penalizó la distribución de pornografía deepfake, y una enmienda propuesta este año puede penalizar también su creación. La Unión Europea adoptó recientemente una directiva que combate la violencia y la ciberviolencia contra las mujeres, que incluye la distribución de pornografía deepfake, pero los estados miembros tienen hasta 2027 para implementar las nuevas reglas. En Australia, una ley de 2021 convirtió en delito civil publicar imágenes íntimas sin consentimiento, pero una nueva ley propuesta tiene como objetivo convertirlo en delito penal y también pretende abordar explícitamente las imágenes deepfake. Corea del Sur tiene una ley que aborda directamente el material deepfake y, a diferencia de muchos otros, no requiere prueba de intención maliciosa. China tiene una ley integral que restringe la distribución de «contenido sintético», pero no ha habido evidencia de que el gobierno use las regulaciones para tomar medidas enérgicas contra la pornografía deepfake. Mientras las mujeres esperan una acción regulatoria, los servicios de empresas como Alecto AI y That’sMyFace pueden llenar los vacíos. Pero la situación nos recuerda a los silbatos anti-violación que algunas mujeres urbanas llevan en sus bolsos para estar listas para pedir ayuda si son atacadas en un callejón oscuro. Es útil tener una herramienta así, sin duda, pero sería mejor si nuestra sociedad tomara medidas enérgicas contra la depredación sexual en todas sus formas y tratara de asegurarse de que los ataques no ocurran en primer lugar. Artículos de su sitio Artículos relacionados en la Web

Funciona con WordPress & Tema de Anders Norén