Todo lo que necesitas saber sobre tecnología

Etiqueta: material de abuso sexual infantil

Los generadores de imágenes de IA crean material sobre abuso sexual infantil (CSAM)

Los generadores de imágenes de IA crean material sobre abuso sexual infantil (CSAM)

¿Por qué las empresas de inteligencia artificial, valoradas en millones y miles de millones de dólares, crean y distribuyen herramientas que pueden generar material de abuso sexual infantil (CSAM) generado por IA? Un generador de imágenes llamado Stable Diffusion versión 1.5, creado por la empresa de inteligencia artificial Runway con financiación de Stability AI, ha estado particularmente implicado en la producción de CSAM. Y plataformas populares como Hugging Face y Civitai han estado alojando ese modelo y otros que pueden haber sido entrenados con imágenes reales de abuso sexual infantil. En algunos casos, las empresas pueden incluso estar infringiendo leyes al alojar material sintético de CSAM en sus servidores. ¿Y por qué las empresas e inversores tradicionales como Google, Nvidia, Intel, Salesforce y Andreesen Horowitz están invirtiendo cientos de millones de dólares en estas empresas? Su apoyo equivale a subvencionar contenido para pedófilos. Como expertos en seguridad de la inteligencia artificial, hemos estado haciendo estas preguntas para denunciar a estas empresas y presionarlas para que tomen las medidas correctivas que describimos a continuación. Y hoy nos complace informar de un gran triunfo: aparentemente en respuesta a nuestras preguntas, la versión 1.5 de Stable Diffusion ha sido eliminada de Hugging Face. Pero todavía queda mucho por hacer, y es posible que para lograr avances significativos se requiera legislación. El alcance del problema del abuso sexual infantil Los defensores de la seguridad infantil comenzaron a hacer sonar la alarma el año pasado: los investigadores del Observatorio de Internet de Stanford y la organización tecnológica sin fines de lucro Thorn publicaron un informe preocupante en junio de 2023. Descubrieron que las herramientas de generación de imágenes de IA ampliamente disponibles y de «código abierto» ya estaban siendo mal utilizadas por actores maliciosos para crear material de abuso sexual infantil. En algunos casos, los actores maliciosos estaban creando sus propias versiones personalizadas de estos modelos (un proceso conocido como ajuste fino) con material real de abuso sexual infantil para generar imágenes a medida de víctimas específicas. El pasado mes de octubre, un informe de la organización sin fines de lucro británica Internet Watch Foundation (que gestiona una línea directa para denuncias de material de abuso sexual infantil) detallaba la facilidad con la que los actores maliciosos están creando ahora material de abuso sexual infantil fotorrealista generado por IA, a gran escala. Los investigadores incluyeron un estudio de «instantánea» de un foro de CSAM en la dark web, analizando más de 11.000 imágenes generadas por IA publicadas en un período de un mes; de ellas, casi 3.000 fueron juzgadas lo suficientemente graves como para ser clasificadas como criminales. El informe instó a una supervisión regulatoria más fuerte de los modelos de IA generativos. Los modelos de IA se pueden utilizar para crear este material porque han visto ejemplos antes. Los investigadores de Stanford descubrieron en diciembre pasado que uno de los conjuntos de datos más importantes utilizados para entrenar modelos de generación de imágenes incluía miles de piezas de CSAM. Muchos de los generadores de imágenes de IA de código abierto descargables más populares, incluido el popular modelo Stable Diffusion versión 1.5, se entrenaron utilizando estos datos. Esa versión de Stable Diffusion fue creada por Runway, aunque Stability AI pagó por la potencia informática para producir el conjunto de datos y entrenar el modelo, y Stability AI lanzó las versiones posteriores. Runway no respondió a una solicitud de comentarios. Un portavoz de Stability AI enfatizó que la compañía no lanzó ni mantuvo la versión 1.5 de Stable Diffusion, y dice que la compañía ha «implementado salvaguardas sólidas» contra el CSAM en modelos posteriores, incluido el uso de conjuntos de datos filtrados para el entrenamiento. También en diciembre pasado, los investigadores de la firma de análisis de redes sociales Graphika encontraron una proliferación de docenas de servicios de «desnudez», muchos basados ​​en generadores de imágenes de IA de código abierto, probablemente incluido Stable Diffusion. Estos servicios permiten a los usuarios cargar fotos de personas vestidas y producir lo que los expertos denominan imágenes íntimas no consensuales (NCII) de menores y adultos, también conocidas a veces como pornografía deepfake. Estos sitios web se pueden encontrar fácilmente a través de búsquedas de Google, y los usuarios pueden pagar los servicios con tarjetas de crédito en línea. Muchos de estos servicios solo funcionan con mujeres y niñas, y este tipo de herramientas se han utilizado para apuntar a celebridades femeninas como Taylor Swift y políticas como la representante estadounidense Alexandria Ocasio-Cortez. El CSAM generado por IA tiene efectos reales. El ecosistema de seguridad infantil ya está sobrecargado, con millones de archivos de presunto CSAM reportados a las líneas directas anualmente. Cualquier cosa que se sume a ese torrente de contenido, especialmente material de abuso fotorrealista, hace que sea más difícil encontrar a los niños que están activamente en peligro. Para empeorar las cosas, algunos actores maliciosos están utilizando CSAM existente para generar imágenes sintéticas de estos sobrevivientes, una horrible nueva violación de sus derechos. Otros están utilizando las aplicaciones de «desnudez» fácilmente disponibles para crear contenido sexual a partir de imágenes benignas de niños reales, y luego usan ese contenido recién generado en esquemas de extorsión sexual. Una victoria contra el CSAM generado por IA Según la investigación de Stanford del pasado mes de diciembre, es bien sabido en la comunidad de IA que Stable Diffusion 1.5 fue entrenado con material de abuso sexual infantil, al igual que todos los demás modelos entrenados con el conjunto de datos LAION-5B. Estos modelos están siendo mal utilizados activamente por actores maliciosos para hacer CSAM generado por IA. E incluso cuando se utilizan para generar material más benigno, su uso revictimiza inherentemente a los niños cuyas imágenes de abuso se incluyeron en sus datos de entrenamiento. Por eso, preguntamos a las populares plataformas de alojamiento de IA Hugging Face y Civitai por qué alojaban Stable Diffusion 1.5 y modelos derivados, poniéndolos a disposición para su descarga gratuita. Vale la pena señalar que Jeff Allen, un científico de datos del Integrity Institute, descubrió que Stable Diffusion 1.5 se descargó de Hugging Face más de 6 millones de veces en el último mes, lo que lo convierte en el generador de imágenes de IA más popular de la plataforma. Cuando le preguntamos a Hugging Face por qué ha seguido alojando el modelo, la portavoz de la empresa, Brigitte Tousignant, no respondió directamente a la pregunta, sino que afirmó que la empresa no tolera el CSAM en su plataforma, que incorpora una variedad de herramientas de seguridad y que alienta a la comunidad a utilizar el modelo Safe Stable Diffusion que identifica y suprime las imágenes inapropiadas. Luego, ayer, verificamos Hugging Face y descubrimos que Stable Diffusion 1.5 ya no está disponible. Tousignant nos dijo que Hugging Face no lo eliminó y sugirió que nos comunicáramos con Runway, lo cual hicimos, nuevamente, pero aún no hemos recibido una respuesta. Sin duda, es un éxito que este modelo ya no esté disponible para descargar desde Hugging Face. Desafortunadamente, todavía está disponible en Civitai, al igual que cientos de modelos derivados. Cuando nos comunicamos con Civitai, un portavoz nos dijo que no tienen conocimiento de qué datos de entrenamiento usó Stable Diffusion 1.5 y que solo lo eliminarían si hubiera evidencia de mal uso. Las plataformas deberían estar nerviosas por su responsabilidad. La semana pasada se produjo el arresto de Pavel Durov, director ejecutivo de la aplicación de mensajería Telegram, como parte de una investigación relacionada con CSAM y otros delitos. ¿Qué se está haciendo con el CSAM generado por IA? El constante ritmo de informes y noticias inquietantes sobre CSAM generado por IA y NCII no ha disminuido. Si bien algunas empresas están tratando de mejorar la seguridad de sus productos con la ayuda de Tech Coalition, ¿qué progreso hemos visto en el tema más amplio? En abril, Thorn y All Tech Is Human anunciaron una iniciativa para reunir a las principales empresas de tecnología, desarrolladores de IA generativa, plataformas de alojamiento de modelos y más para definir y comprometerse con los principios de seguridad por diseño, que colocan la prevención del abuso sexual infantil en el centro del proceso de desarrollo de productos. Diez empresas (incluidas Amazon, Civitai, Google, Meta, Microsoft, OpenAI y Stability AI) se comprometieron con estos principios, y varias otras se unieron para coescribir un documento relacionado con mitigaciones recomendadas más detalladas. Los principios instan a las empresas a desarrollar, implementar y mantener modelos de IA que aborden de manera proactiva los riesgos de seguridad infantil; a construir sistemas para garantizar que cualquier material de abuso que se produzca se detecte de manera confiable; y a limitar la distribución de los modelos y servicios subyacentes que se utilizan para producir este material de abuso. Este tipo de compromisos voluntarios son un comienzo. Rebecca Portnoff, directora de ciencia de datos de Thorn, dice que la iniciativa busca la rendición de cuentas al exigir a las empresas que emitan informes sobre su progreso en los pasos de mitigación. También está colaborando con instituciones que establecen estándares como IEEE y NIST para integrar sus esfuerzos en estándares nuevos y existentes, abriendo la puerta a auditorías de terceros que «dejarían de lado el sistema de honor», dice Portnoff. Portnoff también señala que Thorn está trabajando con los responsables de las políticas para ayudarlos a concebir una legislación que sea técnicamente factible e impactante. De hecho, muchos expertos dicen que es hora de ir más allá de los compromisos voluntarios. Creemos que actualmente se está llevando a cabo una carrera temeraria hacia el abismo en la industria de la IA. Las empresas luchan tan furiosamente por estar técnicamente a la cabeza que muchas de ellas ignoran las consecuencias éticas y posiblemente incluso legales de sus productos. Si bien algunos gobiernos, incluida la Unión Europea, están avanzando en la regulación de la IA, no han ido lo suficientemente lejos. Si, por ejemplo, las leyes hicieran ilegal proporcionar sistemas de IA que puedan producir material sexualmente degradante, las empresas tecnológicas podrían tomar nota. La realidad es que, si bien algunas empresas cumplirán con los compromisos voluntarios, muchas no lo harán. Y de los que lo hagan, muchos lo harán con demasiada lentitud, ya sea porque no están preparados o porque les cuesta mantener su ventaja competitiva. Mientras tanto, los actores maliciosos gravitarán hacia esos servicios y causarán estragos. Ese resultado es inaceptable. Lo que las empresas tecnológicas deberían hacer con el CSAM generado por IA Los expertos vieron venir este problema a una milla de distancia, y los defensores de la seguridad infantil han recomendado estrategias de sentido común para combatirlo. Si perdemos esta oportunidad de hacer algo para solucionar la situación, todos asumiremos la responsabilidad. Como mínimo, todas las empresas, incluidas las que lanzan modelos de código abierto, deberían estar obligadas legalmente a seguir los compromisos establecidos en los principios de seguridad por diseño de Thorn: detectar, eliminar y denunciar el CSAM de sus conjuntos de datos de entrenamiento antes de entrenar sus modelos de IA generativos. Incorporar marcas de agua robustas y sistemas de procedencia de contenido en sus modelos de IA generativos para que las imágenes generadas puedan vincularse a los modelos que las crearon, como se exigiría en virtud de un proyecto de ley de California que crearía estándares de procedencia de contenido digital para las empresas que hacen negocios en el estado. El proyecto de ley probablemente se presentará para la firma del gobernador Gavin Newson en el mes próximo. Eliminar de sus plataformas cualquier modelo de IA generativa que se sepa que está entrenado en CSAM o que es capaz de producir CSAM. Negarse a volver a alojar estos modelos a menos que hayan sido completamente reconstituidos con el CSAM eliminado. Identificar los modelos que han sido ajustados intencionalmente en CSAM y eliminarlos permanentemente de sus plataformas. Eliminar las aplicaciones «desnudistas» de las tiendas de aplicaciones, bloquear los resultados de búsqueda para estas herramientas y servicios, y trabajar con los proveedores de pagos para bloquear los pagos a sus creadores. No hay ninguna razón por la que la IA generativa necesite ayudar e incitar al horrible abuso de los niños. Pero necesitaremos todas las herramientas a mano (compromisos voluntarios, regulación y presión pública) para cambiar el rumbo y detener la carrera hacia el abismo. Los autores agradecen a Rebecca Portnoff de Thorn, David Thiel del Observatorio de Internet de Stanford, Jeff Allen del Instituto de Integridad, Ravit Dotan de TechBetter y al investigador de políticas tecnológicas Owen Doyle por su ayuda con este artículo. Artículos de su sitio Artículos relacionados en la Web

Legisladores de California aprueban medida para combatir el material de abuso sexual infantil en las redes sociales

Los legisladores de California aprobaron el miércoles un proyecto de ley destinado a combatir el material de abuso sexual infantil en plataformas de redes sociales como Facebook, Snapchat y TikTok. La legislación, el Proyecto de Ley 1394, responsabilizaría a las empresas de redes sociales por no eliminar el contenido, que incluye pornografía infantil. y otro material obsceno que representa a niños. “El objetivo del proyecto de ley es poner fin a la práctica de que las redes sociales sean una autopista para materiales de abuso sexual infantil”, dijo en una entrevista la asambleísta Buffy Wicks (demócrata por Oakland), autora de la legislación. El proyecto de ley fue aprobado por unanimidad en el Senado el martes. La Asamblea aprobó por unanimidad una versión enmendada del proyecto de ley el miércoles y ahora se dirige al escritorio del gobernador para su consideración. Los esfuerzos para aprobar un paquete de proyectos de ley para hacer que las redes sociales sean más seguras para los jóvenes enfrentaron una dura oposición de grupos de la industria tecnológica como TechNet y NetChoice. que temían que la legislación llevara a que las plataformas fueran demasiado cautelosas y eliminaran contenido más legal. Los grupos de seguridad infantil se enfrentaron con las empresas de tecnología por las enmiendas propuestas al proyecto de ley que temían que facilitarían que las plataformas de redes sociales evitaran la responsabilidad por no eliminar materiales de abuso sexual infantil. Wicks hizo cambios al proyecto de ley la semana pasada, retrasando la fecha en que entraría en vigor hasta enero de 2025. Las enmiendas también dan a las empresas de redes sociales más tiempo para responder a un informe sobre material de abuso sexual infantil y una forma de pagar una multa más baja si cumplen con los requisitos. ciertos requisitos. Los grupos tecnológicos, incluidos NetChoice y TechNet, aún se opusieron al proyecto de ley después de que Wicks hiciera enmiendas, diciendo a los legisladores que aún enfrentaría desafíos legales en los tribunales. Los grupos, junto con organizaciones empresariales como la Cámara de Comercio de California, instaron a los legisladores a retrasar la aprobación del proyecto de ley hasta el próximo año. “El proyecto de ley impreso no da en el blanco y seguramente resultará en un litigio”, dijeron los grupos en una alerta enviada a los legisladores. Otra legislación dirigida a las plataformas de redes sociales desapareció a principios de este mes, lo que subraya el rechazo que enfrentan los legisladores por parte de las empresas de tecnología. La batalla se ha extendido más allá de la Legislatura de California y ha llegado a los tribunales. Los legisladores aprobaron una legislación sobre seguridad infantil en línea en 2022, pero grupos como NetChoice han demandado al estado para impedir que la ley entre en vigor. X, anteriormente Twitter, demandó a California la semana pasada por una ley que tenía como objetivo hacer que las plataformas de redes sociales sean más transparentes sobre cómo moderan el contenido. Wicks dijo que confía en que su proyecto de ley resistirá cualquier posible desafío legal. “Estas empresas saben que tienen que asumir un papel más proactivo para ser parte de la solución al problema”, dijo. “Este proyecto de ley va a forzar esa conversación y la requerirá”. Según el proyecto de ley, las empresas de redes sociales tendrían prohibido “facilitar, ayudar o incitar a sabiendas a la explotación sexual comercial”. Se requeriría que un tribunal otorgara daños y perjuicios entre $1 millón y $4 millones por cada acto de explotación que la plataforma de redes sociales «facilitó, ayudó o instigó». abusar del material en el que aparecen representados y responder al informe dentro de las 36 horas. Se requeriría que la plataforma bloqueara permanentemente la visualización del material. Si la empresa no lo hiciera, sería responsable de los daños y perjuicios. Las empresas de redes sociales podrían recibir una multa de hasta 250.000 dólares por infracción. La multa se reduciría a $75,000 por infracción si cumplen ciertos requisitos, incluida la denuncia del material de abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y la participación en un programa llamado “Take It Down” que ayuda a los menores a derribar imágenes sexualmente explícitas y fotografías de desnudos. El programa asigna una huella digital a la imagen o video denunciado para que las plataformas puedan encontrar materiales de abuso sexual infantil. Según la versión enmendada del proyecto de ley, tendrían 36 horas para retirar los materiales después de recibir esta huella digital del NCMEC. La ley federal ya exige que las empresas informen material de abuso sexual infantil al NCMEC y las principales plataformas en línea, incluidas Facebook, Instagram, Snap y TikTok, participan en el programa Take It Down.

Source link

Newsom firma ley sobre material de abuso sexual infantil en las redes sociales

El gobernador de California, Gavin Newsom, firmó el domingo un proyecto de ley que responsabilizaría a Instagram, TikTok y otras plataformas de redes sociales, propiedad de Facebook, por no combatir la difusión de materiales de abuso sexual infantil. Según la nueva ley, el Proyecto de Ley 1394 de la Asamblea, las redes sociales A partir de enero de 2025, las plataformas tendrán prohibido “facilitar, ayudar o instigar a sabiendas la explotación sexual comercial”. Se requeriría que un tribunal otorgara daños y perjuicios entre $ 1 millón y $ 4 millones por cada acto de explotación que una plataforma de redes sociales «facilitó, ayudó o instigó». Las plataformas podrían evitar demandas al realizar auditorías semestrales para detectar diseños, algoritmos y características potencialmente dañinos y solucionar cualquier problema. AB 1394 también requiere que las plataformas de redes sociales brinden a los usuarios de California una forma de denunciar el material de abuso sexual infantil en el que aparecen y responder al mismo. el informe en un plazo de 36 horas. Si no cumplieran con ciertos requisitos, como bloquear permanentemente la visualización del material, también serían responsables de los daños y perjuicios. La firma del proyecto de ley es una victoria para los defensores de la seguridad infantil que impulsaron la legislación en medio de una dura oposición de los grupos tecnológicos que instaron a los legisladores a retrasar su aprobación un año más. La asambleísta Buffy Wicks (D-Oakland), autora del proyecto de ley, y los defensores de la seguridad infantil aplaudieron a Newsom por firmar la legislación. “Esta ley subraya la dedicación de nuestro estado a defender a los más vulnerables entre nosotros y envía un mensaje rotundo mensaje a otros estados y plataformas tecnológicas de que el uso de Internet para explotar a los niños ya no quedará sin control”, dijo Wicks en un comunicado el lunes. Common Sense Media, una organización sin fines de lucro que aboga por la seguridad infantil en línea, dijo en un comunicado que la “autosuficiencia inadecuada «La vigilancia» de los materiales de abuso sexual infantil por parte de las empresas de redes sociales ha perjudicado a los jóvenes y sus familias. «Tenemos más trabajo por hacer para responsabilizar a las plataformas de redes sociales por los daños que causan a los niños, adolescentes y sus familias, pero hoy la firma de AB 1394 es un paso importante en la dirección correcta”, dijo Jim Steyer, fundador y director ejecutivo de Common Sense Media, que copatrocinó el proyecto de ley. Los grupos de defensa de la industria NetChoice y TechNet se opusieron a la legislación, afirmando que tendría un “efecto paralizador” sobre la libertad de expresión porque las plataformas tecnológicas podrían terminar eliminando más contenido legal o deshabilitando funciones populares entre los adolescentes. Los grupos no han dicho si planeaban demandar por la AB 1394, pero señalaron a los legisladores que podrían surgir desafíos legales. NetChoice y Technet no respondieron a una solicitud de comentarios enviada el domingo por la noche. California ya enfrenta demandas por legislación dirigida a plataformas en línea. X, anteriormente conocida como Twitter, demandó a California por una ley que requeriría que las empresas de redes sociales revelen sus políticas de moderación de contenido y proporcionen un informe al fiscal general de California. En septiembre, un juez federal también bloqueó temporalmente un proyecto de ley de seguridad infantil en línea después de que NetChoice, un grupo cuyos miembros incluyen a la empresa matriz de Facebook, Meta, Google y TikTok, presentara una demanda contra California. El material de abuso sexual infantil ha sido un problema constante para los sitios en línea. Las plataformas de redes sociales toman medidas contra millones de contenidos de explotación sexual infantil cada trimestre. Según la ley federal, deben informar el contenido al Centro Nacional para Niños Desaparecidos y Explotados. De abril a junio, Facebook tomó medidas contra 7,2 millones de contenidos que violaban sus normas contra la explotación sexual infantil, según datos reportados trimestralmente por la empresa. Durante ese mismo período, Instagram, propiedad de Facebook, tomó medidas contra 1,7 millones de contenidos que ponían en peligro a los niños.

Source link

Funciona con WordPress & Tema de Anders Norén