No fue fácil hablar sobre la violación de datos de Muah.AI. No se trata solo del material desenfrenado de abuso sexual infantil en todo el sistema (o al menos las solicitudes para que la IA genere imágenes del mismo), sino también de las reacciones de las personas ante él. Los tweets que lo justifican sobre la base de que no hubo abuso «real», la caracterización de esto como «simples pensamientos en la cabeza de alguien» y, después de mi grabación de este video, la reacción violenta de sus usuarios sobre cualquier intento de frenar la creación. La imagen sexual de niños pequeños es “demasiado”: ​​lo que hace que los clientes se sientan infelices: “cualquier censura es demasiada”: pic.twitter.com/fzfrFdKL8w — Troy Hunt (@troyhunt) 12 de octubre de 2024 La ley se pondrá al día con esto (y cualquiera que esté en esa infracción creando este tipo de material debería sentirse muy nervioso en este momento), y la escritura ya está en la pared para las personas que generan CSAM a través de IA: este proyecto de ley ampliaría el alcance de algunas de estas disposiciones para incluir materia que sea alterado digitalmente o generado mediante el uso de inteligencia artificial, según se define dicha materia. El proyecto de ley no puede aprobarse lo suficientemente pronto. Referencias Patrocinado por: Informe URI: ¡Protegiéndote de JavaScript nocivo! No se deje engañar; obtenga alertas en tiempo real y evite infracciones #SecureYourSite La filtración de datos de Muah.AI reveló un enorme volumen de solicitudes de material CSAM (pueden escucharme luchando por explicar esto adecuadamente, simplemente es difícil encontrar las palabras) Internet Archive fue vulnerado, desfigurados y sometidos a DDoS (4 días después de ese hilo de tweets, todavía están fuera de línea) National Public Data, el servicio que desvió cientos de millones de números de seguridad social y luego los expuso a todos en una violación, está muerto (ahora, ¿cómo ¿Quedan muchos más de estos?) Actualización semanal