¿Por qué el estudio se centró en X? Al equipo de investigación de la Universidad de Michigan le preocupaba que su experimento, que publicaba NCII generado por IA en X, pudiera cruzar líneas éticas. Eligieron realizar el estudio en X porque dedujeron que era «una plataforma donde no habría moderadores voluntarios y tendría poco impacto en los moderadores pagados, si los hubiera», que vieran sus imágenes de desnudos generadas por IA. El informe de transparencia de X parece sugerir que la mayoría de los desnudos no consensuados reportados son realizados por moderadores humanos, pero los investigadores informaron que su contenido marcado nunca fue procesado sin una eliminación de la DMCA. Dado que los generadores de imágenes de IA están entrenados en fotos reales, los investigadores también tomaron medidas para garantizar que el NCII generado por IA en el estudio no volviera a traumatizar a las víctimas ni representara a personas reales que podrían tropezar con las imágenes en X. «Cada imagen se probó con un plataforma de software de reconocimiento facial y varios servicios de búsqueda de imágenes inversas para verificar que no se parecía a ningún individuo existente», según el estudio. «Para el estudio sólo se seleccionaron imágenes que todas las plataformas confirmaron que no tenían ningún parecido con individuos». Estas imágenes más «éticas» se publicaron en X usando hashtags populares como #porn, #hot y #xxx, pero su alcance se limitó a evadir daños potenciales, dijeron los investigadores. «Nuestro estudio puede contribuir a una mayor transparencia en los procesos de moderación de contenidos» relacionados con el NCII «y puede incitar a las empresas de redes sociales a invertir esfuerzos adicionales para combatir los deepfake» del NCII, dijeron los investigadores. «A largo plazo, creemos que los beneficios de este estudio superan con creces los riesgos». Según los investigadores, a X se le dio tiempo para detectar y eliminar automáticamente el contenido, pero no lo hizo. Es posible, sugirió el estudio, que la decisión de X de permitir contenido explícito a partir de junio hiciera más difícil detectar NCII, como habían predicho algunos expertos. Para solucionar el problema, los investigadores sugirieron que se necesitan «una mayor responsabilidad de la plataforma» y «mecanismos legales para garantizar esa responsabilidad», al igual que mucha más investigación sobre los mecanismos de otras plataformas para eliminar NCII. «Una» ley NCII «específica debe definir claramente los derechos de las víctimas y los sobrevivientes e imponer obligaciones legales a las plataformas para actuar rápidamente en la eliminación de contenido dañino», concluyó el estudio.