Los algoritmos de redes sociales están empujando contenido pornográfico no solicitado a los alimentos para niños, según un informe del comisionado de niños. Los datos se recopilaron antes de la implementación de la Ley de Seguridad en línea, pero proporciona una instantánea sobre los tipos de contenido dañino que los niños muestran y acceden en línea, y cómo ese contenido los afecta. Según el informe, el 70% de los encuestados, cuyas edades tenían entre 16 y 21 años, habían visto pornografía, con el informe promedio de los niños que habían visto este tipo de contenido a la edad de 13 años, y más de una cuarta parte de la edad de 11. Según el informe, X (anteriormente conocido como Twitter) era la plataforma más grande donde los niños se encontraron con pornografía, con el 45% de los encuestados, lo que hace que sea más probable que los niños encuentren pornografía allí que en sitios web pornográficos dedicados. Otras compañías de redes sociales son populares entre los niños también aparecen en la encuesta con lo que el informe dice que es «sobre la frecuencia». Estos incluyen: Snapchat (29%), Instagram (23%), Tiktok (22%) y YouTube (15%). Sorprendentemente, el 59% informó haber visto la pornografía en línea por accidente, que es superior al 38% en 2023. Mark Jones, un socio legal de Payne Hick Beach, dijo que «los niños están viendo contenido dañino debido a los algoritmos utilizados por las plataformas, en lugar de buscarlo activamente en sí mismos». Contenido dañino Jones, quien forma parte del departamento de resolución de disputas, y representa a individuos y corporaciones, agregó: «Según la Ley de Seguridad en línea y las tareas de seguridad infantil, se requieren plataformas para evitar que sus algoritmos recomenden contenido nocivo. Esto, junto con las medidas de garantía de edad, tiene como objetivo proteger a los niños en el mundo en línea. Los algoritmos deberían filtrar el contenido perjudicial de alcanzar el contenido perjudicial de alcanzar a los niños en el primer lugar». «.» El informe respalda activamente la introducción de las medidas de verificación de la nueva era de Ofcom y la implementación del Código de Niños, que requiere que los sitios web de redes sociales realicen cambios para evitar que los niños vean este tipo de contenido dañino. «El Código de Niños entró en vigor desde el 25 de julio de 2025», dijo Jones. «Será interesante ver qué cambios, si los hay, se ven en esta área. En particular, si las plataformas están moderando efectivamente el contenido y ya no usan algoritmos tóxicos para filtrar contenido dañino accediendo por los niños». Además, el informe enfatiza que la mayoría del contenido pornográfico visto por los encuestados representaba actos que son ilegales bajo las leyes de pornografía existentes. Por ejemplo, el 58% de los encuestados había visto porno que representa el estrangulamiento cuando tenían menos de 18 años. Además, el 44% informó haber visto una representación de violación. El informe enfatiza que esto tiene un efecto perjudicial en las interacciones de los niños entre sí, lo que afecta sus expectativas en torno al sexo y la imagen corporal. Un portavoz del Comisionado de Niños le dijo a Computer Weekly que el vínculo entre la exposición a la pornografía y el daño causado al comportamiento de los niños fue muy significativo en función del autoinforme directo de estos niños. «Los niños han dicho al comisionado de los niños que esperan experimentar violencia en una relación, o que esperan que sus primeras interacciones de naturaleza sexual sean como lo que están viendo en la pornografía, porque eso es a lo que están expuestos», dijeron. La representación de las mujeres particularmente preocupantes es la representación de las mujeres, que se muestran más comúnmente en el extremo receptor de actos sexualmente agresivos que los hombres, lo que el informe encuentra conduce a percepciones violentas del sexo que se dirige a las mujeres. El portavoz dice que la comisión encontró a través de encuestas e investigaciones particularmente para las niñas, que habían visto una pornografía violenta, sus propias representaciones de consentimiento se nublaron. «Las niñas que han visto pornografía tenían mucho más probabilidades de estar de acuerdo con la declaración de que las niñas que dicen ‘no’ pueden ser persuadidas para tener relaciones sexuales», dijeron. «Entonces, podrían decir ‘no’ para empezar, pero ahora esperan ser persuadidos de otra manera. La idea de consentimiento que ha sido consagrado en nuestro sistema educativo a través de la educación sexual y la educación de las relaciones, en los últimos 10 a 15 años parece estar en un terreno rocoso». Si bien las redes sociales se presentan como el primer punto de contacto para muchos de estos niños, el comisionado de niños reiteró que los algoritmos no son necesariamente malvados, sino que las empresas tecnológicas no están optimizando sus motores de búsqueda para eliminar este contenido de los niños. «Las compañías tecnológicas saben quiénes son sus jóvenes usuarios», dijo el portavoz. «Tienen la capacidad de reconocer y monitorear la actividad del usuario. Debe haber un mayor enfoque y menos ambigüedad sobre a quién dirige ese contenido algorítmico si es un usuario joven. Simplemente debe detenerse antes de que incluso llegue a su feed, o debe haber una forma mucho más estricta de mantenerlos fuera del sitio, y todavía debe verlo con sitios como X.» El informe recomienda que se haga pornografía en línea para cumplir con los mismos requisitos de contenido que la pornografía fuera de línea, de modo que la representación del estrangulamiento no fatal se prohiba. También exige que el gobierno explore opciones que impiden que los niños usen redes privadas virtuales (VPN) para evitar las regulaciones de la Ley de Seguridad en línea y financiar aún más las escuelas para implementar el plan de estudios de nuevas relaciones, salud y educación sexual (RHSE), incluida una campaña de reclutamiento para maestros especialistas RHSE. «Esto tiene que ser un punto de referencia contra el éxito de la Ley de Seguridad en línea. Repetiremos esta encuesta nuevamente el próximo año para ver si hay algún cambio significativo en a qué pueden acceder los niños», agregó el informe. El regulador de comunicaciones, Ofcom, no ha respondido directamente a los hallazgos del informe, pero ha declarado previamente que: «Las empresas tecnológicas deben introducir controles de edad para evitar que los niños accedan a la pornografía, la autolesión, el contenido de trastorno suicida y la alimentación» y «esperan iniciar cualquier investigación en servicios individuales» que no cumplan con el cumplimiento. Ha habido varias llamadas para implementar una regulación más estricta en los algoritmos de las redes sociales, que, según los informes, han alimentado la información errónea y otro contenido dañino. El Comité de Ciencia, Innovación y Tecnología de los Comunes había atribuido previamente la propagación de la información errónea a los algoritmos que priorizan los modelos comerciales basados en la publicidad y la participación para generar ingresos, sin implementar herramientas en sus sistemas para depilar a contenido perjudicial. Los algoritmos funcionan basados en modelos de inteligencia artificial de aprendizaje automático y pueden desarrollar sesgos, priorizando contenido impactante que genera clics. Esta tecnología en sí misma puede reutilizarse para reforzar los resultados sociales positivos y eliminar el contenido dañino de ser mostrado a los usuarios.
Deja una respuesta