Todo lo que necesitas saber sobre tecnología

Etiqueta: contenido dañino

X de Elon Musk dice que está vigilando el contenido dañino a medida que aumenta el escrutinio

X de Elon Musk dice que está vigilando el contenido dañino a medida que aumenta el escrutinio

En medio de las crecientes preocupaciones de que X se ha vuelto menos segura bajo el mando del multimillonario Elon Musk, la plataforma antes conocida como Twitter está tratando de asegurar a los anunciantes y críticos que todavía controla el acoso, el discurso de odio y otro contenido ofensivo. De enero a junio, X suspendió 5,3 millones de cuentas y eliminó o etiquetó 10,7 millones de publicaciones por violar sus reglas contra la publicación de materiales de explotación sexual infantil, acoso y otro contenido dañino, dijo la compañía en un informe de transparencia de 15 páginas publicado el miércoles. X dijo que recibió más de 224 millones de informes de usuarios durante los primeros seis meses de este año. Es la primera vez que X publica un informe formal de transparencia global desde que Musk completó su adquisición de Twitter en 2022. La compañía dijo el año pasado que estaba revisando cómo aborda los informes de transparencia, pero aún así publicó datos sobre cuántas cuentas y cuánto contenido fueron eliminados. Los problemas de seguridad han perseguido durante mucho tiempo a la plataforma de redes sociales, que se ha enfrentado a las críticas de grupos de defensa, reguladores y otros de que la empresa no hace lo suficiente para moderar el contenido dañino. Pero esos temores aumentaron después de que Musk se hiciera cargo de Twitter y despidiera a más de 6.000 personas. La publicación del informe de transparencia de X también se produce cuando los anunciantes planean recortar su gasto en la plataforma el próximo año y la compañía intensifica su batalla con los reguladores. Este año, la directora ejecutiva de X, Linda Yaccarino, dijo a los legisladores estadounidenses que la compañía estaba reestructurando sus equipos de confianza y seguridad y construyendo un centro de confianza y seguridad en Austin, Texas. Musk, quien dijo el año pasado que los anunciantes que boicoteaban su plataforma podían «irse a la mierda», también ha moderado su tono. En el Festival Internacional de Creatividad Cannes Lions de este año, dijo que «los anunciantes tienen derecho a aparecer junto al contenido que consideren compatible con sus marcas». Cuando Musk se hizo cargo de Twitter, varios cambios que realizó generaron alarmas entre los expertos en seguridad. X restableció cuentas previamente suspendidas, incluidas las de nacionalistas blancos, dejó de aplicar su política contra la desinformación sobre COVID-19 y disolvió abruptamente su Consejo de Confianza y Seguridad, un grupo asesor que incluía activistas de derechos humanos, organizaciones de seguridad infantil y otros expertos. «Todo eso se suma para crear un entorno menos seguro», dijo Stephen Balkam, fundador y director ejecutivo del Family Online Safety Institute. El grupo formaba parte del Trust and Safety Council antes de que fuera cerrado. El informe de transparencia de X es «muy opaco» y parece contradecir la imagen de Musk como «absolutista de la libertad de expresión» porque muestra que la empresa está eliminando contenido, dijo Balkam. Eirliani Abdul Rahman, cofundadora de YAKIN, abreviatura de Youth, Adult Survivors & Kin In Need, que estaba entre los miembros que renunciaron al Trust and Safety Council de Twitter, dijo que el informe era «laudatorio» pero insuficiente. «Esto sería para mí una palabrería cuando el propio propietario en realidad no cumple con las reglas», dijo Rahman. No se pudo contactar de inmediato a un portavoz de X, pero Yaccarino dijo sobre X: «Nuestro compromiso con la transparencia y la seguridad continúa». X también ha lidiado con las críticas de que se ha vuelto menos transparente bajo el liderazgo de Musk. La empresa, que antes cotizaba en bolsa, pasó a ser privada después de que Musk la comprara por 44.000 millones de dólares. El cambio significó que la plataforma de redes sociales ya no informaba públicamente sobre sus cifras trimestrales de usuarios e ingresos. El año pasado, X comenzó a cobrar por el acceso a sus datos, lo que dificultaba a los investigadores realizar estudios sobre la plataforma. La preocupación por la falta de moderación en X también ha supuesto una amenaza para su negocio publicitario. En septiembre, el Banco Mundial detuvo la publicidad paga en la plataforma después de que sus anuncios aparecieran debajo de una publicación racista. Alrededor del 25% de los anunciantes esperan reducir su gasto en X el próximo año y solo el 4% de los anunciantes cree que los anuncios de la plataforma brindan seguridad de marca, según una encuesta de la firma de investigación de mercado Kantar. Algunos de los principales problemas que los usuarios informaron sobre X involucraban publicaciones que supuestamente violaban las reglas de la plataforma sobre acoso, contenido violento y conducta de odio, según muestra el informe de transparencia de la plataforma. Musk ha dicho en X que su enfoque para hacer cumplir las reglas de la plataforma es restringir el alcance de publicaciones potencialmente ofensivas en lugar de eliminarlas. El año pasado demandó a California por una ley estatal que, según los legisladores, tiene como objetivo hacer que las redes sociales sean más transparentes debido a las preocupaciones sobre la libertad de expresión. El informe de transparencia de X muestra que aproximadamente 2,8 millones de cuentas fueron suspendidas por violar las reglas de la plataforma contra la explotación sexual infantil, lo que representa más de la mitad de los 5,3 millones de cuentas que fueron eliminadas. Pero el informe también mostró que X recurrió a etiquetar el contenido de los usuarios en algunos casos en lugar de eliminar o suspender las cuentas. X aplicó 5,4 millones de etiquetas al contenido denunciado por abuso, acoso y conducta de odio, confiando en gran medida en la tecnología automatizada. Aproximadamente 2,2 millones de piezas de contenido fueron eliminadas por violar esas reglas. Las reglas de la plataforma establecen que el sitio no permite medios que muestren imágenes de odio como la esvástica nazi en videos en vivo, biografías de cuentas, perfiles o imágenes de encabezado. Sin embargo, otros casos deben marcarse como medios sensibles. Esta semana, X también realizó cambios en una función que permite a los usuarios bloquear personas en la plataforma. Las personas a las que los usuarios han bloqueado podrán ver sus publicaciones, pero no interactuar con ellas. X también suspendió casi 464 millones de cuentas por violar sus reglas contra la manipulación de la plataforma y el spam. Musk prometió «derrotar a los robots de spam» en Twitter antes de hacerse cargo de la plataforma. El informe de la compañía incluyó una métrica llamada «tasa de violación de publicaciones» que mostró que es poco probable que los usuarios se encuentren con contenido que infrinja las reglas del sitio. Mientras tanto, X continúa enfrentando desafíos legales en varios países, incluido Brasil, cuyo Tribunal Supremo bloqueó el sitio porque Musk no cumplió con las órdenes judiciales de suspender ciertas cuentas por publicar discursos de odio. La compañía cedió a las demandas legales esta semana en un intento de ser reinstaurada. También ha estado informando datos de moderación de contenido a los reguladores en lugares como Europa e India. «Se está enfrentando a limitaciones quizás por primera vez en su carrera en relación con los problemas de contenido», dijo Balkam. “Mi única suposición es que los ejecutivos de sus empresas deben estar arrancándose los pelos mientras él pasa sus días y horas hasta la mitad de la noche usando esta plataforma para trollear a la gente”. El informe incluía el número de solicitudes que X recibe de agencias gubernamentales y policiales. La empresa recibió 18.737 solicitudes gubernamentales de información de cuentas de usuario y reveló información en aproximadamente el 53% de estos casos. Twitter comenzó a informar públicamente en 2012 el número de solicitudes gubernamentales que recibió para información de usuarios y eliminación de contenido. El primer informe de transparencia de la empresa, que incluía datos sobre avisos de eliminación de derechos de autor, llegó después de que Google comenzara a publicar dicha información en 2010. Después de que surgieran revelaciones en 2013 de que la Agencia de Seguridad Nacional tenía acceso a datos de usuarios que recopilaban Apple, Google, Facebook y otros gigantes tecnológicos, un número creciente de plataformas en línea comenzó a revelar más información sobre las solicitudes que recibían del gobierno y la policía.

Meta limitará el alcance del contenido dañino a los adolescentes en Facebook e Instagram en medio del escrutinio

Ante un mayor escrutinio sobre los efectos de sus redes sociales en los usuarios adolescentes, Meta anunció el martes que los adolescentes en Facebook e Instagram verán menos contenido relacionado con autolesiones y trastornos alimentarios. Meta ya filtra dicho contenido de los feeds que recomienda a los usuarios, como como Reels y Explore de Instagram. Pero bajo una serie de cambios que se implementarán en los próximos meses, las publicaciones e historias dañinas no se mostrarán a los adolescentes «incluso si [they’re] compartido por alguien a quien siguen”, dijo la compañía en un comunicado. Los temas dañinos incluyen el suicidio, las autolesiones, los trastornos alimentarios, los productos restringidos (incluidas armas de fuego, drogas y juguetes sexuales) y la desnudez. Otro cambio configurará automáticamente a los usuarios menores de 18 años para las configuraciones de recomendación de contenido más restrictivas, con el objetivo de hacer menos probable que los algoritmos de Meta les recomienden contenido dañino. Sin embargo, no está claro si los adolescentes podrían simplemente cambiar su configuración para eliminar las restricciones. La compañía dice que la funcionalidad de búsqueda de las aplicaciones estará limitada en consultas relacionadas con temas dañinos. En lugar de proporcionar el contenido solicitado, las aplicaciones dirigirán a los usuarios a obtener ayuda cuando busquen contenido relacionado con el suicidio, las autolesiones y los trastornos alimentarios. A los usuarios adolescentes también se les pedirá que actualicen su configuración de privacidad, según el comunicado. Los cambios son necesario para ayudar a que las “plataformas de redes sociales [into] espacios donde los adolescentes pueden conectarse y ser creativos de manera apropiada para su edad”, dijo Rachel Rodgers, profesora asociada en el Departamento de Psicología Aplicada de la Universidad Northeastern. Facebook e Instagram han sido tremendamente populares entre los adolescentes durante años. Las plataformas han despertado la preocupación de padres, expertos y funcionarios electos por los efectos en los usuarios más jóvenes, en parte por lo que ven estos usuarios y en parte por la cantidad de tiempo que pasan en las redes. El cirujano general estadounidense Vivek Murphy advirtió en mayo que debido a que los efectos de las redes sociales en niños y adolescentes eran en gran medida desconocidos, las compañías necesitaban tomar “medidas inmediatas para proteger a los niños ahora”. En octubre, California se unió a docenas de otros estados en una demanda contra Meta alegando que la compañía usaba “psicológicamente características manipuladoras del producto” para atraer a usuarios jóvenes y mantenerlos en las plataformas el mayor tiempo posible. “Meta ha aprovechado su extraordinaria innovación y tecnología para atraer a jóvenes y adolescentes a maximizar el uso de sus productos”, afirma Atty. dijo el general Rob Bonta en una conferencia de prensa en la que anunció la demanda. En noviembre, una versión no redactada de la demanda reveló una acusación de que Mark Zuckerberg vetó una propuesta para prohibir los filtros de cámara de las aplicaciones que simulan los efectos de la cirugía plástica, a pesar de las preocupaciones de que el Los filtros podrían ser perjudiciales para la salud mental de los usuarios. Después de que se publicara la denuncia no redactada, Bonta fue más enfático: «Meta sabe que lo que está haciendo es malo para los niños, punto», dijo en un comunicado, diciendo que la evidencia «está ahí». en blanco y negro, y es condenatorio”. Associated Press contribuyó a este informe.

Source link

Funciona con WordPress & Tema de Anders Norén