En la semana posterior a la insurrección del 6 de enero de 2021, Twitter suspendió unas 70.000 cuentas asociadas con el movimiento radicalizado de derecha QAnon, citando su papel en la difusión de información errónea que estaba alimentando la violencia en el mundo real. Un nuevo estudio encuentra que la medida tuvo un impacto inmediato y generalizado en la difusión general de información falsa en el sitio de redes sociales, que desde entonces fue comprado por Elon Musk y rebautizado como X. El estudio, publicado en la revista Nature el martes, sugiere que si las empresas de redes sociales quieren reducir la información errónea , prohibir a los propagadores habituales puede ser más efectivo que tratar de suprimir publicaciones individuales. La suspensión masiva redujo significativamente el intercambio de enlaces a sitios web de “baja credibilidad” entre los usuarios de Twitter que seguían las cuentas suspendidas. También llevó a otros proveedores de información errónea a abandonar el sitio voluntariamente. La moderación del contenido de las redes sociales ha caído en desgracia en algunos círculos, especialmente en X, donde Musk ha restablecido numerosas cuentas prohibidas, incluida la del ex presidente Donald Trump. Pero a medida que se acercan las elecciones de 2024, el estudio muestra que es posible frenar la propagación de mentiras en línea, si las plataformas tienen la voluntad de hacerlo. «Hubo un efecto indirecto», dijo Kevin M. Esterling, profesor de política. ciencia y políticas públicas de la Universidad de California en Riverside y coautor del estudio. «No fue solo una reducción de los propios usuarios sin plataforma, sino que redujo la circulación en la plataforma en su conjunto». DEJE ATRAPAR Historias resumidas para mantenerse informado rápidamente Twitter también suspendió a Trump el 8 de enero de 2021, citando el riesgo. que sus tweets podrían incitar a más violencia, una medida que pronto siguieron Facebook y YouTube. Si bien suspender a Trump puede haber reducido la desinformación por sí solo, los hallazgos del estudio se mantienen incluso si se elimina su relato de la ecuación, dijo el coautor David Lazer, profesor de ciencias políticas y ciencias de la información y la computación en la Universidad Northeastern. El estudio se basó en una muestra de unos 500.000 usuarios de Twitter que estaban activos en ese momento. Se centró en particular en 44.734 de los usuarios que habían tuiteado al menos un enlace a un sitio web incluido en listas de noticias falsas o fuentes de noticias de baja credibilidad. De esos usuarios, los que seguían cuentas prohibidas en la purga de QAnon tenían menos probabilidades de compartir dichos enlaces después de la eliminación de la plataforma que aquellos que no las seguían. Algunos de los sitios web que el estudio consideró de baja calidad fueron Gateway Pundit, Breitbart y Judicial. Mirar. Los otros coautores del estudio fueron Stefan McCabe de la Universidad George Washington, Diogo Ferrari de la Universidad de California en Riverside y Jon Green de la Universidad de Duke. Musk ha promocionado la función de verificación de datos «Notas de la comunidad» de X como una alternativa para hacer cumplir las reglas de expresión en línea. Ha dicho que prefiere limitar el alcance de las publicaciones problemáticas en lugar de eliminarlas o prohibir cuentas por completo. Un estudio publicado el año pasado en la revista Science Advances encontró que los intentos de eliminar contenido antivacunas en Facebook no redujeron la interacción general con él. en la plataforma. Tratar de moderar la información errónea dirigiéndose a publicaciones específicas es “como poner el dedo en un dique”, dijo Esterling. Debido a que hay tantos, en el momento en que se suprime o elimina uno, es posible que ya haya sido visto por millones. Lazer agregó: «No estoy defendiendo la eliminación de plataformas, pero tiene una eficacia potencial en el sentido de que identificar a las personas que Quienes comparten repetidamente información errónea es mucho más fácil que perseguir contenidos individuales”. Aún no está claro si la información errónea es un factor importante de las actitudes políticas o los resultados electorales. Otro artículo publicado en Nature el martes sostiene que la mayoría de los usuarios de las redes sociales en realidad no ven mucha información errónea, sino que «se concentra en un grupo estrecho con fuertes motivaciones para buscar dicha información». Lazer estuvo de acuerdo en que la información errónea tiende a concentrarse. en un “barrio sórdido” de plataformas en línea más grandes, en lugar de impregnar “toda la ciudad”. Pero, añadió, esos grupos marginales “a veces se reúnen y asaltan el Capitolio”. Anika Collier Navaroli, investigadora principal del Tow Center for Digital Journalism de Columbia y ex funcionaria de alto rango de políticas de Twitter, dijo que los hallazgos respaldan el argumento que intentó presentar para Líderes de Twitter en ese momento. Navaroli señaló que la compañía había compilado la lista de cuentas no afiliadas a QA antes del 6 de enero. “Ya sabíamos quiénes eran”, dijo. “La gente sólo necesitaba morir para que el daño fuera [seen as] real.»