El gigante de las redes sociales sabe que el discurso de odio es un problema. También sabe que es rentable, afirmó el domingo un antiguo empleado. PUBLICIDAD El modelo de negocios de Facebook promueve el discurso de odio, daña la democracia e incluso está «destrozando nuestras sociedades», dijo un ex gerente de producto del equipo de desinformación cívica de la compañía. Frances Haugen, quien dejó Facebook en mayo de este año, fue la denunciante que filtró datos internos de la empresa. investigación, que incluye informes que revelan el impacto de Instagram en la salud mental de las adolescentes, al Wall Street Journal el mes pasado. En declaraciones a la cadena de televisión estadounidense CBS el domingo, Haugen dijo que su experiencia trabajando para Facebook reveló una empresa que priorizaba el crecimiento sobre la fabricación de su producto. más seguro.»Lo que vi una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook», dijo Haugen al programa 60 Minutes de CBS. «Facebook optó una y otra vez por optimizar para sus propios intereses, como ganar más dinero», dijo. «Traición a la democracia» Haugen se unió a Facebook en junio de 2019, trabajando en un equipo encargado de abordar la desinformación en torno a las elecciones. , Facebook anunció una serie de medidas que, según dijo, ayudarían a conectar a los votantes con información precisa y reducirían «los riesgos de confusión postelectoral». Sin embargo, poco después de las elecciones, el equipo se disolvió. Haugen afirmó que Facebook luego revirtió muchas de las intervenciones que había implementado para limitar la difusión de información errónea. «Tan pronto como terminaron las elecciones, las apagaron o cambiaron la configuración a la que era antes, para priorizar el crecimiento sobre la seguridad», dijo Haugen. «Y eso realmente me parece una traición a la democracia». Los disturbios en el Capitolio «no son culpa nuestra», dice Facebook En la entrevista del domingo, Haugen estableció una conexión entre Facebook y los disturbios en el Capitolio de Estados Unidos el 6 de enero, cuando los partidarios del ex presidente Donald Trump irrumpieron en la sede de la legislatura estadounidense. Dijo que no confiaba en que la compañía «invirtiera lo que realmente se necesita para evitar que Facebook sea peligroso». Hablando antes de que se transmitiera la entrevista de Haugen, el vicepresidente de políticas y asuntos globales de Facebook, Nick Clegg dijo a CNN que la compañía no aceptaba que fuera uno de los principales contribuyentes a la polarización política en Estados Unidos. «La insurrección de ese día recae directamente en las personas que infligieron la violencia y en quienes la alentaron, incluido el presidente Trump», dijo Clegg. «Creo que da a la gente una falsa confianza asumir que debe haber una explicación tecnológica o técnica para los problemas de polarización política en los Estados Unidos… Es demasiado fácil decir que es culpa de Facebook». No luchar contra el odioSegún los documentos de Facebook proporcionados a CBS por Haugen, la empresa es consciente tanto de la difusión del discurso de odio en sus plataformas como de lo desafiante que representa el problema.»Nosotros Estimamos que podemos actuar tan solo entre el 3% y el 5% del odio y ~0,6% del V&I. [Violence and Incitement] en Facebook a pesar de ser el mejor del mundo en eso», decía un informe interno. PUBLICIDAD «Tenemos evidencia de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo. mundo», dijo otro. Según Haugen, solucionar el problema del discurso de odio de Facebook podría requerir más que una moderación de contenido más estricta y reglas más estrictas. «Es más fácil inspirar ira». Un cambio de 2018 en el algoritmo que decide qué contenidos se muestran a los usuarios sin darse cuenta Terminó brindando a los usuarios de Facebook información que era más probable que desencadenara una respuesta de enojo, dijo Haugen a CBS».[Facebook] está optimizando el contenido que genera interacción, una reacción», dijo. «Pero su propia investigación muestra que el contenido que es odioso, que es divisivo, que es polarizante, es más fácil inspirar a la gente a la ira que a otras emociones». .PUBLICIDADHaugen alegó que la empresa no estaba dispuesta a cambiar el algoritmo porque podría afectar los resultados del negocio. «Facebook se ha dado cuenta de que si cambian el algoritmo para que sea más seguro, las personas pasarán menos tiempo en el sitio y harán menos clic en «Nadie en Facebook es malévolo, pero los incentivos no están alineados. «Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan interactuando con cosas que provocan una reacción emocional, y cuanto más ira se exponen, más interactúan y más consumen».

Source link