Comenta esta historiaComentarAgregar a tus historias guardadasGuardarDurante años, Meta promocionó sus esfuerzos para reclutar y retener a usuarios más jóvenes, mientras acudían en masa a aplicaciones de redes sociales competidoras como Snapchat y TikTok. Este impulso para los usuarios jóvenes no se vio disuadido incluso después de que una coalición de fiscales generales estatales lanzara una investigación para examinar el impacto de las redes sociales de la compañía en la salud mental de los jóvenes. Pero dentro de Meta, los servicios diseñados para atraer a niños y adolescentes a menudo estuvieron plagados de debates espinosos. , mientras el personal se enfrentaba sobre la mejor manera de fomentar el crecimiento y al mismo tiempo proteger a los jóvenes vulnerables, según documentos internos vistos por The Washington Post y empleados actuales y anteriores, algunos de los cuales hablaron bajo condición de anonimato para describir asuntos internos. medir y responder a los problemas que consideraban perjudiciales, pero que no violaban las reglas de la empresa, se vieron frustrados. En ocasiones, los líderes de las empresas no respondieron a sus preocupaciones de seguridad o rechazaron propuestas que, según ellos, perjudicarían el crecimiento de los usuarios. La compañía también ha reducido o descentralizado equipos dedicados a proteger a los usuarios de todas las edades de contenidos problemáticos. La disputa interna sobre cómo atraer a los niños a las redes sociales de forma segura volverá a ser el centro de atención el martes cuando un ex líder senior de ingeniería y productos de Meta testifique durante una Audiencia en el Senado sobre la conexión entre las redes sociales y la salud mental de los adolescentes. Se espera que Arturo Béjar testifique ante un subcomité judicial del Senado sobre cómo los intentos de convencer a altos líderes, incluido el director ejecutivo de Meta, Mark Zuckerberg, para que adoptaran lo que él considera acciones más audaces fueron en gran medida rechazados. 41 estados demandan a Meta, alegando que Instagram y Facebook son adictivos y dañan a los niños. «Creo que estamos enfrentando un problema urgente: la cantidad de experiencias dañinas que tienen los niños de 13 a 15 años en las redes sociales es realmente significativa», dijo Béjar. “Si supieras en la escuela a la que ibas a enviar a tus hijos que las tasas de intimidación, acoso o insinuaciones sexuales no deseadas eran las que figuraban en mi correo electrónico a Mark Zuckerberg, no creo que enviarías a tus hijos a la escuela. «El portavoz de Meta, Andy Stone, dijo en un comunicado que cada día «innumerables personas dentro y fuera de Meta están trabajando para ayudar a mantener seguros a los jóvenes en línea». «Trabajando con padres y expertos, también hemos introducido más de 30 herramientas para apoyar a los adolescentes. y sus familias a tener experiencias seguras y positivas en línea”, dijo Stone. «Todo este trabajo continúa». El impacto de Instagram y Facebook en niños y adolescentes está bajo un escrutinio sin precedentes luego de acciones legales por parte de 41 estados y DC, que alegan que Meta incorporó características adictivas en sus aplicaciones, y una serie de demandas de padres y distritos escolares que acusan plataformas de desempeñar un papel fundamental en la exacerbación de la crisis de salud mental de los adolescentes. En medio de esta protesta, Meta ha seguido persiguiendo a los usuarios jóvenes. Más recientemente, Meta redujo el límite de edad para sus languidecientes productos de realidad virtual, reduciendo la edad mínima para su aplicación social Horizon Worlds a 13 años y sus auriculares Quest VR a 10. Zuckerberg anunció un plan para rediseñar la compañía para los jóvenes en octubre de 2021. describiendo un cambio que duró años para “hacer del servicio a los adultos jóvenes su estrella del norte”. Este interés surgió cuando los jóvenes huían del sitio. Los investigadores y líderes de productos dentro de la empresa produjeron informes detallados que analizan los problemas en el reclutamiento y la retención de jóvenes, como lo revelan documentos internos revelados por la denunciante de Meta, Frances Haugen. En un documento, se informó que los adultos jóvenes perciben a Facebook como irrelevante y diseñado para «personas de entre 40 y 50 años». Meta no quiere vigilar el metaverso. Los niños están pagando el precio. “Nuestros servicios se han diseñado para ser los mejores para la mayoría de las personas que los usan en lugar de específicamente para adultos jóvenes”, dijo Zuckerberg en el anuncio de octubre de 2021, citando la competencia con TikTok. Pero los empleados dicen que los debates sobre las propuestas Las herramientas de seguridad han enfrentado el gran interés de la compañía en hacer crecer sus redes sociales con su necesidad de proteger a los usuarios de contenido dañino. Instagram está promocionando características de seguridad para adolescentes. Los defensores de la salud mental no se lo creen. Por ejemplo, algunos miembros del personal argumentaron que cuando los adolescentes se registran para obtener una nueva cuenta de Instagram, esta debería ser automáticamente privada, lo que los obligaría a ajustar su configuración si querían una opción pública. Pero esos empleados enfrentaron el rechazo interno de los líderes del equipo de crecimiento de la compañía que argumentaron que tal medida dañaría las métricas de la plataforma, según una persona familiarizada con el asunto, que habló bajo condición de anonimato para describir asuntos internos. -opción intermedia: cuando los adolescentes se registran, la opción de cuenta privada está marcada previamente, pero se les ofrece fácil acceso para volver a la versión pública. Stone dice que durante las pruebas internas, 8 de cada 10 jóvenes aceptaron la configuración privada predeterminada durante el registro. “Puede resultar tentador para los líderes de las empresas considerar los mercados juveniles sin explotar como una manera fácil de impulsar el crecimiento, ignorando al mismo tiempo sus necesidades de desarrollo específicas. necesidades», dijo Vaishnavi J, asesor de políticas tecnológicas que fue jefe de políticas juveniles de Meta. «Las empresas necesitan crear productos en los que los jóvenes puedan navegar libremente sin preocuparse por su bienestar físico o emocional», añadió J. Facebook intenta minimizar su propia investigación antes de las audiencias sobre la seguridad de los niñosEn noviembre de 2020, Béjar, entonces consultor de Meta, y miembros del equipo de bienestar de Instagram idearon una nueva forma de abordar experiencias negativas como el acoso, el acoso y las insinuaciones sexuales no deseadas. Históricamente, Meta a menudo se ha basado en “tasas de prevalencia”, que miden con qué frecuencia las publicaciones que violan las reglas de la empresa pasan desapercibidas. Meta estima las tasas de prevalencia calculando qué porcentaje del total de visitas en Facebook o Instagram son vistas sobre contenido violatorio. Béjar y su equipo argumentaron que las tasas de prevalencia a menudo no tienen en cuenta el contenido dañino que técnicamente no viola las reglas de contenido de la compañía y enmascara el peligro de interacciones raras que todavía traumatizan a los usuarios. En cambio, Béjar y su equipo recomendaron dejar que los usuarios definan las interacciones negativas ellos mismos utilizando un nuevo enfoque: el Marco de Malas Experiencias y Encuentros. Se basó en que los usuarios transmitieran experiencias de acoso, insinuaciones no deseadas, violencia y desinformación, entre otros daños, según documentos compartidos con The Washington Post. El Wall Street Journal informó por primera vez sobre estos documentos. En informes, presentaciones y correos electrónicos, Béjar presentó estadísticas que muestran que la cantidad de malas experiencias que tuvieron los usuarios adolescentes fue mucho mayor de lo que sugerirían las tasas de prevalencia. Ejemplificó el hallazgo en un correo electrónico de octubre de 2021 dirigido a Zuckerberg y a la directora de operaciones Sheryl Sandberg, que describía cómo su hija, que entonces tenía 16 años, publicó un vídeo en Instagram sobre automóviles y recibió un comentario que le decía: «Vuelve a la cocina». Fue profundamente perturbador para ella”, escribió Béjar. «Al mismo tiempo, el comentario está lejos de violar las políticas, y nuestras herramientas de bloqueo o eliminación significan que esta persona irá a otros perfiles y seguirá difundiendo la misoginia». Béjar dijo que recibió una respuesta de Sandberg reconociendo la naturaleza dañina del comentario, pero Zuckerberg no respondió. Facebook hace una pausa en la aplicación Instagram Kids en medio de un creciente escrutinioMás tarde, Béjar hizo otro intento con el jefe de Instagram, Adam Mosseri, describiendo algunas estadísticas alarmantes: 13 por ciento de los adolescentes entre 13 y 15 años habían experimentado un avance sexual no deseado en Instagram en los últimos siete días. En su reunión, Béjar dijo que Mosseri parecía entender los problemas, pero dijo que su estrategia no había ganado mucha fuerza dentro de Meta. La compañía todavía utiliza tasas de prevalencia, Stone dijo que las encuestas de percepción de los usuarios han informado sobre medidas de seguridad, incluida una herramienta de inteligencia artificial que notifica a los usuarios cuando su comentario puede considerarse ofensivo antes de ser publicado. La compañía dice que reduce la visibilidad de contenido potencialmente problemático que no infringe sus reglas. Los intentos de Meta de reclutar usuarios jóvenes y mantenerlos seguros han sido puestos a prueba por una letanía de presiones organizacionales y de mercado, como equipos de seguridad, incluidos aquellos que trabajan en Los problemas relacionados con niños y adolescentes se han reducido drásticamente durante una ola de despidos. Meta recurrió a Pavni Diwanji, un ex ejecutivo de Google que ayudó a supervisar el desarrollo de YouTube Kids, para liderar los esfuerzos de productos para jóvenes de la compañía. Se le asignó el mandato de desarrollar herramientas para hacer que la experiencia de los adolescentes en Instagram sea mejor y más segura, según personas familiarizadas con el asunto. Pero después de que Diwanji dejó Meta, la compañía incorporó esos esfuerzos de productos de seguridad para jóvenes a la cartera de otro equipo. Meta también disolvió y dispersó su equipo de innovación responsable, un grupo de personas a cargo de detectar posibles problemas de seguridad en los próximos productos. Stone dice que muchos de los miembros del equipo se han trasladado a otros equipos dentro de la empresa para trabajar en temas similares. Béjar no No creo que los legisladores deban confiar en Meta para realizar cambios. En cambio, dijo que el Congreso debería aprobar una legislación que obligaría a la empresa a tomar medidas más audaces. “Todos los padres saben lo malo que es”, dijo. “Creo que estamos en un momento en el que existe una oportunidad maravillosa en la que [there can be] legislación bipartidista”.

Source link