Comenta esta historiaComentarAgregar a tus historias guardadasGuardarInstagram y Facebook revelaron límites adicionales sobre lo que los adolescentes pueden ver en las aplicaciones, una medida que su empresa matriz Meta dice reducirá la cantidad de contenido potencialmente dañino que encuentran los jóvenes. Ya, los adolescentes pueden optar por tener el algoritmo de Instagram recomendar menos “contenido sensible”, que incluye cuerpos desnudos, violencia, drogas, armas de fuego, contenido sobre pérdida de peso y discusiones sobre autolesiones. Ahora, Meta dice que ocultará contenido sensible incluso si es publicado por amigos o creadores que los adolescentes siguen. El cambio anunciado el martes se produce semanas antes de que el director ejecutivo de Meta, Mark Zuckerberg, testifique ante el Comité Judicial del Senado sobre lo que los legisladores han llamado la «falta de cumplimiento» de la compañía. proteger a los niños en línea”. En la sesión del 31 de enero, Zuckerberg, junto con ejecutivos de las aplicaciones sociales TikTok, Snap, Discord y X, responderán a las preocupaciones de seguridad en línea, como la publicidad predatoria, el acoso y las publicaciones que promueven los trastornos alimentarios. Las empresas tecnológicas también enfrentan un escrutinio cada vez mayor por parte de funcionarios de a nivel estatal y en el extranjero. En los últimos años, los estados han aprobado una serie de leyes de seguridad en línea para niños, incluidas algunas que exigen que las plataformas obtengan el consentimiento de los padres antes de permitir que los usuarios adolescentes creen cuentas. Si son efectivos, los últimos cambios de Meta significarían menos menciones de temas como dietas o enfermedades mentales en los adolescentes. ‘líneas de tiempo. Pero sin datos internos de Meta, que la compañía generalmente no comparte, no está claro qué tan efectivos son esos límites para proteger a los adolescentes de contenido dañino. Además, si bien las cuentas de adolescentes tienen el filtro de contenido confidencial activado de forma predeterminada, pueden crear cuentas nuevas fácilmente y no tienen que revelar su verdadera edad. Las aplicaciones y los servicios están regulados para recopilar datos sobre la actividad en línea de los niños. Pero una laguna en las reglas actuales les permite hacerlo de todos modos. (Video: Jonathan Baran/The Washington Post) Para cualquiera que esté familiarizado con el historial de Meta en materia de seguridad de los adolescentes, la medida es demasiado pequeña y demasiado tarde, dijo Josh Golin, director ejecutivo de Fairplay, una organización sin fines de lucro que apunta a terminar con el marketing dirigido a los niños. Meta se opone continuamente a las normas de seguridad y no implementa controles significativos, dijo. A finales de 2022, por ejemplo, un grupo industrial financiado por Meta presentó una demanda para bloquear una ley de seguridad infantil en California. “Si Meta se toma realmente en serio la seguridad, se apartarían del camino de la regulación”, dijo Golin. «Han tenido más de una década para hacer que su plataforma sea más segura para los jóvenes y han fracasado estrepitosamente». «Nuestro trabajo sobre la seguridad de los adolescentes se remonta a 2009, y continuamente estamos creando nuevas protecciones para mantener a los adolescentes seguros y consultar con expertos para garantizar que nuestras políticas y funciones estén en el lugar correcto”, dijo la portavoz de Meta, Liza Crenshaw. «Estas actualizaciones son el resultado de ese compromiso y consulta continuos y no son una respuesta a ningún evento en particular». Esta no es la primera vez que Meta lanza funciones de seguridad antes de una audiencia en el Congreso. En 2021, la compañía lanzó mensajes opcionales de “tómate un descanso”, que sugieren a los usuarios dejar de desplazarse temporalmente, el día antes de que el jefe de Instagram, Adam Mosseri, testificara ante el Congreso. Semanas antes, la ex empleada de Facebook, Frances Haugen, había filtrado una investigación interna que mostraba que la compañía sabía que sus productos en ocasiones empeoraban los problemas de imagen corporal de algunas adolescentes. La compañía defendió su historial de seguridad y rechazó las caracterizaciones de los estudios, pero continuó enfrentando presión en Washington para ampliar las protecciones para los niños. A fines del año pasado, la compañía por primera vez pidió públicamente una legislación federal que obligue a las tiendas de aplicaciones a obtener protección parental. aprobación cuando los usuarios de 13 a 15 años descargan aplicaciones. Mientras tanto, California aprobó una ley en 2022 que exige que las empresas implementen configuraciones de privacidad y seguridad más estrictas para los niños de forma predeterminada, conocida como Código de diseño apropiado para la edad de California. La medida de California se inspiró en regulaciones similares en Gran Bretaña. Con los límites de esta semana, Instagram y Facebook colocarán automáticamente todas las cuentas de adolescentes en la configuración de contenido sensible más restrictiva. La aplicación también está ampliando sus términos de búsqueda bloqueados relacionados con el suicidio, las autolesiones y los trastornos alimentarios, afirma la empresa. Si alguien busca «bulímica», por ejemplo, verá recursos de ayuda para los trastornos alimentarios en lugar de resultados de búsqueda. Meta ha luchado por articular con precisión qué contenido se considera sensible. Por ejemplo, el control de contenido sensible oculta a los usuarios menores de 15 años publicaciones «sexualmente sugerentes». Pero decidir si una foto de una persona en bikini cuenta como “sexualmente sugerente” recae en la tecnología de escaneo de la aplicación, y Crenshaw se negó a nombrar sus criterios. Sin embargo, señaló que un ejemplo de contenido sexualmente sugerente sería una persona con ropa transparente. Algunos defensores de la seguridad de los jóvenes dicen que el enfoque gradual de Meta hacia la seguridad tiene más que ver con las relaciones públicas que con la protección de los jóvenes. Kristin Bride, una madre de Arizona trabajando con la organización bipartidista Issue One para abogar por la Ley federal de seguridad infantil en línea, señala que los cambios en el control de contenido de las empresas de redes sociales son a menudo «menores, temporales y sólo de boquilla». Aún así, dijo, “cualquier cambio que Meta haga en sus plataformas para hacerlas más seguras para los niños es apreciado, especialmente por los padres”. Algunos expertos en seguridad han pedido a la compañía que haga públicos sus algoritmos e investigaciones internas para su auditoría. Otros han preguntado por qué Meta permite que menores accedan a sus aplicaciones si no puede garantizar que no serán empujados a agujeros algorítmicos que promueven la autolesión, los trastornos alimentarios o el extremismo político. Al mismo tiempo, algunas investigaciones muestran que las redes sociales pueden ser bueno para los jóvenes. Los amigos en línea pueden ser un elemento disuasivo contra el suicidio, y los adolescentes LGBTQ+ a menudo encuentran comunidad y apoyo en las redes sociales cuando no están disponibles en casa.Cristiano Lima contribuyó a este informe.

Source link