Quizás la tecnología poderosa nunca haya presentado un conjunto tan grande de desafíos regulatorios para el gobierno de Estados Unidos. Antes de las primarias estatales de enero, los demócratas de New Hampshire recibieron llamadas automáticas que reproducían grabaciones de audio falsas generadas por IA del presidente Biden animándolos a no votar. Imaginemos deepfakes políticos que, por ejemplo, inciten a los estadounidenses a la violencia. Este escenario no es demasiado difícil de evocar dada una nueva investigación de la Universidad de Nueva York que describe la distribución de contenido falso, de odio o violento en las redes sociales como el mayor riesgo digital para las elecciones de 2024. Nosotros dos hemos ayudado a desarrollar y hacer cumplir algunas de las Las decisiones más trascendentales en las redes sociales en la historia moderna, incluida la prohibición del porno de venganza en Reddit y la prohibición de Trump en Twitter. Así que hemos visto de primera mano lo bien que ha funcionado depender enteramente de la autorregulación para que las empresas de redes sociales moderen su contenido. El veredicto: nada bien. El contenido tóxico abunda en nuestras redes sociales, en gran medida no reguladas, que ya ayudaron a fomentar la el intento de insurrección en el Capitolio de Estados Unidos el 6 de enero de 2021 y el intento de golpe de estado en Brasil el 8 de enero de 2023. Los peligros solo se agravan con los despidos que afectan a la industria, la Corte Suprema y el Congreso no abordan estas cuestiones de frente. y directores ejecutivos inescrutables que lanzan cambios dramáticos en sus empresas. El amplio acceso a tecnología nueva y cada vez más sofisticada para crear deepfakes realistas, como la pornografía falsa de Taylor Swift generada por IA, facilitará la difusión de incautos. El status quo de las empresas de redes sociales en EE. UU. es similar a tener una industria de vuelos no regulada. . Imagínese si no lleváramos un seguimiento de los tiempos de vuelo o los retrasos o si no registráramos los accidentes e investigáramos por qué ocurrieron. Imagínese si nunca supiéramos de pilotos o pasajeros deshonestos y esas personas no estuvieran en la lista negra para vuelos futuros. Las aerolíneas tendrían menos idea de lo que hay que hacer y dónde están los problemas. También enfrentarían menos responsabilidad. La falta de estándares y métricas de la industria de las redes sociales para rastrear la seguridad y los daños nos ha llevado a una carrera hacia el fondo. Al igual que la Junta Nacional de Seguridad en el Transporte y la Administración Federal de Aviación, debería haber una agencia que regule las empresas de tecnología estadounidenses. El Congreso puede crear una autoridad independiente responsable de establecer y hacer cumplir reglas básicas de seguridad y privacidad para las empresas de redes sociales. Para garantizar el cumplimiento, la agencia debe tener acceso a información y documentos relevantes de la empresa y la autoridad para responsabilizar a las empresas que no cumplan. Si las cosas salen mal, la agencia debería tener la autoridad para investigar lo sucedido, de la misma manera que la junta de transporte puede investigar a Boeing después de sus recientes percances. Controlar los daños en las redes sociales es una tarea difícil. Pero tenemos que empezar por algún lado, y los intentos de prohibir plataformas después de que ya se hayan vuelto enormemente influyentes, como algunos legisladores estadounidenses están tratando de hacer con TikTok, simplemente crean un juego interminable de golpear al topo. Las plataformas pueden rastrear el número de cuentas eliminadas, la cantidad de publicaciones eliminadas y las razones por las que se tomaron esas acciones. También debería ser factible crear una base de datos en toda la empresa de las identificaciones de dispositivos ocultas pero rastreables para teléfonos y direcciones IP que se han utilizado para cometer violaciones de privacidad, seguridad y otras reglas, incluidos enlaces a las publicaciones y actividades que fueron la base para la decisión. para catalogar a la persona y el dispositivo. Las empresas también deben compartir cómo se utilizan los algoritmos para moderar el contenido, junto con detalles sobre sus salvaguardas para evitar sesgos (las investigaciones indican que, por ejemplo, la detección automatizada del discurso de odio muestra sesgos raciales y puede amplificar los prejuicios basados ​​en la raza). dañar). Como mínimo, se prohibiría a las empresas aceptar pagos de grupos terroristas que busquen verificar cuentas de redes sociales, como descubrió el Tech Transparency Project que estaba haciendo X (anteriormente Twitter). prohibiciones de pornografía, filtros de spam y suspensiones de cuentas individuales como la que rastreó el jet privado de Elon Musk. Regular estas empresas privadas para evitar el acoso, el intercambio de datos dañinos y la desinformación es una extensión necesaria y natural para la seguridad, la privacidad y la experiencia del usuario. Proteger la privacidad y la seguridad de los usuarios requiere investigación y comprensión sobre cómo funcionan las empresas de redes sociales y sus políticas actuales. se escribieron y cómo se han tomado y aplicado históricamente sus decisiones de moderación de contenido. Los equipos de seguridad, cuyos miembros realizan el trabajo esencial de moderación de contenidos y poseen conocimientos internos vitales, recientemente se han reducido en empresas como Amazon, Twitter y Google. Esos despidos, además del creciente número de personas que siguen carreras tecnológicas pero encuentran incertidumbre en el sector tecnológico privado, dejan a numerosas personas en el mercado laboral con las habilidades y el conocimiento para abordar estos problemas. Podrían ser reclutados por una nueva agencia para crear soluciones prácticas y efectivas. La regulación tecnológica es un tema poco común que cuenta con apoyo bipartidista. Y en 2018, el Congreso creó una agencia para proteger la ciberseguridad del gobierno. Puede y debe crear otra agencia reguladora para enfrentar las amenazas de tecnologías heredadas y emergentes de empresas nacionales y extranjeras. De lo contrario, seguiremos experimentando un desastre en las redes sociales tras otro. Anika Collier Navaroli es periodista, abogada y miembro principal del Tow Center for Digital Journalism de la Escuela de Periodismo de Columbia. También es una exfuncionaria de alto rango de políticas en Twitter y Twitch. Ellen K. Pao es una inversora y defensora de la tecnología, ex directora ejecutiva de Reddit y cofundadora de la galardonada organización sin fines de lucro de diversidad e inclusión Project Include.

Source link