En septiembre de 2024, el Tribunal de Apelaciones de Nairobi dictaminó que dos casos presentados por 185 ex moderadores de contenido de Facebook e Instagram contra Meta (uno por presuntas malas condiciones de trabajo y otro por sus despidos masivos) deberían pasar a juicio. El fallo sigue a una batalla de 18 meses entre los moderadores y su antiguo empleador Meta, que ha insistido en que los tribunales de Kenia no tenían el poder de escuchar los casos. Aunque el gigante tecnológico había apelado previamente decisiones anteriores del Tribunal Superior en los dos casos, ambos relacionados con las condiciones laborales de los moderadores de contenido, el tribunal ahora falló en contra de estas apelaciones. Los casos fueron iniciados por el ex moderador de contenidos de Facebook Daniel Motaung, quien afirma que Meta los sometió ilegalmente a él y a sus colegas a una explotación que perjudicó su salud mental. Motaung comenzó a organizarse con sus compañeros de trabajo, formando un sindicato para luchar contra la explotación de él y sus colegas. La acción fue aplastada por Meta, y Motaung y 185 de sus colegas fueron despedidos ilegalmente, en un esfuerzo antisindical del gigante de Silicon Valley. Motaung fue solo uno de los muchos moderadores de contenido a quienes se les despidió su empleo, dejándolos sin acceso al empleo. Poco después, salió a la luz que Meta planeaba cambiar las empresas de subcontratación en su centro de Nairobi de Sama a Majorel, lo que de hecho incluyó a estos trabajadores en una lista negra para impedir que regresaran al trabajo, y llevó a los trabajadores a iniciar colectivamente un segundo caso contra sus despidos masivos. victoria de los trabajadores, el Tribunal de Apelación dictaminó que ambos casos tienen jurisdicción para proceder a juicio en Kenia. Además del dinero que Meta y sus contratistas les deben, los trabajadores buscan mejoras en sus condiciones laborales y exigen a la empresa que respete su derecho a denunciar las malas condiciones y a afiliarse a un sindicato, así como como introducir un sistema de apoyo a la salud mental en Kenia similar a los que se brindan a los empleados en sus oficinas centrales de Menlo Park y Dublín. Computer Weekly se puso en contacto con Meta sobre las decisiones judiciales y todos los aspectos de la historia, pero no recibió respuesta. Un patrón de explotación multinacional La decisión tan esperada ha dado a los moderadores de contenido la esperanza de obtener justicia por la explotación a la que los ha sometido Meta. Kauna Malgwi es uno de los 185 ex moderadores de contenido de Facebook que presentan el desafío legal contra Meta y Sama. Es la presidenta de la capilla de Nigeria de la Unión Africana de Moderadores de Contenido y apareció en la lista de 100 AI de TIME. “Después de casi dos años de perder el tiempo, me alegró saber que pronto llegará el día en que nos enfrentaremos a Meta en un tribunal para escucharlos responder por la explotación y el abuso que han ejercido contra mí y mis colegas”, dice. Trabajando para Facebook, Malgwi moderaba contenidos que incluían vídeos e imágenes de violaciones, suicidios y atrocidades de guerra. A pesar de la tensión mental que enfrentan los trabajadores, Meta ha intentado todas las tácticas posibles para evitar que el caso llegue a juicio. “Los tribunales tardan mucho y Meta ha contratado abogados para retrasar nuestro caso tanto como puedan con trucos legales sucios y ofertas de mediación de mala fe que finalmente no llegaron a ninguna parte. Se podría pensar que una de las empresas más famosas y poderosas del mundo no necesitaría caer tan bajo, pero hemos visto que no hay táctica demasiado vergonzosa para Meta”, dice Malgwi. Meta ha contratado abogados para retrasar nuestro caso tanto como puedan con trucos legales sucios y ofertas de mediación de mala fe que finalmente no llegaron a ninguna parte Kauna Malgwi, Unión Africana de Moderadores de Contenido. Esta no es la primera vez que la acción de los moderadores de contenido en África se ha esforzado por hacer que las grandes tecnológicas rindan cuentas. La formación del Sindicato Africano de Moderadores de Contenido por 150 trabajadores africanos de inteligencia artificial (IA), que busca garantizar mejores condiciones laborales para los moderadores de contenido, microtrabajadores y etiquetadores de datos, fue un acto de desafío histórico contra las grandes tecnologías, según uno de sus organizadores, Richard Mathenge es nombrada una de las 100 personas más influyentes en IA según TIME. Los moderadores de contenido del sindicato ganaron un caso judicial decisivo en Kenia, que ordenó a Meta brindar “atención médica, psiquiátrica y psicológica adecuada” en junio de 2023. De manera similar, en Colombia, la plataforma de subcontratación Teleperformance firmó un acuerdo histórico para permitir que sus 40.000 trabajadores el derecho a formar un sindicato, tras una investigación que expuso las terribles condiciones laborales de los moderadores de contenido de TikTok. Los entrevistados por Computer Weekly dicen que la explotación de los moderadores de contenidos en el Sur Global sigue un patrón de corporaciones multinacionales y su carrera hacia el abismo en busca de mano de obra barata. Nairobi se ha convertido en un epicentro de la carrera de subcontratación de IA, en gran parte debido a los altos niveles de desempleo junto con una población joven cada vez más educada y la alta tasa de angloparlantes de la capital, con empresas de subcontratación como Sama que ofrecen trabajos de nivel básico en tecnología. Una investigación de TIME, por ejemplo, encontró en 2023 que OpenAI pagaba a microtrabajadores en Kenia entre 1,32 y 2 dólares la hora para revisar contenido tóxico, etiquetar datos y eliminar contenido gráfico, violento y dañino. ‘Trabajo esencial’ Algunos argumentan que el microtrabajo –el trabajo que realizan los moderadores de contenidos y etiquetadores de datos– debería considerarse un trabajo esencial, que podría ayudar a mejorar las condiciones laborales de estos trabajadores. “Hasta que no tratemos la moderación de contenidos como un trabajo digital real que es necesario y no es fácil de automatizar, no valoraremos ni veremos a estos trabajadores. La moderación de contenido es un cruce entre las personas que responden a llamadas al 911 y un guardaparque”, dice Mary L. Gray, investigadora principal senior y coautora de Ghostwork. “Merecen un lugar de trabajo decente, horarios que reconozcan los desafíos de emitir juicios precipitados y la capacidad de organizarse y negociar colectivamente para mejorar la calidad del trabajo que realizan para todos los consumidores de las redes sociales”. Las malas condiciones laborales que enfrentan los moderadores de contenido y otros microtrabajadores se reflejan en toda la industria. James Oyange, ex moderador de contenido de TikTok y organizador de la Unión Africana de Moderadores de Contenido, dice: “Como moderadores de contenido de una amplia gama de gigantes tecnológicos como TikTok, Facebook y ChatGPT, observamos un hilo común de preocupaciones y desafíos que constantemente se dejaban sin abordar. “La naturaleza ardua de nuestro trabajo, junto con la falta de apoyo y reconocimiento de la salud mental, nos llevó a unirnos en la búsqueda de un entorno más equitativo y justo para todos los moderadores de contenido y trabajadores de IA”. Un posible cambio radical Pero este último fallo en Nairobi podría ayudar a hacer oscilar el péndulo y obligar a las grandes empresas tecnológicas a reconocer el valor de las contribuciones de estos trabajadores y tratarlos en consecuencia. La codirectora ejecutiva de Foxglove, Martha Dark, por ejemplo, dijo: “Esta sentencia demuestra que a pesar de los impresionantes recursos de Meta, se le puede derrotar. Y ha sido derrotado cada vez que ha presentado el argumento ridículo y neocolonial de que los tribunales de Kenia no tienen el poder de conocer casos contra una empresa estadounidense”. Se necesita una mayor conciencia pública y comprensión de las condiciones de los trabajadores que mantienen nuestro mundo digital para garantizar que esta decisión llegue hasta el final. Como dice a Computer Weekly Adio Dinika, investigador del Instituto de Investigación de Inteligencia Artificial Distribuida: “Necesitamos una conciencia pública sostenida, cambios de políticas y responsabilidad corporativa para abordar los problemas sistémicos en la industria de la moderación de contenidos. “El impacto de esta victoria podría ser de gran alcance y potencialmente influir en la forma en que las empresas de tecnología estructuran sus operaciones de moderación de contenido a nivel mundial. Puede conducir a mejores condiciones laborales, un mejor apoyo a la salud mental y una compensación más justa. En última instancia, este caso sirve como una llamada de atención para que la industria tecnológica reconozca el costo humano detrás de nuestras experiencias digitales desinfectadas”. Al explicar qué la mantiene luchando, Malgwi nos recuerda que tenemos más en común con los moderadores de contenido que con los directores ejecutivos de tecnología como Mark Zuckerberg, y esto es lo que hace que impulsar la acción colectiva contra las grandes tecnologías sea tan importante. “Enfrentarse a gigantes como Meta es difícil, pero esencial si queremos protegernos de la explotación por parte de empresas que son más poderosas que la mayoría de los países. Necesitamos conectarnos, organizarnos y luchar contra Meta a través de las fronteras. Hemos tomado la iniciativa en este trabajo en África, pero ahora es necesario ir más allá”, afirma. Dark añade el mensaje que los moderadores de contenido deberían recibir de la decisión del Tribunal Superior: “Meta está asustada, está asustada porque sabe que los cargos formulados en su contra por los moderadores de Nairobi son ciertos. Es por eso que se niega a dialogar con ellos y, en cambio, utiliza sofisticados trucos legales y tácticas dilatorias para eludir los problemas. Está casi terminado y estamos emocionados de verlos en la corte”.