Los trabajadores africanos se enfrentan a Meta y el mundo debe prestar atención | Derechos de los trabajadores

En 2025, la compañía de redes sociales más grande del mundo, Meta, ha tomado un tono nuevo desafiante sobre la cuestión de si y en qué medida acepta la responsabilidad del daño del mundo real que sus plataformas permiten.
Esto se ha entendido ampliamente como un gambito para curry con la administración del presidente Donald Trump, y el CEO y fundador de Meta Mark Zuckerberg, dijo que en un video del 7 de enero anunciaba el final de la verificación de hechos de terceros.
"Vamos a trabajar con el presidente Trump para retrasar a los gobiernos de todo el mundo, perseguir a las compañías estadounidenses y presionar para censurar más", dijo Zuckerberg, dando a sus decisiones de productos un sabor geopolítico distintivo.
Para justificar las decisiones de la compañía de eliminar la verificación de hechos y escalar la moderación de contenido en sus plataformas, Zuckerberg y Meta han apelado a la protección constitucional de los Estados Unidos del derecho a la libertad de expresión. Afortunadamente, para aquellos de nosotros que vivimos en los países que Meta ha prometido "retroceder", también tenemos constituciones.
En Kenia, por ejemplo, donde represento a un grupo de antiguos moderadores de meta contenido en una demanda colectiva contra la compañía, la constitución posterior a la independencia difiere de aquellos en los Estados Unidos y Europa occidental con su priorización explícita de los derechos humanos y las libertades fundamentales. Las constituciones de muchas naciones con historias coloniales comparten esto en común, una respuesta a cómo se violaron estos derechos cuando sus pueblos fueron presionados por primera vez en la economía global.
Ahora estamos empezando a ver cómo estas constituciones pueden ser llevadas a la industria de la tecnología global. En una decisión histórica en septiembre pasado, el Tribunal de Apelaciones de Kenia dictaminó que los moderadores de contenido podrían presentar su caso de violaciones de derechos humanos contra Meta en los tribunales laborales del país.
Pocos en Occidente habrán entendido la importancia de esta decisión. Meta, por su parte, seguramente lo hace, por lo que luchó contra los dientes y el clavo en la corte y continúa utilizando todas las herramientas diplomáticas a su disposición para resistir las demandas de los moderadores de contenido de reparación. Meta ha mostrado interés en apelar esta decisión ante la Corte Suprema.
Las meta y otras compañías importantes de EE. UU. Mantienen una arquitectura corporativa enrevesada para evitar la exposición a impuestos y regulación en las docenas de países donde hacen negocios. Comúnmente afirman no operar en países donde cuentan a millones de usuarios y emplean cientos para refinar sus productos. Hasta ahora, estos reclamos rara vez han sido impugnados en la corte.
El caso de los moderadores de contenido del caso que han presentado en la corte es que fueron contratados por una compañía de outsourcing de procesos comerciales (BPO) llamada Sama, y pusieron a trabajar exclusivamente como moderadores de contenido en Facebook, Instagram, WhatsApp y Messenger durante el período de 2019 a 2023, cuando gran parte de la moderación de contenido de África en estas plataformas se realizó en Nairobi. Meta desmonta a estos trabajadores e insiste en que Sama empleó únicamente, un problema que actualmente se litigó ante los tribunales en Kenia.
Estos trabajadores saben que la aparente reversión de Meta en la moderación de contenido es todo lo contrario. Como se presenta en sus quejas ante la corte, la compañía nunca ha tomado el tema en serio. No es lo suficientemente en serio como para detener los conflictos civiles y étnicos, la violencia política y los ataques de la mafia contra las comunidades marginadas que prosperan en sus plataformas. No es lo suficientemente en serio como para pagar salarios justos a las personas encargadas de asegurarse de que no lo haga. El daño viaja en ambos sentidos: el contenido tóxico inflama los horrores del mundo real, y esos horrores engendran un contenido más tóxico que satura las plataformas.
Los moderadores de contenido son forraje de cañón digital para Meta en una guerra contra el contenido dañino de que la compañía nunca se comprometió realmente con la lucha. El caso presentado por los moderadores de contenido de Nairobi explica cómo aceptaron los trabajos que pensaron que involucrarían el centro de llamadas y el trabajo de traducción. En cambio, terminaron en el centro de moderación de contenido de Meta en Nairobi, donde pasaron sus días sometidos a un torrente interminable de violencia y abuso transmitidos.
Muchos de ellos se vieron obligados a ver atrocidades cometidas en sus países de origen para proteger a los usuarios de Meta de los daños de ver estas imágenes y imágenes. Absorbieron ese trauma para que otros en sus comunidades no tuvieran que hacerlo, y muchos encontraron que esto era una llamada noble.
Pero este trabajo afectó su salud mental. Más de 140 antiguos moderadores de contenido han sido diagnosticado con TEPT, depresión o ansiedad que surge de su tiempo en el trabajo. Un caso separado aborda cómo se frustraron los esfuerzos para sindicalizar para abogar por una mejor atención médica mental. Lo que siguió fueron los despidos en masa y la reubicación de la moderación de contenido de Facebook en otros lugares.
Esto dejó a cientos de personas impactadas por trauma y un rastro de violaciones de los derechos humanos. Meta argumenta que nunca empleó a los moderadores de contenido de Facebook y no tenía responsabilidad para ellos. Este litigio está en curso, y los moderadores ahora confían en los tribunales para desentrañar las complejidades de su dinámica de empleo.
Mientras luchaba contra el caso en la corte, en marzo de 2024, la compañía envió una delegación dirigida por su entonces presidente de Asuntos Globales, Nick Clegg, un ex viceprimer ministro británico, para reunirse con el presidente de Kenia William Ruto y los legisladores para discutir, entre otros temas, la visión de la compañía de asociación con el gobierno para llevar la "revolución generativa de AI" al continente. En un evento de Townhall en diciembre, Ruto aseguró a Sama, el antiguo socio de moderación de contenido de Meta: "Ahora hemos cambiado la ley, para que nadie pueda llevarlo a los tribunales nuevamente sobre cualquier asunto", refiriéndose a un proyecto de ley aprobado en el parlamento de Kenia que protege grandes compañías tecnológicas de casos futuros como el nuestro.
Todo este retroceso ocurrió mucho antes de que Trump fuera reelegido, y estos esfuerzos parecen ser intentos de evadir la responsabilidad de las prácticas laborales de la compañía y los efectos de sus productos. Pero sucedió algo notable, lo que abre una puerta a otros en todo el mundo que trabajan en nombre de la industria tecnológica pero a quien la industria misma desata: el tribunal dictaminó que nuestro caso puede proceder a juicio.
El hecho de que el caso haya avanzado a pesar de los vigorosos desafíos legales y políticos es un testimonio de la naturaleza revolucionaria de las constituciones poscoloniales, que priorizan los derechos humanos por encima de todo.
A medida que continúa nuestro caso en Kenia, espero que pueda ofrecer inspiración para los trabajadores tecnológicos en otras naciones poscoloniales que ellos también pueden seguir la responsabilidad en los países donde han sido perjudicados. El derecho a la libertad de expresión es un derecho humano importante, pero continuaremos recordando a las grandes tecnologías que igualmente importantes son el derecho a la dignidad y la libertad de la explotación.
Las opiniones expresadas en este artículo son propias del autor y no reflejan necesariamente la postura editorial de Al Jazeera.