DW en español

Así es el duro trabajo de los moderadores digitales en Facebook

Meta debe enfrentar demandas por las condiciones de los trabajadores de sus empresas subcontratadas. DW

Hay fotos y videos de una crueldad imposible de olvidar. Por eso, existen trabajadores de empresas subcontratadas que se ocupan de filtrarlos manualmente, pero pagan por ello un alto precio psicológico.La inmensa mayoría de los usuarios de Facebook e Instagram no llega a ver contenidos sumamente perturbadores, como torturas, abusos a menores o asesinatos. De ello se encargan los llamados moderadores de contenidos o limpiadores digitales, que se ocupan de cribar imágenes, así como de eliminar fotos y videos de las redes sociales.

Estos moderadores suelen ser empleados por subcontratistas en países del Sur Global. Se trata de un trabajo extremadamente estresante desde el punto de vista mental, que recibe críticas desde hace años.

Tanto Meta, propietaria de Facebook e Instagram, como sus subcontratistas en África se enfrentan constantemente a nuevas demandas. Según el diario británico The Guardian, actualmente se están preparando acciones judiciales contra Majorel, una empresa subcontratada por Meta.

¿Falta de apoyo psicológico?

Personas que moderaban contenidos para Majorel en Accra, capital de Ghana, han asegurado al diario británico The Guardian que sufren depresión, ansiedad, insomnio y drogadicción como consecuencia directa de su trabajo. Además, denuncian que el apoyo psicológico que se les ofrece es inadecuado.

Teleperformance, propietaria de Majorel, niega estas acusaciones. Según The Guardian, esta empresa emplea a sus propios profesionales de salud mental para tratar a sus empleados, que están registrados ante la autoridad local de supervisión. Teleperfomance no respondió a una consulta formulada por DW. La oenegé británica Foxglove, por su parte, está preparando una demanda en su contra.

Y no es la primera de este tipo: hace unos dos años, antiguos moderadores de Facebook en Nairobi, la capital de Kenia, presentaron una demanda contra Meta y las empresas proveedoras Sama (Samasource) y Majorel. Participaban activamente en sus sindicatos, debido a sus condiciones de trabajo y, en su opinión, fueron despedidos ilegalmente. Posteriormente, según la agencia de noticias Reuters, no volvieron a ser contratados por Majorel.

En septiembre de 2024, un tribunal confirmó que Meta podía ser demandada en Kenia y, desde entonces, se están llevando a cabo otros procedimientos judiciales y de mediación.

Muchas horas al día ante el horror

Para la abogada Mercy Mutemi, que representó a los demandantes en el juicio de Kenia, estos procesos suponen una "llamada de atención" para que las empresas tecnológicas presten más atención a las violaciones de derechos humanos, según ha declarado a Reuters.

Aunque firmar cláusulas de confidencialidad es algo habitual, algunos antiguos empleados hablan ahora de cómo se sentían en su trabajo. Según publica la plataforma netzpolitik.org, los moderadores de una subcontratista tenían que ver contenidos perturbadores entre ocho y diez horas al día, incluidas escenas de crueldad animal y ejecuciones.

Un antiguo empleado de otra empresa subcontratista dijo: "El sistema no nos permite saltar (imágenes)... tenemos que verlas durante al menos 15 segundos". En una entrevista con The Guardian, medio que realizó la investigación junto con la Oficina Británica de Periodismo de Investigación, confesó que cada vez se sentía "menos humano".

Otra antigua empleada, que ahora participa en la organización African Tech Workers Rising, relató a The Guardian que estaba sometida a una gran presión de tiempo. "No puedes parar cuando ves algo traumático. No puedes parar para proteger tu salud mental". Y dice que ahora la situación se ha deteriorado aún más, que los empleados ven los videos a una velocidad dos o tres veces superior a la normal, en varias pantallas al mismo tiempo.

La oenegé Foxglove también informa en su sitio web que los empleados tienen que pedir permiso para levantarse de sus pantallas, algo que se les puede denegar. La moderación es especialmente difícil para personas procedentes de regiones en conflicto, ya que siempre temen reconocer a familiares y amigos en las truculentas imágenes. DW no ha podido comprobar si estas acusaciones están justificadas.

Una agencia de comunicación encargada por Meta ha asegurado a DW que este gigante estadounidense ha llegado a acuerdos contractuales con sus empresas asociadas, de tal manera que deben garantizar que los moderadores de contenidos no sólo reciban formación especializada, sino que también tengan acceso las 24 horas del día a apoyo profesional y atención médica. Además, están obligadas a pagar salarios superiores a la media a sus empleados y se les respeta el derecho de asociación.

Kenia y Filipinas, muy populares

No es casualidad que muchos subcontratistas de las grandes redes sociales tengan su sede en países en desarrollo. Los salarios suelen ser mucho más bajos que en los países occidentales, la protección laboral es menor y el desempleo juvenil es elevado. Además, los diferentes husos horarios permiten garantizar la moderación a todas horas.

"A las grandes empresas tecnológicas les gusta subcontratar en África trabajos importantes, pero estresantes. Lo hacen de forma colonial y explotadora", afirma la abogada Mercy Mutemi en una entrevista con netzpolitik.org. A finales de 2023, la abogada aludió a este tema diciendo: "Facebook y Sama están atrayendo a jóvenes con talento, pero vulnerables y desprevenidos, de Kenia y otros países africanos".

Para los propios países, la externalización de procesos empresariales también es un negocio lucrativo. En la primavera de 2024, el presidente de Kenia, William Ruto, anunció que ampliaría la infraestructura para este tipo de deslocalizaciones. Al parecer, su intención es crear un millón de nuevos empleos de este tipo en los próximos cinco años.

(ms/ers)

DV Player placeholder

Tags


Lo Último