La batalla para que Meta pague el tratamiento a los moderadores que borran los horrores: “Fue una tortura psicológica”
Los moderadores de Facebook e Instagram en Barcelona acusan a la red social y su subcontrata de delitos contra los trabajadores y la integridad moral por hacerles revisar mutilaciones, suicidios o pederastia sin apoyo psicológico y a un ritmo “inhumano”
“Lo más duro que vi fue un vídeo de cómo empezaban a abusar de una niña, tendría unos cinco años. Esto me marcó muchísimo porque en ese momento llegué a sentir cómo le estaban arrebatando la infancia, le arrebatan toda la felicidad”.
Experiencias similares salen a la luz en cada conversación con los moderadores de Meta. Son los encargados de que los mayores horrores que los usuarios intentan subir a Facebook e Instagram no aparezcan ante el resto de usuarios. Decapitaciones, pederastia, terrorismo. “Son cosas que nadie debería ver nunca”, deja claro uno de ellos en conversación con elDiario.es. Los ojos de estos trabajadores son los únicos que llegan a verlas, apartándolas del resto de miembros de la plataforma.
Pero esa no es su única labor. Su papel no solo consiste en pulsar un botón y borrar el vídeo de un asesinato o bloquear la emisión en directo de un suicidio. Deben revisar el contenido y etiquetar lo que está pasando para que la inteligencia artificial sea capaz de identificarlo y pararlo por sí misma en el futuro. Tienen que prestar atención a imágenes que nunca se olvidan y calificarlas lo mejor que puedan.
La subcontrata para la que trabajan, Telus International, se comprometió con la corporación de redes sociales a que cada uno de ellos revise al menos 300 tickets de moderación al día con un 89% de acierto. Si rozan o bajan de esas cifras, hay consecuencias.
¿Creéis que puede una empresa someter a sus trabajadores a un trabajo tan delicado y psicológicamente devastador sin apenas apoyo psicológico y sin recibir ningún tipo de formación real de lo que iban a ver y cómo gestionarlo?