Los horrores que viven los moderadores de Meta: “No sabía de lo que son capaces los humanos” | Economía – Technologist

Después de tener que ver repetidamente varios vídeos sobre suicidios, asesinatos, desmembramientos y violaciones, tuvo un ataque de pánico, y pidió ayuda. A este empleado, que trabajaba como moderador de contenido en una empresa que presta servicio a Meta —propietaria de Facebook, Instagram y WhatsApp—, le dijeron que fuese a la fun floor (piso de la diversión): una gran sala de juegos situada en una de las plantas de la torre Glòries de Barcelona, donde están las oficinas de moderación de contenido para el gigante tecnológico californiano. Se quedó sentado, con la mirada perdida, frente a una mesa de ping pong. La fun floor no le ayudó en absoluto. En otra ocasión, su jefe le dio, dos horas después de tener otro ataque de pánico, permiso para ir a ver a una psicóloga de la empresa. Estaba en otro de los pisos, el psychology floor. Estuvo más de media hora hablando con ella, sacándolo todo. Al terminar, ella le dijo que su trabajo era muy importante para la sociedad, que eran todos unos héroes, que él debería ser más fuerte. Y que el tiempo se había agotado.

Los moderadores de contenido son los que se ocupan de dejar limpios y apacibles el muro de Facebook o los feeds de Instagram, plataformas que millones de personas usan cada día y que ignoran que existe esta parte oscura. Estos trabajadores son los que deciden si se publican o no las noticias falsas o las fotografías que no cumplen con la política de Meta. Pero también son los que tienen que enfrentarse al contenido más brutal: verlo, evaluarlo, censurarlo y, en su caso, mandarlo a la policía.

En 2018, la empresa CCC Barcelona Digital Services se instaló en una decena de plantas de la torre Glòries. El anuncio fue muy bien recibido por las autoridades catalanas, ya que la subcontrata de esta gran tecnológica venía engrosar la lista de compañías innovadoras instaladas en Barcelona, y a ocupar parte de un edificio que, a causa del procés, acababa de perder la oportunidad de acoger la sede de la Agencia Europea del Medicamento.

La empresa empezó a contratar gente, sobre todo jóvenes extranjeros que hablasen varias lenguas, para moderar contenido de distintos mercados. El pasado mes de octubre, una investigación de La Vanguardia destapó las condiciones en las que trabajan estos moderadores. Antes, la Inspección de Trabajo de la Generalitat inició una investigación en 2021, y al año siguiente impuso una multa de más de 40.000 euros a la empresa por deficiencias en la evaluación y prevención de riesgos psicosociales en los puestos de trabajo. En 2020, la empresa fue adquirida por la canadiense Telus International, que asegura que las acusaciones son falsas y que tienen medidas de seguridad suficientes.

Este trabajador entró en 2018 y estuvo hasta 2020, cuando obtuvo una baja médica por sus problemas de salud mental. La empresa y la mutua lo calificaron como una enfermedad común. “Solicitamos entonces un cambio de contingencias, porque su caso encajaba a la perfección en el de accidente laboral. El Instituto Nacional de Seguridad Social nos dio la razón, y la empresa lo recurrió, con lo que se activó la vía judicial”, explica Francesc Feliu, socio del despacho de abogados Espacio Jurídico Feliu Fins, especializado en asuntos sanitarios.

El pasado 12 de enero, el juzgado de lo social número 28 de Barcelona desestimó la demanda de la empresa y falló que la calificación de la baja debe ser de accidente de trabajo. Es la primera sentencia que reconoce que la enfermedad mental que sufre un moderador de contenido está causada por su trabajo. “El estrés laboral es el desencadenante único, exclusivo e indubitado” de los trastornos, apunta el fallo, que es recurrible. Feliu lleva unos 25 trabajadores más que están esperando que se les reconozca su enfermedad como accidente laboral, y además interpuso en octubre una querella por la vía penal contra la empresa denunciando la falta de medidas de seguridad.

El trabajador pide el anonimato, porque está sujeto a férreos contratos de confidencialidad, y prefiere no hablar de cómo se siente o de temas muy personales, ya que las cicatrices que le dejó este trabajo siguen abiertas: lo está pasando mal con la cobertura informativa de la sentencia, porque le hacen revivir lo que vio. “Pero al menos esto está animando a más gente a buscar justicia”, apunta.

Cuando empezó a trabajar en la empresa, no se hacía a la idea de la violencia de los vídeos que tendría que ver. “Me lo dijeron, pero por encima, y luego cuando empiezas ves que las cosas son mucho, mucho peores…”, afirma. El abogado explica que el trabajo está bien pagado (unos 2.400 euros brutos mensuales, aunque hay diferencias salariales entre trabajadores que se encargan de distintos mercados, algo que otro despacho ha llevado también ante la justicia), que no se pide experiencia ni formación, y que a los jóvenes extranjeros les atrae: “Dicen ‘mira, que guay, trabajaré para Meta”, explica Feliu. El trabajador afectado apunta que las ilusiones se van pronto: “La gente no es nada consciente de lo que ocurre. Antes de trabajar ahí te aseguro que no sabía de lo que eran capaces los humanos”.

La sospecha de los trabajadores: estar entrenando una IA

Feliu explica que en esa época —”puede que ahora hayan cambiado las condiciones”, apunta— los moderadores de contenido que tenían mejor puntuación por su eficiencia (había una evaluación mensual de los trabajadores) entraban en una sección de alta prioridad. Esto es, les seguían entrando vídeos de todo tipo por un canal (publicaciones normales, pero también vídeos violentos cuando surgían) y por otro canal les entraban exclusivamente contenido (vídeos, fotos o publicaciones) donde aparecían suicidios y actos terroristas.

En esta sección estaba el trabajador de la sentencia: “Ver constantemente esto te hace más sensible a todo. Al cabo de un tiempo no podía ver ni una carta de suicidio”, explica. Había que seguir estrictamente la política de Meta, y muchas veces ver los vídeos hasta el final, varias veces y por distintos moderadores. “Por ejemplo, un vídeo en directo de alguien explicando que se quería suicidar, tenías que seguir viéndolo, y no podías eliminarlo ni avisar a la policía si no veías algo en la escena que sugiriese el suicido, una pistola, una ventana abierta… A veces de pronto sacaban la pistola y se disparaban, sin que hubieses podido hacer nada”, lamenta.

Para eliminar un vídeo, tenían que detallar bien la decisión: “Tenías que calificar el vídeo por lo peor que ocurriera, según una escala. Si empezaba el vídeo con algún tipo de violencia, había que esperar por si salía algo más grave, como un asesinato, un desmembramiento o un abuso sexual, para calificarlo según lo más grave. Si la violencia más grave salía al principio, el sistema te dejaba eliminarlo”.

Este procedimiento les ha hecho sospechar. “Si al segundo 10 ya ves que algo es violento, ¿por qué tienes que esperar? Llegas a la conclusión de que lo que están haciendo es entrenar a una inteligencia artificial (IA), son carne de cañón”, afirma Feliu. Un portavoz de la subcontrata, preguntado a este respecto, no aclara si este proyecto existe y remite a Meta.

En la empresa trabajan unas 2.000 personas, después de que los recortes en Meta hicieran que la plantilla de la subcontrata se adelgazara con un expediente de regulación de empleo el año pasado. El comité de empresa no ha respondido a las preguntas de este periódico, y la compañía ha recurrido la sentencia. En un comunicado, Telus explica que, “gracias al completo programa de bienestar” en diciembre del año pasado se había reducido las bajas laborales al 14% de la plantilla, y que solo “entre el 1% y el 2%” eran bajas por salud mental relacionadas con el trabajo.

La empresa explica que ha contratado un apoyo médico externo, que el equipo tiene a su disposición una serie de consejeros las 24 horas del día, puede pedir descanso y sesiones de emergencia cada vez que ven contenido perturbador, y cuenta con tecnología para desenfocar vídeos o apagar el sonido si es necesario. “Cualquier sugerencia de que los empleados están expuestos constantemente a contenido perturbador durante ocho horas al día es falsa”, apunta la nota, que asegura que el bienestar de sus trabajadores es prioritario. En el juicio, la empresa negó que hubiese un vínculo entre la enfermedad mental del afectado y su trabajo, y puso como argumento que este había acudido al psicólogo cuando tenía 16 años.

El trabajador explica que, en el momento en el que él trabajaba, había un descanso de cinco minutos cronometrados cada hora, en los que no podía salir a tomar el aire porque solo con bajar en el ascensor ya agotaba el tiempo. El descanso para comer era de 20 minutos, y tenían actividades como sesiones de yoga y juegos, “pero ningún seguimiento específico” para unos empleados que evaluaban unos 400 contenidos cada día.

Además, los horarios rotativos —una semana por la mañana, otra por la tarde, otra por la noche— perturbaba su descanso, “que ya de por sí era difícil por las pesadillas”. “Había un 25% de gente de baja sistemáticamente, a los que hay que sumar todos los que dejaban el trabajo antes de cogerse la baja”, recuerda Feliu, que cree que la sentencia y las que puedan venir ayudará a que la empresa tenga que cambiar cosas: “Los moderadores de contenido son esenciales para las redes sociales, pero también lo son sus condiciones”.

Sigue toda la información de Economía y Negocios en Facebook y X, o en nuestra newsletter semanal

La agenda de Cinco Días

Las citas económicas más importantes del día, con las claves y el contexto para entender su alcance.

RECÍBELO EN TU CORREO

Suscríbete para seguir leyendo

Lee sin límites

_

Add a Comment

Your email address will not be published. Required fields are marked *