Redes Sociales
El horror de los revisores de Facebook que filtran contenidos violentos: "Podemos ver gente descuartizada, suicidio o pedofilia"
Un 20% de los moderadores digitales de Facebook en Barcelona están de baja por traumas psicológicos causados por los vídeos con imágenes brutales que tienen que supervisar cada día. Hablamos con alguno de estos trabajadores.
Publicidad
“Podemos ver gente descuartizada, suicidio, pedofilia, a veces es en directo…” Es el testimonio brutal de una moderadora digital de una empresa subcontratada por Meta (Facebook). El trabajo de estos empleados es el de revisar el contenido de Facebook e Instagram y, entre otros, ven vídeos de asesinatos, desmembraciones, violaciones e incluso suicidios en directo, cada día, decenas y decenas de veces: “No tenemos un límite. Entre 380 y 500, pero hay gente que hace mil al día. Imagínense que ustedes están colgados 8 horas a su celular mirando publicaciones, comentarios...Es alienante”.
Contenido violento que estos guardianes de las redes sociales deben de identificar para que nadie más tenga que sufrir lo que sufren ellos: “Abusar de un niño, como pegar a un niño. Tenemos la posibilidad de poner un… Opacarlo. Pero tenemos que verlo igual. O ponerlo en blanco y negro, pero se ve igual”. Pero esas imágenes brutales que entran por su retina, jamás se borrarán: “Volvemos a casa y tenemos esas imágenes en la cabeza. A mí me pasó que seguía en periodo de prueba y vi un contenido de pedofilia pura. Me quedé… Porque me sentía culpable de mirar ese video y no sabía qué hacer. Y no podía tener relaciones sexuales con mi novio porque tenía esa imagen en la cabeza”.
“Volvemos a casa y tenemos esas imágenes en la cabeza. Ansiedad, estrés, agitación… También hay gente que se droga mucho, bebe mucho para olvidar también”
Una pesadilla que pocos pueden soportar. De las más de 2 mil personas que trabajan en Barcelona para la moderación de contenido en Facebook e Instagram, un 20 % están de baja. Muchos con pesadillas, insomnio, o estrés post traumático, así nos lo confirma esta moderadora: “Ansiedad, estrés, agitación… También hay gente que se droga mucho, bebe mucho para olvidar también”. Estos trabajadores denuncian que la empresa se preocupa poco por su bienestar: “Tenemos posibilidad de hablar con psicólogos de la empresa, pero es muy difícil tener una cita con el psicólogo”
“Vi un contenido de pedofilia pura. Me sentía culpable de mirar ese video y no sabía qué hacer. No podía tener relaciones sexuales con mi novio porque tenía esa imagen en la cabeza”
No es la primera vez que Facebook se coloca en el centro de la polémica por la cantidad de imágenes violentas que se cuelan en su red… Suicidios, ejecuciones... Tal vez el momento más controvertido fue la emisión en directo durante 17 minutos de un terrorista en Nueva Zelanda que llegó a asesinar 49 personas. Imágenes que ninguna mente es capaz de procesar. A esta trabajadora, desde luego, le ha pasado factura: “Mirar a la gente a los ojos y decir: “¿Quién eres tú? ¿Cómo puedo confiar en la gente?”. Qué mundo en el que la gente publique eso. ¿Por qué publica su suicidio? ¿Por qué hay gente que hace bullying? Es nuestro cerebro, es nuestro cerebro”.
Decenas de trabajadores denuncian a la empresa
Otro de estos moderadores ha entrado en directo en el programa para denunciar su situación como revisor de Meta: “Me pusieron en el departamento de prioridad máxima. Yo tuve que estar en contacto con suicidios en vivo, y también terrorismo”. Imágenes que este joven ha tenido que ver y que les avisamos son extremadamente violentas: “Muchas veces la persona está en directo, no hay arma y en un momento se saca el arma y se explota la cabeza. Sólo había sangre y parte de la cabeza. Tras 8 horas visualizando este contenido se hace brutal”.
Más Noticias
- Debate sobre el precio de la vivienda: "Un error creer que se compra con el salario, se compra con el endeudamiento"
- La penosa situación del parque natural de Doñana, convertido en un auténtico vertedero
- ¿Qué nombres baraja Felipe González para sustituir a Pedro Sánchez? Cándido Méndez tiene la clave
Francesc Feliú, abogado: “No hay formación suficiente. Son chicos y chicas que entran con la promesa de trabajar en una gran multinacional”.
Francesc Feliú es el abogado de uno de estos trabajadores que demandan a la empresa. Feliú asegura que: “el problema es que las redes sociales conocen el riesgo que tienen que asumir los moderadores de contenido porque se dedican a esto. Si se conoce ese riesgo, ¿cuáles son las medidas que aplican para que no se materialice?”. Feliú denuncia que “no hay formación suficiente. Son chicos y chicas que entran con la promesa de trabajar en una gran multinacional, les paga un sueldo que no está anda más, y ese es el gancho”. Este letrado nos confirma además que tiene “una decena de clientes y las historias son tremendas”.
Publicidad