-
Moderadores de contenido de TikTok y Facebook han presentado quejas y demandas colectivas recientemente.
-
En ambas plataformas, con empresas externas a cargo, señalan malos tratos y pésimas condiciones de trabajo.
-
Los trabajadores también señalan afectaciones a su salud mental y la falta de apoyo psicológico de las empresas.
La mayoría de las plataformas digitales han optado por la autocensura, contratando a “escudos humanos” que nos protegen de la exposición a hechos sensibles; sin embargo, estos mismos moderadores de contenido son los que reciben todas las imágenes de violencia y discursos de odio que no pueden llegar a la red.
Su labor no es fácil, pues tienen revisar cada publicación, previamente filtrada por una inteligencia artificial, antes de que el resto del mundo reciba contenido violento, delictivo y peligroso.
De acuerdo con una búsqueda en LinkedIn, alrededor de 400 mil personas trabajan en el campo de la moderación de contenidos, ya que el filtrado de videos, fotos y mensajes, no sólo en redes sociales, se ha convertido en un gran negocio para las marcas que buscan ofrecer una mayor seguridad cibernética en sus plataformas y páginas web.
Sin embargo, aunque no es considerada como tal, muchos de los profesionales que se dedican a esta labor en grandes redes como YouTube, TikTok, Facebook o Instagram han considerado su actividad “de alto riesgo” por las repercusiones que puede generar a su estabilidad y salud mental.
Facebook: condiciones de trabajo “deplorables”
Los trabajadores de Facebook que se encuentran en México filtrando el contenido en su versión en español han señalado que su trabajo ha sido una pesadilla en los últimos meses.
Con carácter de anónimo, un grupo de trabajadores de Genpact, una empresa subcontratada por Facebook, dio a conocer su desacuerdo por tener que asistir a la oficina en medio de la nueva ola de Covid-19, cosa que no se les pide, por ejemplo, a los moderadores en Estados Unidos. Esto, aunque la compañía encargada de los moderadores tiene sede en Richardson, Texas.
Al contrario, Genpact envió un correo a sus empleados que revisan contenido de Facebook en inglés ofreciéndoles hacer turnos rotatorios para poder trabajar desde casa.
Además de esa marcada distinción, la queja colectiva menciona que 30 empleados dieron positivo a Covid-19 durante el mes de diciembre y el hecho no fue compartido con sus compañeros. De igual forma, en México, afirman las 50 personas que firmaron el reporte, las jornada laborales están acompañadas por problemas raciales en los que Genpact exige que aquellos con un “nombre que pueda sonar remotamente hispano” hagan un examen para comprobar que son aptos para revisar contenido.
La carta fue difundida por varios medios, generando rechazo en México y en la comunidad hispana de Estados Unidos, lo que ocasionó que Genpact y Facebook salieran en su defensa por medio de comunicados muy generales:
“Cualquier decisión de regreso a la oficina que se tome de acuerdo con las necesidades del cliente, se realiza con las mejores prácticas de seguridad y salud establecidas y de acuerdo con las regulaciones locales. En todas nuestras ubicaciones en el lugar de trabajo, incluida nuestra oficina de Richardson, Texas, seguimos los mejores estándares de seguridad de su clase, que incluyen pruebas frecuentes de antígenos”, destacó Genpact.
“Utilizamos combinación de tecnología y personas para mantener el contenido que rompe nuestras reglas fuera de nuestra plataforma. Aunque la IA ha progresado en este espacio, las personas son una parte clave de nuestros esfuerzos de seguridad”, expuso Facebook.
No obstante, aunque hacen alusión a las medidas sanitarias por la pandemia, tanto Genpact como Facebook evadieron el resto de las acusaciones sobre discriminación.
TikTok: traumas psicológicos llegan al juzgado
Ante la infinidad de imágenes sensibles que recibió y la falta de protección a la salud mental de TikTok, una ex moderadora de contenido se sumó a una demanda colectiva contra la plataforma, argumentando que la empresa matriz, ByteDance, no tomó acciones por la avalancha casi constante de contenido traumático que reciben los empleados.
La queja fue presentada en el Tribunal del Distrito Central de California, donde Candie Frazier dio un testimonio bastante controversial y preocupante sobre todo lo que vivió 12 horas al día mientras revisaba los videos subidos a TikTok para una empresa de contratación externa llamada Telus International
De acuerdo con la mujer, fue testigo de “miles de actos de violencia extrema y gráfica”, incluidos tiroteos, violaciones de niños, mutilación de animales, canibalismo, asesinatos y genocidio.
Además, de acuerdo con la ex empleada, sumado al trauma psicológico que esto generaba, ella y sus compañeros tenían que ver entre tres y 10 videos simultáneamente y sólo se les permitía tomar un descanso de 15 minutos en las primeras cuatro horas de su turno, con descansos de 15 minutos cada dos horas alternados.
“(ByteDance) supervisa de cerca el rendimiento y castiga severamente cualquier tiempo que se le quite a la visualización de videos gráficos”. TikTok no cumple con los estándares de la industria para la moderación de contenido“, afirma la demanda, haciendo referencia a la falta de descansos frecuentes y apoyo psicológico que deben ofrecer las empresas por ley.
“(He sufrido) un trauma psicológico severo que incluye depresión y síntomas asociados con la ansiedad y el TEPT, problemas para dormir y pesadillas horribles”, expuso Frazier, quien agregó que, a veces, cuando se queda despierta tiene ataques de pánico y su mente empieza a “reproducir” los videos que ha visto.
La demanda fue presentada por el bufete de abogados Joseph Saveri de California y hasta el momento no se conocen más detalles del proceso; sin embargo, la portavoz de TikTok, Hilary McQuaide, ha dado una breve postura de la red social a medios estadounidenses.
“Si bien no comentamos sobre litigios en curso, nos esforzamos por promover un ambiente de trabajo solidario para nuestros empleados y contratistas. Nuestro equipo de seguridad se asocia con empresas de terceros en el trabajo fundamental de ayudar a proteger la plataforma y la comunidad de TikTok, y continuamos ampliando una gama de servicios de bienestar para que los moderadores se sientan apoyados mental y emocionalmente”, afirmó.
Ahora lee:
Empleados de Walmart simulan un “tiroteo” con escáneres de precios y terminan despedidos
BBDO gana un nuevo CEO y el Atlas un fan; así se enamora Camilo Plazas de México