Los moderadores de TikTok han visto decapitaciones, abusos sensuales a menores y otras atrocidades. Los moderadores dicen que la empresa pasa de todo

noticiesiprofecies

Madmaxista
Desde
21 Sep 2015
Mensajes
20.368
Reputación
49.030
Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sensuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada

Tekendra Parmar, Business Insider
1 jul. 2022 7:30h.

1656683160380.png
"Nos decían que lo olvidáramos o que nos fuéramos a dar un paseo", cuenta una de las moderadoras de TikTok, a la que posteriormente se le diagnosticó un trastorno de estrés postraumático
Alex Ford / Business Insider

  • TikTok recurre a empresas externas para ayudar a la moderación de sus contenidos, una parte vital de su modelo de negocio.
  • Seis moderadores, tanto en activo como antiguos, afirman que han tenido que visualizar de forma constante vídeos gráficos que incluyen abusos a menores, suicidios y asesinatos.
Candie Frazier pensó que trabajar para TikTok sería exactamente lo que necesitaba después de perder su trabajo en un casino de Las Vegas por la esa época en el 2020 de la que yo le hablo de cobi19 en la primavera de 2020.

Siempre había querido trabajar en el sector tecnológico, y el trabajo le proporcionaba un nuevo ordenador, un monitor y una tablet, a la vez que le permitía trabajar de forma remota, una ventaja muy necesaria para quien es la principal cuidadora de un hijo con discapacidad.

Consiguió un trabajo en la creciente plantilla de moderación de contenidos de TikTok, sin saber demasiado sobre lo que supondría ese trabajo. Acabaría revisando desde vídeos de abusos a menores hasta suicidios, accidentes y decapitaciones, asegurándose de que el contenido nunca llegara a las páginas "para ti" de los usuarios.

En diciembre, poco más de un año después de su incorporación, Frazier presentó una demanda contra la empresa matriz de TikTok, ByteDance, alegando que su trabajo le había provocado un trastorno de estrés postraumático y síntomas de grave malestar psicológico.

"Ser moderadora de TikTok me hizo daño", explica Frazier a Business Insider. "Me ha hecho perder la confianza en la gente", añade.

Varios de los compañeros de Frazier cuentan a Business Insider que quedaron igualmente traumatizados por su experiencia como moderadores de TikTok cuando eran empleados de Telus International en Nevada, una de las principales subcontratas que TikTok utiliza para hacer frente a los vídeos gráficos en la plataforma.

Seis actuales y antiguos moderadores, así como Frazier, relatan a Business Insider una cultura de exceso de trabajo y vigilancia casi constante. Algunos dicen que dejaron el trabajo sintiéndose insensibles a la violencia. Dos moderadores afirman que se les ha diagnosticado un trastorno de estrés postraumático, mientras otros describen haber trabajado en condiciones de grave estrés psicológico que, en su opinión, la empresa no estaba preparada para gestionar.

Todos ellos firmaron en su día acuerdos de confidencialidad y han pedido utilizar seudónimos o hablar bajo condición de anonimato para ser sinceros sobre sus experiencias. Sus identidades son conocidas por Business Insider.

Desde que Frazier presentó su demanda, otros dos moderadores —entre ellos un empleado de Telus International y otro de la firma de subcontratación Atrium en el estado de Tennessee— han demandado a ByteDance con acusaciones similares.

"Mi salud mental estaba por los suelos", confiesa uno de los moderadores sobre su época de trabajo en TikTok.

ByteDance no ha respondido a las preguntas enviadas por Business Insider.

El departamento de pesadillas

El año pasado, redes sociales como Facebook y TikTok generaron más de 50.000 millones de euros en ingresos por publicidad, un negocio que se desmoronaría sin la moderación de contenidos.

"La alternativa consistiría en un feed de noticias dominado por la pronografía, el spam y los mensajes que incitan al repruebo", explica Paul Barrett, subdirector del Centro de Empresas y Derechos Humanos de la Universidad de Nueva York. "Ese tipo de cosas distanciaría a una gran mayoría de usuarios y, lo que es más importante, alejaría a los anunciantes".

Al igual que otras empresas de redes sociales, ByteDance se basa en una combinación de inteligencia artificial y moderadores humanos para eliminar este tipo de contenidos. La IA ayuda a separar los vídeos en varias colas, desde los vídeos de baja prioridad y los duetos de TikTok hasta el contenido gráfico, como los abusos a menores y los suicidios.

En los días de mayor actividad, los moderadores dicen que pueden trabajar con más de 1.200 vídeos cortos en un mismo turno. Las jornadas de trabajo eran de entre 8 y 10 horas, y varios moderadores afirman que eran incapaces de decir que no a hacer turnos consecutivos, a veces durante meses, revisando las colas de los vídeos gráficos.

"A mi departamento le llamaban el departamento de las pesadillas", dice Sasha, una antigua encargada de Telus International que dejó su trabajo el año pasado. Al igual que otros moderadores, Sasha ha pedido utilizar un seudónimo para hablar con franqueza de su experiencia.

"Estaba lleno de lo peor de lo peor", asegura, refiriéndose a los vídeos de abusos a menores, autolesiones, accidentes truculentos y tiroteos masivos que los usuarios publican a diario.

Al principio de cada turno, Sasha cuenta que recibían un listado de denuncias destinadas a las colas de vídeos gráficos de alta prioridad, en las que podían permanecer durante semanas hasta que los superiores decidían lo contrario.

"Eran perversoss, pero no podía sacarlos de ahí", explica Sasha.

"Nos sabemos las canciones del ISIS de memoria": así es el día a día de quienes revisan los vídeos que reportas en las redes sociales

Ashley, una antigua moderadora con antecedentes de autolesiones en su vida personal, afirma que los vídeos sobre el suicidio fueron de los más perturbadores para ella. Al principio de su carrera en Telus, relata que vio cómo se suicidaba un hombre con una escopeta.

"Podías ver cómo salía volando todo, y cómo se le caían los sesos", dice. "Pensaba en eso durante todo el día o lo recordaba sin quere
r".

Fue el primero de muchos vídeos de este tipo que Ashley encontraría en la plataforma.

La siguiente vez que vio un vídeo de autolesiones en su cola, se lo saltó para preservar su salud mental. Pero esto afectó a la eficacia de su trabajo, y sus jefes se dieron cuenta. Después de eso, dice, Telus International empezó a controlar si los moderadores reproducían los vídeos en su totalidad.

"Si descubren que no has reproducido los vídeos hasta el final, te metes en un lío", explica Roberta. "Te dan una 'pista', que es un strike en tu contra".

Sasha asegura que los moderadores reciben 5 de estas citaciones disciplinarias antes de ser despedidos.

Un portavoz de Telus International ha declarado a Business Insider que los moderadores pueden omitir los contenidos difíciles a su criterio y remitirlos a su equipo de respuesta de emergencia, existente desde el inicio de la colaboración de la empresa con TikTok, para que los eliminen de la plataforma. Esto también activa a su equipo de bienestar para que se ponga en contacto con ellos y les ofrezca apoyo.

En el poco más de un año que Sasha trabajó en Telus International afirma que nunca oyó hablar de un equipo de respuesta a emergencias en la empresa. En cambio, señala que en ByteDance existe un equipo de respuesta de emergencia que se encarga de los vídeos que la empresa está obligada a denunciar a las fuerzas del orden, y que aunque su equipo elevaba el material al departamento al menos una vez al día, nadie de Telus International ni del equipo de bienestar de TikTok se puso nunca en contacto con los moderadores afectados.

Para Roberta, otra ex moderadora que trabajó en Telus International durante algo más de un año, ver vídeos de asesinatos y de personas que maltratan a animales le provocó una grave ansiedad social. Un vídeo de una mujer apuñalada por dos hombres con un cuchillo de caza en medio de un bosque la traumatizó especialmente, confiesa.

"Antes me sentía totalmente cómoda con los demás", relata Roberta. "Ahora, simplemente me cuestiono todo".

Los moderadores dicen que no se les informó adecuadamente sobre el material que iban a revisar

Seis de los moderadores con los que ha hablado Business Insider dicen que, cuando empezaron a trabajar, Telus International no les informó adecuadamente sobre el contenido gráfico que iban a revisar.

"Hicieron creer que la mayoría de los vídeos iban a ser de gente divirtiéndose y después de crimen organizado o desnudos", explica Roberta a Business Insider.

"Nunca decían exactamente lo que ibas a ver porque, si lo hacían, asustarían a la gente", comenta otro moderador.

El Centro Nacional para Niños Desaparecidos y Explotados, una organización sin ánimo de lucro de Estados Unidos que rastrea el tráfico de niños y realiza un trabajo similar al de los moderadores de contenidos que revisan los vídeos de explotación infantil, afirma que la "explotación sensual infantil online" se menciona explícitamente durante su proceso de entrevistas y que anima a los posibles empleados a utilizar su página web para informarse sobre el problema. Las prácticas de la organización se han convertido en un modelo para la industria tecnológica y se citan habitualmente en demandas colectivas en nombre de los moderadores de contenidos gráficos en las redes sociales.

Sasha, la encargada de Telus International que participaba en los procesos de contratación, afirma que la empresa preguntaba a los candidatos si eran psicológicamente capaces de hacer frente a contenidos gráficos, pero que los entrevistadores rara vez describían con detalle el tipo de material que los candidatos iban a revisar.

Un portavoz de Telus International niega que se informase inadecuadamente a los candidatos sobre el tipo de contenido que se iban a encontrar y ha facilitado un documento que los moderadores firmaban reconociendo que iban a revisar "contenido gráfico, violento, sensual, explícito, político, profano y altamente perturbador". Pero los empleados con los que ha hablado Business Insider aseguran que el formulario es uno de los muchos papeles que firman durante su incorporación y que no le prestan especial atención.

Telus International también ha asegurado que intentó cambiar a los empleados que no querían trabajar en la moderación de contenidos a puestos como el de atención al cliente. Los moderadores con los que ha hablado Business Insider dicen que esto raramente ocurría, si es que realmente sucedió alguna vez. Roberta sostiene que suplicó a sus jefes que la cambiaran a un puesto de atención al cliente, pero se lo negaron.

"Sólo oí que no era realmente una opción", explica Sasha.

"Empezar a tomar la medicación"

Para ayudarles a superar el trauma psicológico de la moderación de contenidos gráficos, Telus International puso a disposición de sus moderadores orientadores de guardia y descansos para su bienestar. Pero los moderadores dicen que esos recursos no siempre les resultaron útiles.

"Asistí a una sesión de grupo y me horrorizó lo que escuché", afirma Ashley. "Algunas personas estaban compartiendo información profundamente personal. Y uno de los orientadores dijo algo así como: 'No soy médico ni nada parecido, pero deberías empezar a tomar algún tipo de medicación'".

Ashley dice que no volvió a asistir a ninguna otra sesión.

"Nos decían que nos olvidáramos o que diéramos un paseo", cuenta Roberta sobre el asesoramiento que recibió. La ineficacia de las sesiones la llevó a buscar un terapeuta externo que finalmente le diagnosticó un trastorno de estrés postraumático. Pero los 15 dólares por hora que le pagaba Telus International apenas cubrían el coste de la terapia y sus gastos de subsistencia.

"En definitiva, no te pagan lo suficiente para pagar el alquiler, la factura y el asesoramiento externo", dice. "Cogí otro trabajo sólo para poder ir a terapia".

En respuesta a las preguntas sobre el equipo de bienestar de Telus International, la empresa dice que emplea a psicólogos clínicos e investigadores con experiencia en la gestión del estrés psicosocial, la salud y la seguridad.

"Nuestro equipo de bienestar es muy consciente de las necesidades de salud y bienestar de nuestros moderadores de contenidos y se esfuerza por prevenir y mantener la buena salud mental de los miembros de nuestro equipo", señala el portavoz.

Este portavoz añade que la empresa permite a los moderadores tomarse dos horas de su semana para participar en sus propios programas de bienestar, con cargo a la empresa. De los cuatro moderadores a los que Business Insider ha podido preguntar sobre esta prestación, todos dicen que nunca fueron informados o que desconocían que existiera tal prestación.

Telus International también reconoció en su presentación anual ante la Comisión de Bolsa y Valores de Estados Unidos que, aunque la empresa ofrecía sesiones de asesoramiento, terapeutas y descansos para la salud mental, "puede haber ocasiones en las que nuestros programas de bienestar y resiliencia no mitiguen suficientemente esos efectos".

"No esperaba encontrarme hoy con prono infantil"

Aparte del estrés psicológico que supone la moderación de contenidos gráficos, los moderadores de Telus International dicen que sus objetivos de rendimiento eran en gran medida insostenibles y que sentían que siempre corrían el riesgo de ser despedidos. Los moderadores dicen que se les evalúa en función de tres parámetros: la velocidad a la que moderan los vídeos, la precisión de las etiquetas que utilizan y el número de vídeos que ven durante un turno.

Los moderadores afirman que disponen de 20 segundos para etiquetar los vídeos y que, a medida que la plataforma iba creciendo, se les pedía que etiquetaran los vídeos con una concreción cada vez mayor, llegando a tener que etiquetar cada torso o muslo expuesto. Pero estos cortos tiempos de gestión y el creciente número de etiquetas significaban que la mayoría de los moderadores rara vez alcanzaban su objetivo de precisión del 90%, según explican varios de ellos a Business Insider.

En la primavera de 2021, el centro de Nevada de Telus international empezó a recibir más colas y contenidos de TikTok, lo que supuso una presión aún mayor sobre los recursos de los empleados, según Sasha, la antigua encargada.

"Tuvimos que poner toda la carne en el asador", asegura.

Al principio, los moderadores contaban con dos descansos libres de 15 minutos por motivos de bienestar, además de dos descansos programados de 15 minutos y una hora de descanso para comer. A medida que sus colas se llenaban de contenido, tres moderadores y la antigua encargada cuentan a Business Insider que la empresa empezó a negarles sus descansos libres por motivos de bienestar. También tenían que pedir la aprobación de sus jefes antes de visitar a uno de los orientadores de guardia de Telus International.

"Si no estaba previsto en su horario, se les denegaba si intentaban hacer una pausa de bienestar", explica Sasha, que reconoce que esto desvirtuaba el propósito original de dar a los moderadores la oportunidad de alejarse de la pantalla después de ver algo especialmente traumático.

Telus International niega que se hayan quitado estos descansos. "Los descansos no se cancelan de acuerdo con la política de Telus International", afirma el portavoz de la compañía a Business Insider.

El explosivo crecimiento de los ingresos publicitarios de TikTok superará a YouTube en 2024, y su próximo objetivo es Facebook

Con el tiempo, según Sasha y otros tres moderadores, la empresa añadió una pausa de bienestar adicional programada, pero algunos moderadores dicen que siguen sintiéndose represaliados por utilizarlas.

Después de ver un vídeo especialmente perturbador en el que se mostraban abusos sensuales a menores, una moderadora dice que se alejó de su ordenador durante unos 15 minutos tras informar a su jefe. Cuando regresó, la encargada la amonestó por tomarse un descanso que no estaba programado, relata.

"Le dije que no esperaba encontrarme ese día con pronografía infantil", explica la moderadora. "Sé que no estaba programada, pero la tenía que hacer".

Sasha confirma que a veces se amonesta a los moderadores por hacer pausas de bienestar.

Otros moderadores dicen que Telus International vigilaba los tiempos de inactividad de los empleados, o el tiempo que permanecían inactivos durante la jornada laboral. El sistema de moderación de contenidos de la empresa controlaba la frecuencia con la que un empleado movía el cursor mientras trabajaba.

"Se estaban volviendo mucho más estrictos y haciendo la vida más estresante", afirma Ashley. "Empezaron a controlar literalmente todo".


(continúa en el mensaje núm. 6)


1656683527718.png Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sensuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada
 
Última edición:
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
jorobar menudos inutiles.
Obviamente, su trabajo es ese, impedir que todas las burradas de tarados sigan online.
A ver si los moderadores necesitan que antes pasen por moderacion los videos...

Al final, siempre hay alguien que tiene que hacer el trabajo, ya sea recoger cosa, recoger trozos de personas que se tiran a la via del tren, o ver videos de este tipo.


Puedo entender que se quejen del dinero o presion para visualizar x videos en plan cronometrado, pero no que se quejen del trabajo, ya lo sabian de antemano que es ser moderador.
A ver si se pensaban que iban a pasarse el dia viendo videos de gatitos y adolescentes bailando...
Hombre si ya ves que va a ser una burrada qué necesidad hay de verlo entero. Y el estrés postraumatico es por causa laboral.
 
Volver