otroyomismo
Madmaxista
- Desde
- 15 Abr 2016
- Mensajes
- 11.326
- Reputación
- 22.276
En los 80 y 90 las snuff movies no existían, eran solo un recurso literario y cinematográfico. En 2023, en la bella Barcelona, hay una empresa donde el 20% de su plantilla de 2.000 trabajadores está de baja, traumatizados por la exposición repetida a imágenes de violencia extrema publicadas en internet que deben moderar. Imagino a las personas que han dado su testimonio a Ignacio Orovio y Gemma Saura de La Vanguardia vistiéndose cada día, fichando, poniéndose un café y sentándose en el ordenador para etiquetar “asesinatos brutales, desmembramientos, torturas, violaciones, suicidios en directo, niños siendo abusados” por dos mil euros al mes.
Recomiendo leer el reportaje completo, pero dejo aquí algunos extractos:
Las redes sociales poseen robots que realizan una selección previa de los contenidos que deben pasar por la moderación humana. Pero suelen ser personas quienes dan el primer aviso de que algo no está bien y quienes toman la decisión última de eliminar un contenido tras examinarlo. Según los datos de Meta, en el segundo trimestre del 2023, fueron retirados 7,2 millones de contenidos por abuso sensual a niños; 6,4 millones por suicidio y autolesión de Facebook; 6,2 millones por violencia en Instagram; 17,5 millones por discurso de repruebo en Facebook.
En teoría, una mejor tecnología podría ayudar a que este trabajo tóxico para el alma no vuelva a realizarlo nadie nunca más. Pero los expertos, como la abogada y activista Cori Crider, lo dudan: “el trabajo de los moderadores es necesario e importante, y lamentablemente no creo que nunca podamos derivarlo completamente a la inteligencia artificial”. De momento lo que estamos viendo con la IA generativa es un aumento de los contenidos. Incluidos, por ejemplo, los de pronografía infantil artificial. Si la pulsión por contagiar lo peor del ser humano está ahí desde hace décadas, e internet la amplificó, veamos qué sucede con un nuevo salto tecnológico.
Como decíamos hace poco en esta newsletter sobre el caso Almendralejo de menores desnudadas con IA, legalmente no es lo mismo, y menos mal, una imagen real que una sintética. Pero sus efectos en nuestros cerebros sí pueden serlo.
El texto completo esta aqui:
Sorry, de pago por si alguien puede pegarlo. Lo he leido en la version papel, acojonante cosa de mundo. Que caiga el meteorito.
De postre y de rebote, la vanguardia vuelve a recordarnos a estos:
Si quereis ampliar la "historia"...
REPITO: que caiga el meteorito
Recomiendo leer el reportaje completo, pero dejo aquí algunos extractos:
- Llegó el primer ataque de pánico. “Fue por un suicidio en directo”.
- “A menudo ocurre que la persona saca una pistola escondida y se mata sin que puedas hacer nada”.
- “Me caí al suelo, no podía respirar. Pedí ver a la psicóloga de la empresa, me atendió pasada una hora. Solo hablé yo. Cuando acabé me dijo que hacía un trabajo muy importante para la sociedad y tenía que ser fuerte. Y que el tiempo se había acabado y debía volver a mi puesto”.
- “Hemos decidido ir por la vía penal. La empresa es plenamente consciente de lo que ocurre, de que está generando masas de jóvenes enfermos”.
- En Latinoamérica hay mucho “terrorismo”: vídeos que cuelgan grupos criminales, con torturas y ejecuciones salvajes, para amedrentar. No es casual que la mayoría de moderadores traumatizados entrevistados sean de estos mercados.
- La metieron en la “cola de suicidios en directo”. Coincidió que se separó de su pareja. Entró en depresión. Tuvo dos intentos de suicidio.
- Los moderadores de contenido están sometidos a severas cláusulas de confidencialidad. Ni siquiera sus parejas pueden saber que, por encima de Telus, trabajan para Meta. Entrar con teléfono móvil en la sala de visionado se sanciona con dos semanas sin sueldo.
Las redes sociales poseen robots que realizan una selección previa de los contenidos que deben pasar por la moderación humana. Pero suelen ser personas quienes dan el primer aviso de que algo no está bien y quienes toman la decisión última de eliminar un contenido tras examinarlo. Según los datos de Meta, en el segundo trimestre del 2023, fueron retirados 7,2 millones de contenidos por abuso sensual a niños; 6,4 millones por suicidio y autolesión de Facebook; 6,2 millones por violencia en Instagram; 17,5 millones por discurso de repruebo en Facebook.
En teoría, una mejor tecnología podría ayudar a que este trabajo tóxico para el alma no vuelva a realizarlo nadie nunca más. Pero los expertos, como la abogada y activista Cori Crider, lo dudan: “el trabajo de los moderadores es necesario e importante, y lamentablemente no creo que nunca podamos derivarlo completamente a la inteligencia artificial”. De momento lo que estamos viendo con la IA generativa es un aumento de los contenidos. Incluidos, por ejemplo, los de pronografía infantil artificial. Si la pulsión por contagiar lo peor del ser humano está ahí desde hace décadas, e internet la amplificó, veamos qué sucede con un nuevo salto tecnológico.
Como decíamos hace poco en esta newsletter sobre el caso Almendralejo de menores desnudadas con IA, legalmente no es lo mismo, y menos mal, una imagen real que una sintética. Pero sus efectos en nuestros cerebros sí pueden serlo.
El texto completo esta aqui:
https://www.lavanguardia.com/vida/20231006/9279078/mi-cabeza-solo-hay-fin.html
Sorry, de pago por si alguien puede pegarlo. Lo he leido en la version papel, acojonante cosa de mundo. Que caiga el meteorito.
De postre y de rebote, la vanguardia vuelve a recordarnos a estos:
Los ‘monstruos’ de Gloucester y la ‘Casa de los Horrores’: incesto, violaciones y crímenes durante dos décadas
Fred y Rosemary West son los mayores asesinos en serie de la crónica de color británica, que torturaron y mataron a decenas de víctimas inocentes, incluidas a sus propias hi...
www.lavanguardia.com
Si quereis ampliar la "historia"...
REPITO: que caiga el meteorito