PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Las cloacas de la inteligencia artificial

Se habla mucho de las bondades de la inteligencia artificial, pero poco de su lado oscuro: las cloacas.

La inteligencia artificial no es innata, como la humana. Para aprender, los algoritmos requieren un entrenamiento previo, basado en millones de datos etiquetados y clasificados por los llamados «etiquetadores de datos» o «moderadores de contenido».

Para que un algoritmo funcione, necesita distinguir patrones y categorías. Pongamos, por ejemplo, que queremos entrenar un algoritmo para vender productos de moda concretamente bolsos según las preferencias y gustos de los usuarios de un sitio web. Debemos considerar que existen diferentes tipos de bolsos, pero los algoritmos no saben distinguirlos, para ellos todos son bolsos. Para clasificarlos, y así distinguirlos, se necesita la intervención de un humano que los etiquete según sus características. Este proceso, conocido como «enriquecimiento de datos», es sencillo pero crucial. Sin embargo, suele estar mal pagado y exige enfrentarse a largas jornadas, con una carga laboral que aumentó de 100 a 800 revisiones diarias de media, a un ritmo de 30 segundos por artículo.

La mano de obra se busca principalmente en países centroafricanos, latinoamericanos y asiáticos para minimizar costes, aunque no es exclusivo de países en vías de desarrollo, pues hay etiquetadores de datos en Estados Unidos, Alemania o España. Todos comparten un denominador común: salarios mínimos y escasos derechos laborales. En Finlandia incluso se ha reclutado a presos con la consigna de programas de reeducación.

Los precios varían según el país y la productividad del trabajador. La media en Estados Unidos rondan los 7 $/hora, en Malasia los 3 $/hora, en Venezuela menos de 1 $/hora y en países centroafricanos los salarios son aún más bajos. Se paga por tarea completada; no cotizan y no hay protección social. En España, las ofertas rondan los 10 €/hora, aunque muchos trabajadores tienen que asumir costos adicionales como la conexión a Internet y el uso de su propio equipo.

No todo lo que se etiqueta son mercancías, como los bolsos que antes mencionaba. Hay cosas mucho menos agradables de ver, como escenas siniestras, perturbadoras y de violencia extrema que impactan en la salud mental del trabajador. No olvidemos que su trabajo consiste en filtrar todo aquello que no debe estar en Internet. La falta de preparación y apoyo psicológico agrava el impacto.

En Barcelona, trabajadores de la empresa CCC Barcelona Digital Services, subcontratada por Meta, denunciaron en 2023 condiciones laborales abusivas. Estos trabajadores, encargados de moderar contenido en Facebook, Messenger e Instagram, presentaron una querella contra CCC y Meta por delito continuado contra los derechos laborales, lesiones graves por negligencia grave y un tercero contra la integridad moral. La querella subraya que existió una opacidad total durante las sesiones de entrenamiento sobre el propósito de los trabajos que iban a realizar, lo que hizo más impactante la exposición repentina e inesperada a esos contenidos. La Inspección de Trabajo impuso una multa a la empresa de 40.985 € por no evaluar riesgos psicosociales. En abril de 2025, Meta canceló el contrato con CCC, lo que llevó al despido masivo de casi toda la plantilla (alrededor de 2.000 personas).

También en Barcelona, el Juzgado de Instrucción nº 9 investiga la querella interpuesta el 8 de abril de 2025 por una trabajadora de la compañía Majorel SP Solutions, subcontratada para moderar los contenidos de TikTok, en la que relata los trastornos sufridos tras años moderando vídeos con contenido extremo. Durante una jornada laboral, veía entre 800 y 1.200 vídeos con solo una pausa de cinco minutos por hora. La trabajadora tiene un diagnóstico de trastorno por estrés postraumático, después de haber sufrido un trastorno ansioso-depresivo. La empresa se defendió alegando que el visionado de imágenes perturbadoras era residual. A esta querella se unieron tres trabajadores más.

Por su parte, el Juzgado de lo Social nº 28 de Barcelona dictaminó en enero de 2024 que la incapacidad temporal sufrida por un moderador de contenidos extremos constituye un accidente laboral. La sentencia fue confirmada por la Sala de lo Social del Tribunal Superior de Justicia de Cataluña, sentando un importante precedente sobre la responsabilidad empresarial por daños psicológicos derivados de la exposición laboral a material traumático.  

Conclusión

El etiquetado de datos y la moderación de contenido son pilares invisibles de la inteligencia artificial, pero sus costes en salud mental y dignidad laboral son elevados y persistentes.

Las grandes tecnológicas, en su afán por eficiencia y reducción de costes, externalizan estas tareas a regiones con mano de obra barata, ignorando a menudo el bienestar de los trabajadores. La opacidad sobre las cadenas de subcontratación y la regulación insuficiente agravan el problema.

Es urgente que la industria de la IA asuma su responsabilidad: mejores condiciones laborales, apoyo psicológico y mayor transparencia en las cadenas de subcontratación. Solo así se podrá hablar de un desarrollo tecnológico verdaderamente ético y sostenible.

No se pierda nuestro podcast sobre el artículo

 

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es