Namita Pradhan vive a las afuera de Calcuta. Pasa sus días frente a una pantalla. No es médica, ni enfermera, ni siquiera tiene estudios universitarios. Su rutina laboral consiste en reproducir, pausar y rebobinar vídeos de colonoscopias, escudriñando cada fotograma en busca de anomalías. Su tarea: identificar y marcar pólipos sospechosos, esto es, esas pequeñas protuberancias en el colon que, si no se detectan a tiempo, podrían derivar en cáncer colorrectal. Si acierta puede estar marcando un pólipo que algún día derive en cáncer. Su formación: una videoconferencia de pocas horas impartida por un radiólogo que le enseñó a distinguir entre tejido normal, sombras inofensivas y posibles amenazas.
Lo que Namita hace a cambio de unas pocas rupias por vídeo sirve de entrenamiento a los sistemas de IA médica. Esta historia no es inventada, es real. India se ha convertido en la gran fábrica invisible de datos médicos del mundo.
Conclusión
En el entrenamiento de cada modelo de IA hay millones de anotaciones hechas por personas como Namita. En su caso, la calidad de las anotaciones puede incluir falsos positivos y pólipos reales que pasaron desapercibidos. Me surgen varios interrogantes:
- ¿Las anotaciones se realizan en entornos controlados, con métricas de calidad?
- ¿Se documenta el proceso de entrenamiento? ¿se audita?
- ¿Cuál es el umbral de errores aceptable para lanzar un sistema de IA comercialmente?
- Si la IA se equivoca, ¿quién asume la responsabilidad? ¿la empresa que desarrolla el sistema? ¿el hospital? ¿el médico? ¿Namita, que se equivocó porque estaba agotada?
- ¿De verdad queremos que nuestra vida dependa de una máquina cuyo entrenamiento lo hicieron personas agotadas, mal pagadas y sin nadie que las supervise de verdad?
No se pierda nuestro podcast sobre el artículo


