PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Algoritmos injustos

¿Es necesaria la supervisión de la inteligencia artificial? 

Human Rights Watch denunció en un informe publicado en junio de 2023, titulado Negligencia automatizada: Cómo el impulso del Banco Mundial para asignar asistencia en efectivo mediante algoritmos perjudica a las personas que viven en la pobreza, cómo en Jordania los algoritmos del Programa Unificado de Transferencia de Efectivo –conocido como Takaful– excluía y perjudicada a las personas más necesitadas. Según el informe, este programa, financiado en gran parte por el Banco Mundial, utiliza sistemas automatizados que no capturan la complejidad de la pobreza, lo que genera errores, discriminaciones y exclusiones injustas.

El proceso de evaluación del programa Takaful comienza con un cuestionario que los solicitantes deben completar en línea o en centros de registro. En el formulario proporcionan su nombre, número de identificación nacional e información sobre ingresos, gastos de manutención, y consumos de agua y electricidad. Dicha información se combina con más de 30 bases de datos gubernamentales (incluyendo historiales laborales, vehículos registrados, licencias comerciales y participación en otros programas sociales) para crear perfiles detallados de los hogares.

La Agencia Nacional de Ayuda de Jordania, responsable de implementar Takaful, evalúa a los solicitantes en dos etapas. Primero, verifica si los solicitantes han cumplido con los criterios básicos de elegibilidad, como ser ciudadano jordano y vivir por debajo del umbral oficial de pobreza. Luego, un algoritmo utiliza 57 indicadores socioeconómicos (ingresos familiares, gastos en necesidades básicas, propiedades, activos, ubicación, etc.) para clasificar a los solicitantes de menos a más pobres. 

La investigación realizada por Human Rights Watch reveló que varios de esos indicadores no reflejan adecuadamente la realidad económica de las personas, lo que lleva a exclusiones arbitrarias. Por ejemplo, poseer un vehículo de menos de cinco años excluye al solicitante, automáticamente, del programa de ayuda. El algoritmo no contempla que un vehículo, en determinados escenarios, puede ser un bien necesario. Tampoco contempla el valor y estado del vehículo y la frecuencia en el uso. Otro ejemplo: Las familias que consumen más agua y electricidad pueden tener menos probabilidades de calificar para recibir ayudas. Consumen más que otros hogares porque sus electrodomésticos son viejos y poco eficientes, pero se da la paradoja de que no pueden comprar otros nuevos por falta de recursos.

Más indicadores injustos. El algoritmo discriminaba a familias de mujeres jordanas casadas con hombres no jordanos, porque estas no pueden transmitir la ciudadanía a sus hijos y cónyuges. El algoritmo calcula el tamaño del hogar basándose, únicamente, en la cantidad de jordanos que residen en el mismo, subestimando las necesidades reales y reduciendo las probabilidades de recibir ayuda.

Conclusión

Los algoritmos mal diseñados pueden causar exclusiones, discriminaciones, desigualdades y brechas digitales, por eso se advierte necesaria su supervisión. 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es