Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Algoritmos injustos

¿Es necesaria la supervisión de los algoritmos?

Human Rights Watch denuncia en un informe reciente, titulado Negligencia automatizada, como en Jordania los algoritmos del Programa Unificado de Transferencia de Efectivo –conocido como Takaful– perjudica a gente necesitada.

El complejo proceso de Takaful para evaluar quién recibe transferencias en efectivo comienza con un cuestionario que los solicitantes deben completar. Los solicitantes ingresan su nombre y su número de identificación nacional, así como información relacionada con sus ingresos, gastos de manutención, consumos de agua y electricidad. Dicha información se combina con datos procedentes de 37 agencias gubernamentales, como historiales de empleo, vehículos y licencias comerciales e inscripción en otros programas de protección social, necesarios para crear perfiles completos de los solicitantes.

La agencia de protección social del gobierno jordano, responsable de implementar Takaful, examina a los solicitantes en dos etapas. Primero, evalúa si los solicitantes han cumplido con los criterios básicos de elegibilidad, como ser ciudadano jordano y vivir por debajo del umbral oficial de pobreza. Después, los algoritmos utilizan 57 indicadores (ingresos familiares, gastos en necesidades básicas, propiedades y activos, tamaño de la familia, área geográfica, etc.) para clasificar a los solicitantes de menos a más pobres. Los más vulnerables recibirán en efectivo entre 40 y 136 dinares jordanos (US$56 a $192) por mes.

La investigación realizada por Human Rights Watch reveló que algunos de esos indicadores no captan completamente la complejidad económica de la vida de las personas. Por ejemplo, poseer un vehículo de menos de cinco años excluye al solicitante, automáticamente, del programa de ayuda. El algoritmo no contempla que un vehículo, en determinados escenarios, puede ser un bien necesario. Tampoco contempla el valor y estado del vehículo y la frecuencia en el uso.

Otro ejemplo: Las familias que consumen más agua y electricidad pueden tener menos probabilidades de calificar para recibir ayudas. Consumen más que otros hogares porque sus electrodomésticos son viejos y poco eficientes, pero se da la paradoja de que no pueden comprar otros nuevos por falta de recursos.

Más indicadores injustos. El algoritmo podría discriminar a las familias de mujeres jordanas casadas con hombres no jordanos porque estas mujeres no pueden transmitir la ciudadanía a sus hijos y cónyuges. El algoritmo calcula el tamaño del hogar basándose, únicamente, en la cantidad de jordanos que residen en el mismo.

Conclusión

Los algoritmos mal diseñados pueden causar exclusiones, discriminaciones, desigualdades y brechas digitales, por eso se advierte necesaria su supervisión. 

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).