La inteligencia artificial (IA) ya forma parte de nuestra vida cotidiana. A continuación, les compartiré algunos ejemplos de su aplicación.
En la mayoría de las entidades financieras —por no decir en todas—, la concesión de préstamos se decide mediante algoritmos que calculan el nivel de scoring crediticio, es decir, la probabilidad de que un crédito de un importe determinado, solicitado por un cliente específico y con una finalidad y un plazo concreto, entre en situación de impago. Si esa probabilidad es inferior al límite máximo establecido por la entidad, se concede el préstamo; si lo supera, se deniega. Estos algoritmos se basan en diversos datos, como la ratio de solvencia del solicitante, los ingresos en relación con los pagos comprometidos, la antigüedad en el empleo, la formación académica, la declaración patrimonial y otros factores relevantes.
Otro ejemplo: los algoritmos permiten obtener respuestas rápidas y precisas en la predicción del clima, superando a los métodos tradicionales gracias a su capacidad para procesar grandes volúmenes de datos en tiempo real y detectar patrones complejos. En la agricultura, con la ayuda de sensores, los sistemas de inteligencia artificial permiten optimizar la producción, regular el riego, detectar plagas, determinar el momento óptimo para la siembra o la recogida de las cosechas, contribuyendo al desarrollo de soluciones sostenibles y eficientes.
La inteligencia artificial será fundamental en el desarrollo de las ciudades inteligentes, por ejemplo, para ordenar el tráfico de los vehículos, optimizar el transporte público o la recogida de los residuos sólidos urbanos.
En el campo de la logística, la inteligencia artificial permite gestionar, de una manera más eficiente, las cadenas de suministros, optimizar la toma de decisiones y controlar las fases de producción.
Los algoritmos también están revolucionando el sector de la salud, ya que son capaces de detectar tumores con un porcentaje de acierto superior al de un grupo de especialistas. Todo esto es una realidad que va a más.
Decisiones individuales automatizadas
El problema de los algorítmicos es que pueden dar lugar a decisiones injustas y discriminatorias.
Consciente de esta realidad, el legislador europeo estableció en el artículo 22, apartado 1, del RGPD lo siguiente: «Todo interesado tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».
El primer requisito para que entre en juego el artículo 21, apartado 1, del RGPD es que la decisión la adopte únicamente una máquina, es decir, sin intervención humana. Sin embargo, no es fácil determinar si en el proceso de toma de decisiones de un algoritmo hubo presencia humana, ya que es una persona quien valora la automatización de la decisión y quien decide si se adopta la decisión automatizada.
Según el artículo 22, apartado 2, del RGPD, el tratamiento automatizado solo se permite en los siguientes casos: a) cuando sea necesario para la celebración o ejecución de un contrato entre el interesado y el responsable del tratamiento; b) cuando esté autorizado por el Derecho de la Unión o de los Estados miembros, con medidas adecuadas para salvaguardar los derechos, libertades e intereses legítimos del interesado; c) cuando se base en el consentimiento explícito del interesado. En los casos a) y c), el responsable del tratamiento debe garantizar el derecho del interesado a obtener intervención humana, expresar su punto de vista e impugnar la decisión.
Con relación a la información relacionada con la lógica aplicada al tratamiento automatizado, esta ha de ser concisa, transparente, inteligible, de fácil acceso y suficiente como para que el interesado pueda saber cómo funciona el sistema de inteligencia artificial que tomará la decisión basada en sus datos personales.
Si el interesado no está de acuerdo con la automatización de la decisión por parte del responsable del tratamiento, puede negar su consentimiento para el procesamiento de sus datos personales. El problema radica en que, si no consiente, probablemente pierda la oportunidad de celebrar el contrato correspondiente —por ejemplo, un préstamo con una entidad financiera—, lo cual es injusto, dado que la «igualdad de armas» en esa negociación no es real.
Límites
El legislador europeo, consciente del peligro de estas decisiones, ha establecido límites específicos para el tratamiento de categorías especiales de datos (aquellos que revelan el origen étnico o racial, opiniones políticas, convicciones religiosas o filosóficas, afiliación sindical, datos genéticos, biométricos para identificación unívoca, datos relativos a la salud, vida sexual u orientación sexual).
En tales casos, la decisión automatizada solo se autoriza si el interesado ha dado su consentimiento explícito. No obstante, el responsable debe garantizar la libertad de elección de los usuarios: al solicitar el consentimiento, se deben ofrecer alternativas viables y equivalentes a la decisión automatizada. Además, se garantizará que, si el interesado opta por no someterse a ella, no se introduzca un sesgo perjudicial para sus intereses. Si no se cumplen estas condiciones, el consentimiento no se considera libre. Dichas medidas deben integrarse desde la fase de diseño del tratamiento.
Otro supuesto en el que se admite el tratamiento automatizado de datos de categorías especiales es por razones de interés público esencial, con medidas adecuadas de protección.
Conclusión
Cabe una última reflexión: ¿Son suficientes las salvaguardas legales o estamos normalizando un sistema donde la discriminación algorítmica para acceder a servicios esenciales se normaliza a pesar de la legislación?
Aunque la legislación europea, como el Reglamento de Inteligencia Artificial, introduce obligaciones de transparencia y control para los sistemas considerados de alto riesgo, en la práctica muchas decisiones que afectan a derechos fundamentales quedan fuera de este marco, ya que solo una parte de los algoritmos utilizados en sectores clave están sujetos a registro y supervisión obligatoria, dejando un amplio margen para que los algoritmos operen sin suficiente control externo.
Casos recientes en la Unión Europa han evidenciado cómo la falta de transparencia y control puede derivar en discriminación algorítmica sistémica. Por ejemplo, en Suecia los algoritmos utilizados por la Agencia de Seguridad Social (Försäkringskassan) han discriminado a colectivos vulnerables, como personas con discapacidad, madres solteras o residentes en barrios desfavorecidos, al ser etiquetados injustamente como «riesgo de fraude». Estos sesgos suelen originarse porque los sistemas de inteligencia artificial se entrenan con datos históricos que reflejan prejuicios sociales existentes, perpetuando y, en ocasiones, agravando las desigualdades sociales.
La regulación vigente, aunque prohíbe prácticas discriminatorias y promueve la transparencia, presenta limitaciones importantes, como el hecho de que la información de los algoritmos no sea comprensible ni accesible para la ciudadanía.
No se pierda nuestro podcast sobre el artículo


