¿Sabían que la Agencia Tributaria utiliza algoritmos para detectar el fraude fiscal? Pues sí, lo hace.
Países Bajos y SyRI
SyRI (acrónimo de System Risk Indication) era un instrumento legal que empleaba el gobierno de los Países Bajos para combatir el fraude en diversas áreas (recaudación, seguridad social, etc.) Según el gobierno neerlandés se trataba de una infraestructura técnica con la que podían vincular y analizar los datos, de forma anónima y en un entorno seguro, para generar informes de riesgo y detectar posibles irregularidades.
El algoritmo analizaba una gran cantidad de información de carácter personal, incluyendo el puesto de trabajo, los ingresos, las propiedades, las prestaciones sociales, los seguros, los datos relativos a medidas y sanciones administrativas, el lugar de residencia y los datos de educación, entre otros. Con toda esa información se elaboraba un perfil de la persona y se calculaban las probabilidades de fraude. De este modo, según el resultado del informe de riesgo, una persona podía ser objeto de una investigación por posible fraude o incumplimiento de la legislación.
En 2018, una coalición de ocho organizaciones civiles –incluyendo grupos de abogados, activistas por los derechos humanos y el sindicato mayoritario FNV– demandó al Estado neerlandés, argumentando que SyRI violaba derechos fundamentales al invadir la privacidad de forma injustificada. El gobierno alegó que el sistema incluía garantías suficientes para proteger la privacidad de las personas afectadas.
El 5 de febrero de 2020, el Tribunal de Distrito de La Haya resolvió que SyRI no superaba la prueba del artículo 8, apartado 2, del Convenio Europeo de Derechos Humanos (CEDH), que protege el derecho al respeto de la vida privada y familiar.
El tribunal evaluó el equilibrio entre los objetivos del Estado —prevenir el fraude para el bienestar económico— y la invasión a la privacidad, concluyendo que SyRI no lo respetaba. El algoritmo carecía de transparencia y verificabilidad, ya que el gobierno mantenía en secreto el método de cálculo de riesgos, es decir, la probabilidad de fraude.
El fallo no exigió la divulgación total del algoritmo, pero sí demandó más detalles sobre criterios objetivos, factores de riesgo y medidas para mitigar impactos en las personas. Además, criticó la ausencia de obligación de informar a los afectados sobre los informes de riesgo generados. Un aspecto clave fue la creación de perfiles sin evaluación previa de riesgos, lo que el tribunal consideró indispensable bajo el CEDH, exigiendo salvaguardas sólidas alineadas con principios como la transparencia y la proporcionalidad.
Aunque el gobierno invocó el artículo 35, apartado 10, del RGPD para justificar la falta de evaluación de impacto previa, el tribunal priorizó el CEDH y rechazó esta línea de defensa. Como resultado, los Países Bajos se vieron obligados a abandonar el sistema.
Esta sentencia ha sido un hito internacional, abriendo un debate sobre el uso de la IA por el sector público frente a la defensa del derecho a la vida privada, a la igualdad de trato y a la protección contra la discriminación, los estereotipos y la estigmatización en la creación de perfiles y el uso de algoritmos.
Algoritmos de la Agencia Tributaria
En España, la Agencia Estatal de Administración Tributaria (AEAT) ha empleado algoritmos y herramientas de Big Data desde hace años para identificar discrepancias en la facturación de contribuyentes comparada con la media sectorial, presumiendo posibles fraudes. Sin embargo, el Tribunal Supremo, Sala Tercera, de lo Contencioso-Administrativo, Sección 2ª, la sentencia 1231/2020, de 1 de octubre de 2020 (RC 2966/1999) cuestionó estas prácticas al anular «visitas sorpresa» de inspectores, advirtiendo que «la corazonada o presentimiento de que, por tributar un contribuyente por debajo de la media del sector le hace incurrir a este en una especie de presunción iuris et de iure de fraude fiscal, es un dato que por sí mismo no basta. No cabe la autorización de entrada con fines prospectivos, estadísticos o indefinidos para ver qué se encuentra».
Otro caso relevante involucró a la Asociación Española de Asesores Fiscales (AEDAF) que recurrió ante la Audiencia Nacional los modelos online del IRPF de los ejercicios fiscales 2019 y 2020. El problema radicaba en un algoritmo que inhabilitaba una deducción del 3 % para inmuebles arrendados adquiridos a título lucrativo (por herencia o donación). Al marcar la casilla 0119 (adquisición lucrativa), el sistema bloqueaba el uso del valor de adquisición (casilla 0126) en el cálculo de amortización, contraviniendo la ley. La Audiencia Nacional admitió los recursos y, en fallos posteriores, anuló aspectos similares en modelos relacionados (por ejemplo, en 2020, anuló partes del modelo IRPF por errores interpretativos en la Reserva para Inversiones en Canarias).
Conclusión
El gobierno en la Estrategia de Inteligencia Artificial 2024 afirma que España se sitúa el sexto lugar de los Estados miembros de la Unión Europea que más implementan algoritmos en el ámbito público. La clave está en la transparencia: por ejemplo, el algoritmo de cálculo del tipo de retención a cuenta del IRPF para los rendimientos del trabajo personal es público (lo pueden encontrar en la página web de la Agencia Tributaria, y haciendo clic aquí), pero otros permanecen opacos.
Para terminar, quiero compartirles dos estudios relacionados con el uso de la inteligencia artificial en el sector público: Nudging e inteligencia artificial contra la corrupción en el sector público: posibilidades y riesgos (2022) de Óscar Capdeferro Villagrasa y Juli Ponce Solé y Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el derecho (2019) de Lorenzo Cotino Hueso.


