Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Algoritmos de la Agencia Tributaria

¿Sabían que la Agencia Tributaria emplea algoritmos para detectar el fraude fiscal? Pues sí, lo hace.

España no es el único país que emplea algoritmos en la lucha contra el fraude. En este artículo, les voy a contar un caso de especial trascendencia, tanto que requirió un pronunciamiento del Tribunal de la Haya, cuya sentencia encontrarán haciendo clic aquí.

Países Bajos y SyRI

SyRI (acrónimo de System Risk Indication) era un instrumento legal que empleaba el gobierno de los Países Bajos para combatir el fraude en el ámbito de la seguridad social y los regímenes relacionados con los ingresos, impuestos y contribuciones a la seguridad social y leyes laborales. Según el gobierno de los Países Bajos, se trataba de una infraestructura técnica con la que podían vincular y analizar los datos, de forma anónima y en un entorno seguro, para generar informes de riesgo.

En el informe de riesgo el algoritmo analizaba infinidad de información de carácter personal, como el puesto de trabajo, ingresos, propiedades, prestaciones sociales, seguros, datos relativos a medidas y sanciones administrativas, lugar de residencia, datos de educación… con los que creaban un perfil de la persona. El algoritmo calculaba quién tenía más probabilidades de defraudar a la Administración. De forma que, en función del resultado del informe de riesgo, una persona física o jurídica podía ser merecedora de investigación en relación con un posible fraude, uso indebido e incumplimiento de la legislación.

Una coalición de ocho grupos civiles, entre ellos organizaciones de abogados, activistas de derechos humanos y el sindicato mayoritario FNV en los Países Bajos, iniciaron un proceso contra el Estado, al entender que estaba cometiendo una violación inaceptable de los derechos humanos al desplegar SyRI. El Estado alegó que la legislación SyRI contenía garantías suficientes para proteger la privacidad de todas las personas físicas y jurídicas.

El Tribunal de la Haya resolvió que la legislación SyRI no resistía la prueba del artículo 8 apartado 2 del Convenio Europeo de Derechos Humanos.

El Tribunal comparó los objetivos que perseguía el Estado con la legislación SyRI, esto es, prevenir y combatir el fraude en aras del bienestar económico, con la invasión de la privacidad de los afectados. La conclusión fue que SyRI no cumplía el equilibrio justo exigido para poder hablar de una invasión de la vida privada suficientemente justificada. El algoritmo no era transparente ni verificable a juicio del Tribunal, toda vez que el Estado mantenía en secreto la forma de calcular la posibilidad de fraude.

El Tribunal no impone al Estado una divulgación total del algoritmo, pero sí esperaba más información sobre los criterios objetivos en los que se desarrolló el modelo, así como los factores y la forma en que se abordaron los riesgos particulares para las personas. Además, no se establecía ninguna obligación de información a los afectados sobre la realización del informe de riesgos.

Un punto de debate importante en el litigio fue la elaboración de perfiles sin una evaluación de riesgos previa por parte de la Administración, que defendió la misma, amparándose en el artículo 35.10 del RGPD que dispone lo siguiente: «Cuando el tratamiento de conformidad con el artículo 6, apartado 1, letras c) o e), tenga su base jurídica en el Derecho de la Unión o en el Derecho del Estado miembro que se aplique al responsable del tratamiento, tal Derecho regule la operación específica de tratamiento o conjunto de operaciones en cuestión, y ya se haya realizado una evaluación de impacto relativa a la protección de datos como parte de una evaluación de impacto general en el contexto de la adopción de dicha base jurídica, los apartados 1 a 7 no serán de aplicación excepto si los Estados miembros consideran necesario proceder a dicha evaluación previa a las actividades de tratamiento». Para el Tribunal la evaluación de riesgos previa al tratamiento de datos personales es indispensable, pues se ponen en riesgo los derechos y libertades de las personas, y la exige en base al artículo 8 apartado 2 del Convenio Europeo de Derechos Humanos, poniendo como límite a la confección de perfiles que se establezcan –como contrapartida– salvaguardas significativamente sólidas y en línea con los principios del referido Convenio.

Los Países Bajos se vieron obligados a revisar la legislación SyRI, pues esta no cumplía los principios de transparencia, limitación de la finalidad, proporcionalidad y minimización de datos que exige el RGPD.

Esta sentencia marca un antes y un después en la defensa del derecho a la vida privada, a la igualdad de trato y a la protección contra la discriminación, los estereotipos y la estigmatización en la creación de perfiles y el uso de algoritmos.

Algoritmos de la Agencia Tributaria

Desde hace tiempo, la Agencia Tributaria emplea algoritmos junto con herramientas de Big Data para determinar que un contribuyente presenta datos de facturación discordantes con la media del sector, lo que le lleva a presumir que puede estar incurriendo en fraude, práctica que el Tribunal Supremo, Sala Tercera, de lo Contencioso-Administrativo, Sección 2ª, puso en duda en la sentencia 1231/2020, de 1 de octubre, que anuló las «visitas por sorpresa» de los inspectores de la Agencia Tributaria, con la siguiente advertencia: «la corazonada o presentimiento de que, por tributar un contribuyente por debajo de la media del sector le hace incurrir a este en una especie de presunción iuris et de iure de fraude fiscal, es un dato que por sí mismo no basta. No cabe la autorización de entrada con fines prospectivos, estadísticos o indefinidos para ver qué se encuentra».

La Asociación Española de Asesores Fiscales (AEDAF) recurrió ante la Audiencia Nacional los modelos online del IRPF de los ejercicios fiscales 2019 y 2020 por impedir a los contribuyentes con inmuebles arrendados acceder a una deducción del 3% en el IRPF. Los discutidos modelos online de declaración del IRPF contienen un algoritmo que hace que, cuando se marca una casilla determinada, se inhabilita una opción que sí existe en la ley. Se trata de los apartados para determinar el rendimiento del capital inmobiliario en la página 7, en el supuesto de que la adquisición del inmueble objeto de cesión en arrendamiento o usufructo se hubiera realizado por el contribuyente de forma lucrativa. En tal caso, se debe iniciar el cálculo de la amortización del inmueble eligiendo la casilla 0119, y no la casilla 0118 prevista para los supuestos de adquisición. Seguidamente, al contribuyente se le abren las casillas 0120 a 0129, en las que debe informar de diversos conceptos. A la hora de calcular la amortización del inmueble, en el caso de que haya sido adquirido por el contribuyente a título lucrativo, la aplicación informática del modelo inhabilita que se tenga en cuenta el importe de adquisición fijado en la casilla 0126 como parte de la base. Haciendo clic aquí encontrarán información sobre el recurso de AEDAF.

Conclusión

El uso de los algoritmos por la Agencia Tributaria y otros organismos públicos, como la Inspección de Trabajo y Seguridad Social, es habitual y tiende a más. La cuestión es si existe transparencia suficiente sobre dichos algoritmos de cara al contribuyente. El algoritmo de cálculo de tipo de retención a cuenta del IRPF para los rendimientos del trabajo personal es público, lo pueden encontrar en la página web de la Agencia Tributaria, y haciendo cli aquí, pero no encontramos más, quizá la transparencia que se exige no sea tal.

EnglishPortuguêsEspañol
error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).