Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Inspección de Trabajo y Seguridad Social usará la inteligencia artificial

«La Inspección de Trabajo utilizará robots para detectar fraudes e incluso sancionar a los negocios». La noticia la pueden encontrar haciendo clic aquí.

El proyecto de Real Decreto por el que se modifica el Reglamento de Organización y Funcionamiento de la Inspección de Trabajo y Seguridad Social prevé el análisis masivo de datos para «la detección del incumplimiento» y que pueda «iniciarse el procedimiento sancionador mediante la extensión de actas de infracción automatizadas, es decir, sin la intervención directa de un funcionario».

El análisis masivo de datos (Big Data) y el uso de la inteligencia artificial (IA) pueden ayudar a detectar situaciones de fraude, dando pistas a los Inspectores de dónde pueden estar los focos de fraude, de forma que las inspecciones dejarán de ser aleatorias. 

El Instituto Nacional de la Seguridad Social (INSS) viene utilizando desde el año 2018 los algoritmos para gestionar y controlar las bajas laborales. El sistema, conocido como Modelo de Priorización de Citas, determina qué pacientes revisarán primero los médicos inspectores del INSS y cuáles dejarán para el final en base a las predicciones de los algoritmos. El sistema genera críticas e incertidumbres, entre otros motivos porque no se sabe bien cómo se han entrenado los algoritmos predictivos del sistema.

¿Es legal que una máquina pueda iniciar, sin intervención humana, un expediente sancionador?

El artículo 22 apartado 1 del Reglamento General de Protección de Datos (RGPD) dispone:

«Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».

El RGPD prohíbe, con carácter general, las decisiones individuales automatizadas con efectos jurídicos o significativamente similares. No obstante, prevé una serie de excepciones. El artículo 22 apartado 2 dispone que el apartado 1 no será de aplicación cuando el tratamiento:

  1. Sea necesario para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento.
  2. Esté autorizado por el Derecho de la Unión o de los Estados miembros que se aplique al responsable del tratamiento y establezca, asimismo, medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado.
  3. Se base en el consentimiento explícito del interesado.

En el apartado 3 del mismo artículo, el legislador añade:

«En los casos a que se refiere el apartado 2, letras a) y c), el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión».

En el caso de la letra b) del artículo 22 apartado 2 se niega al interesado el derecho a la intervención humana en el tratamiento automatizado de sus datos personales, a expensas de garantías. De modo que, la respuesta a la pregunta inicial es afirmativa.

Conclusiones

Al amparo del artículo 22 apartado 2 letra b) del RGPD, la pretensión del Ministerio de Trabajo de emplear algoritmos para sancionar es legal, en tanto que el tratamiento automatizado será autorizado por el Derecho de un Estado miembro.

El responsable del tratamiento, esto es, el Ministerio de Trabajo tiene el deber de establecer «medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado». El interesado tiene derecho a saber qué medidas se han adoptado a tal fin.

Si un algoritmo decide iniciar un expediente sancionador, el responsable del tratamiento debe, no sólo informar al interesado sobre las medidas adoptadas para salvaguardar sus derechos, libertades e intereses legítimos, también le ha de informar sobre la lógica aplicada por el algoritmo y comunicarle la importancia y consecuencias que se derivan del tratamiento de sus datos, y ha de hacerse con un lenguaje entendible para el ciudadano común. En caso contrario, podría alegarse indefensión por falta de motivación, que podría conducir a una posible nulidad de actuaciones.

El Tribunal Federal Administrativo de Austria (Bundesverwaltungsgericht — BVwG) en sentencia de 29 de junio de 2023 resuelve el caso de un interesado que presentó una reclamación ante la agencia de protección de datos austriaca contra una agencia de clasificación crediticia. El interesado alegó que se habían vulnerado sus derechos derivados del artículo 15.1.h) del RGPD, ya que el responsable del tratamiento no le había informado suficientemente sobre la lógica y el algoritmo utilizados para el tratamiento de sus datos personales.

La agencia de protección de datos austriaca estimó la reclamación y dictó una resolución contra el responsable del tratamiento, ordenándole que facilitara el acceso a la información solicitada por el interesado. El responsable del tratamiento recurrió la decisión ante el Tribunal Administrativo Federal austriaco, sosteniendo que sí había facilitado información suficiente al interesado.

El tribunal estimó el recurso del responsable del tratamiento, argumentando que debe proporcionar al interesado una explicación sobre la lógica subyacente al tratamiento, ahora bien, no está obligado a desvelar el algoritmo o la fórmula matemática subyacente.

De acuerdo con las directrices sobre decisiones individuales automatizadas del Grupo de Trabajo del Artículo 29, el responsable del tratamiento deberá proporcionar al interesado la siguiente información:

  1. Las categorías de datos que se han utilizado o se utilizarán en la elaboración de perfiles o en las decisiones automatizadas.
  2. Por qué se consideran pertinentes dichas categorías para la creación del perfil.
  3. Cómo se crean los perfiles utilizados en la toma de decisiones automatizada, lo que incluye las estadísticas utilizadas en el análisis.
  4. Por qué el perfil es relevante para la toma de decisiones automatizada.
  5. Cómo se utiliza el perfil para tomar una decisión sobre el interesado.

En el caso en cuestión, el tribunal consideró que la información facilitada por el responsable del tratamiento era suficiente, ya que había revelado todos los elementos enumerados anteriormente de forma exhaustiva: se indicó claramente los datos utilizados y su función en la ponderación, junto con el significado de los resultados (el perfil) y el carácter estadístico del tratamiento. De este modo, dado que las explicaciones de las variables y los cálculos aplicados eran comprensibles, el interesado pudo hacerse una idea del tratamiento realizado, tomar conocimiento del mismo y verificar su legalidad.

El tribunal subrayó que una descripción más precisa de cómo se llevó a cabo la ponderación concreta de los parámetros habría equivalido a la divulgación de la fórmula matemática, es decir, el algoritmo que rige la elaboración de perfiles, un aspecto que no está cubierto por el RGPD.

La Agencia Tributaria viene usando algoritmos desde hace años. Por ejemplo, para el cálculo del tipo de retención a cuenta del IRPF para los rendimientos del trabajo personal. En la página web de la Agencia Tributaria se publica la lógica del algoritmo, que pueden consultar haciendo clic aquí. No sé si lo entenderán, yo no. 

Actualización

El legislador, consciente de los riesgos asociados a la inteligencia artificial, en la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación prevé, en su artículo 33, que:

«1.- En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las Administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las Administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.

3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.

4. Se promoverá un sello de calidad de los algoritmos».

Noticias relacionadas

Se aprueba la Resolución de 29 de noviembre de 2021, de la Secretaría de Estado de Empleo y Economía Social, por la que se publica el Acuerdo de Consejo de Ministros de 16 de noviembre de 2021, por el que se aprueba el Plan Estratégico de la Inspección de Trabajo y Seguridad Social 2021-2023.

https://www.genbeta.com/actualidad/llegan-inspecciones-trabajo-mediante-ia-gobierno-utilizara-software-para-detectar-emitir-sanciones-automatizadas

https://revistas.eleconomista.es/buen-gobierno/2021/octubre/el-supremo-tumba-el-algoritmo-que-hacia-pagar-de-mas-a-los-herederos-EJ9281024

https://www.vozpopuli.com/economia_y_finanzas/hacienda-algoritmos-irpf.html

https://www.lainformacion.com/opinion/felix-bornstein/los-algoritmos-de-hacienda-coartan-la-libertad-individual/2831802/

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).