«La Inspección de Trabajo utilizará robots para detectar fraudes e incluso sancionar a los negocios». La noticia la pueden encontrar haciendo clic aquí.
El proyecto de Real Decreto por el que se modifica el Reglamento de Organización y Funcionamiento de la Inspección de Trabajo y Seguridad Social prevé el análisis masivo de datos para «la detección del incumplimiento» y que pueda «iniciarse el procedimiento sancionador mediante la extensión de actas de infracción automatizadas, es decir, sin la intervención directa de un funcionario».
El análisis masivo de datos (Big Data) y el uso de la inteligencia artificial (IA) pueden ayudar a detectar situaciones de fraude, dando pistas a los Inspectores de dónde pueden estar los focos de fraude, de forma que las inspecciones dejarán de ser aleatorias.
¿Es legal que una máquina pueda iniciar, sin intervención humana, un expediente sancionador?
El artículo 22 apartado 1 del Reglamento General de Protección de Datos (RGPD) dispone:
«Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».
El RGPD prohíbe, con carácter general, las decisiones individuales automatizadas con efectos jurídicos o significativamente similares. No obstante, prevé una serie de excepciones. El artículo 22 apartado 2 dispone que el apartado 1 no será de aplicación cuando el tratamiento:
- Es necesario para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento.
- Está autorizado por el Derecho de la Unión o de los Estados miembros que se aplique al responsable del tratamiento y establezca, asimismo, medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado.
- Se basa en el consentimiento explícito del interesado.
En el apartado 3 del mismo artículo, el legislador añade:
«En los casos a que se refiere el apartado 2, letras a) y c), el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión».
En el caso de la letra b) del artículo 22 apartado 2 se niega al interesado el derecho a la intervención humana en el tratamiento automatizado de sus datos personales, a expensas de garantías.
Conclusiones
1ª.- Al amparo del artículo 22 apartado 2 letra b) del RGPD, la pretensión del Ministerio de Trabajo de emplear algoritmos para sancionar es legal, en tanto que el tratamiento automatizado será autorizado por el Derecho de un Estado miembro.
2ª.- El responsable del tratamiento, esto es, el Ministerio de Trabajo tiene el deber de establecer «medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado». Asimismo, el interesado tiene derecho a saber qué medidas se han adoptado a tal fin.
3ª.- Si un algoritmo decide iniciar un expediente sancionador, el responsable del tratamiento debe, no solo informar al interesado sobre las medidas adoptadas para salvaguardar sus derechos, libertades e intereses legítimos, también le ha de informar sobre la lógica aplicada por el algoritmo y comunicarle la importancia y consecuencias que se derivan del tratamiento de sus datos, y ha de hacerse con un lenguaje entendible para el ciudadano común. En caso contrario, podría alegarse indefensión por falta de motivación, que podría conducir a una posible nulidad de actuaciones.
4ª.- De no ser informados o de ser informados parcialmente o de manera insuficiente, a mi entender se abriría una vía para la impugnación de la resolución sancionadora, que podría ser declarada nula de pleno derecho al mermar la capacidad de defensa del interesado. Al respecto, el artículo 47 apartado 1 letra a) de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas dispone que los actos de las Administraciones Públicas son nulos de pleno si lesionan los «derechos y libertades susceptibles de amparo constitucional».
La Agencia Tributaria viene usando algoritmos desde hace tiempo. Su aplicación, siempre controvertida, ya ha recibido críticas, por ejemplo del Tribunal Supremo, quien sancionó su empleo en un primer pronunciamiento de fecha 15 de septiembre de 2021.
En la página web de la Agencia Tributaria encontrarán una explicación del «Algoritmo de cálculo del tipo de retención a cuenta del IRPF para los rendimientos del trabajo personal», que pueden consultar haciendo clic aquí. No sé si Uds. lo entenderán. Yo no.
—
Actualización
El legislador, consciente de los riesgos asociados a la inteligencia artificial, en la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación prevé, en su artículo 33, que:
«1.- En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las Administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las Administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.
2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.
3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.
4. Se promoverá un sello de calidad de los algoritmos».
Noticias relacionadas
Se aprueba la Resolución de 29 de noviembre de 2021, de la Secretaría de Estado de Empleo y Economía Social, por la que se publica el Acuerdo de Consejo de Ministros de 16 de noviembre de 2021, por el que se aprueba el Plan Estratégico de la Inspección de Trabajo y Seguridad Social 2021-2023.
https://www.vozpopuli.com/economia_y_finanzas/hacienda-algoritmos-irpf.html