La Autoridad Catalana de Protección de Datos (APDCAT) presentó en el Parlament de Catalunya un Modelo para realizar una Evaluación de Impacto sobre los Derechos Fundamentales (EIDF) en materia de inteligencia artificial (IA) con el objetivo de ofrecer una herramienta práctica a aquellas entidades que utilicen la IA en el marco de sus actividades con la obligación de realizar una EIDF en virtud del Reglamento de Inteligencia Artificial.
El modelo de la APDCAT propone una metodología basada en tres fases:
- Planificación y determinación del alcance, centrada en una descripción exhaustiva del sistema de IA, teniendo en cuenta su contexto de uso y la tipología de personas expuestas al riesgo.
- Recopilación de datos y análisis de riesgos, en la que se identificarán los riesgos potenciales y se evaluará el impacto en los derechos fundamentales.
- Gestión de riesgos, con el fin de adoptar y supervisar las medidas adecuadas para prevenir o mitigar dichos riesgos y comprobar su efectividad. Cabe recordar que la «gestión de riesgos» es un proceso iterativo que se repite a lo largo del ciclo de vida del sistema.
El modelo nos facilita un cuestionario de planificación y alcance que incluye tanto preguntas genéricas como específicas con el fin de identificar preliminarmente los derechos fundamentales que podrían verse afectados y las áreas que requieren protección.
Conclusión
La autoría del modelo se atribuye al grupo «DPD en xarxa» (DPD en red) que reúne a los delegados de protección de datos del sector público de Cataluña, liderado por el profesor titular de Derecho Civil de la Universidad Politécnica de Turín, Alessandro Mantelero.
El modelo se desarrolló a partir de cuatro casos reales, en los que se evaluó el impacto de sistemas de IA en los derechos fundamentales de los afectados. Dichos casos se enmarcan en los siguientes ámbitos:
- Educativo (evaluación de los resultados del aprendizaje y predicción del abandono escolar)
- Gestión de personal (sistemas de apoyo a la toma de decisiones en la gestión de recursos humanos).
- Acceso a la asistencia sanitaria (tratamiento del cáncer basado en imágenes médicas).
- Servicios de bienestar sociales (asistente de voz para personas mayores).
El artículo 27 del Reglamento de Inteligencia Artificial que afecta al despliegue de ciertos sistemas de IA de alto riesgo con la obligación de realizar una EIDF antes de su puesta en uso es aplicable a partir del 2 de agosto de 2026. Por ello, son de agradecer iniciativas como la que nos ocupa, a la espera de que la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) empiece a proporcionarnos material útil, tanto para operadores como para asesores.