Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Reglamento de Inteligencia Artificial

El 21 de abril de 2021 la Comisión Europea publicó su Propuesta de Reglamento para el desarrollo, la comercialización y la utilización de la inteligencia artificial (IA) de acuerdo con los valores de la Unión Europea, que es el germen de la futura Ley de Inteligencia Artificial. Dejo enlazada aquí la propuesta.

Obviamente es una propuesta, y como tal está sujeta a enmiendas, de forma que realizar un análisis al detalle carece de sentido, pero veo interesante leer la propuesta para advertir las líneas generales que las autoridades comunitarias proponen para la IA.

La propuesta plantea un ámbito de aplicación subjetivo amplio que comprendería a todos los actores de la cadena de valor de la IA y que alcanzaría tanto aquellos sistemas ubicados en la Unión como en un tercer país, siempre que desplieguen sus efectos en la Unión.

Objetivos de la futura Ley de Inteligencia Artificial

La Comisión Europea plantea crear un marco reglamentario sobre la IA con los siguientes objetivos:

  • Convertir a la Unión Europea en un líder mundial en el desarrollo de una IA segura, digna de confianza y ética.
  • Garantizar que los sistemas de IA empleados en la Unión Europea respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión.
  • Mejorar la gobernanza y la aplicación efectiva de dicha legislación. 
  • Garantizar la seguridad jurídica para facilitar la inversión e innovación en IA.
  • Facilitar el desarrollo de un mercado único.
  • Garantizar la libre circulación transfronteriza de bienes y servicios basados en la IA.

La Comisión Europea examinó diversas opciones para alcanzar los objetivos de la propuesta, así, se evaluaron cuatro opciones con distintos grados de intervención reguladora:

  • Opción 1: Un instrumento legislativo de la Unión Europea que establezca un régimen voluntario de etiquetado.
  • Opción 2: Una estrategia sectorial «ad hoc».
  • Opción 3: Un instrumento legislativo horizontal de la Unión Europea basado en los riesgos.
  • Opción 3+: Un instrumento legislativo horizontal de la Unión Europea basado en los riesgos + códigos de conducta para los sistemas de IA que no sean de alto riesgo.
  • Opción 4: Un instrumento legislativo horizontal de la Unión Europea que establezca requisitos obligatorios para todos los sistemas de IA, con independencia del riesgo que conlleven.

La opción preferida es la opción 3+, es decir, un marco regulatorio que únicamente se aplique a los sistemas de IA de riesgo elevado con la posibilidad de que todos los proveedores de sistemas de IA que no sean de «alto riesgo» sigan un código de conducta.

El objetivo y la prioridad es lograr sistemas de IA seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente, bajo la supervisión de personas, para evitar resultados perjudiciales.

Niveles de riesgo

Se proponen tres niveles de riesgo:

  • Riesgo Inaceptable: Se plantea la prohibición de aquellos sistemas de IA capaces de manipular el comportamiento humano, predecir información respecto a colectivos o grupos para identificar sus vulnerabilidades, los sistemas de identificación biométrica remota en espacios de acceso público y la videovigilancia masiva por las autoridades en dichos espacios, aunque caben excepciones en base al cumplimiento de la ley, autorización judicial o administrativa.
  • Riesgo Alto: Se incluyen componentes de seguridad aplicables a sectores regulados como el suministro de agua, electricidad, gas y calefacción e infraestructuras críticas como el tráfico rodado, pues un fallo puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera apreciable el desarrollo habitual de las actividades sociales y económicas. Los sistemas de IA pertenecientes a los siguientes ámbitos específicos deberán registrarse en una base de datos para ser evaluados antes de su comercialización y a lo largo de su ciclo de vida:
    1. Identificación biométrica y categorización de personas físicas.
    2. Gestión y explotación de infraestructuras críticas.
    3. Educación y formación profesional.
    4. Empleo, gestión de trabajadores y acceso al autoempleo.
    5. Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
    6. Aplicación de la ley de gestión de la migración, el asilo y el control de fronteras.
    7. Asistencia en la interpretación jurídica y aplicación de la ley.
  • Riesgo limitado: No suponen un alto riesgo para los derechos y las libertades de las personas, por su menor sofisticación o capacidad de intrusión, como los asistentes virtuales o chatbot. Deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas o no. Los usuarios deben ser conscientes de cuándo están interactuando con una IA. Esto incluye los sistemas que generan o manipulan contenidos de imagen, audio o vídeo (deepfakes).

Los proveedores de sistemas de IA con funciones como reconocimiento de imágenes y voz, generación de audio y vídeo, detección de patrones y respuestas a preguntas, como ChatGPT, habrán de sujetarse al procedimiento de verificación previsto para las actividades de alto riesgo, garantizando que sus usuarios estén informados de que interactúan con un sistema de IA, deberán revelar que el contenido ha sido generado por IA, debiendo publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento, evitando que generen contenidos ilegales. 

Las empresas y las autoridades públicas que desarrollen o utilicen aplicaciones de IA que entrañen un riesgo alto tienen que garantizar los derechos fundamentales de las personas, tales como el derecho a la dignidad humana, el respeto de la vida privada y familiar y a la protección de datos personales, a la no discriminación y la igualdad entre hombres y mujeres, a la libertad de expresión y de reunión, a la tutela judicial efectiva y a un juez imparcial, a la presunción de inocencia y los derechos de la defensa y el principio general de buena administración.

A los anteriores derechos fundamentales, se unen otros que afectan a colectivos que merecen una especial protección como son menores, discapacitados, consumidores y trabajadores. El derecho a un nivel elevado de protección del medio ambiente y la mejora de su calidad también es pertinente, en particular en lo que respecta a la salud y la seguridad de las personas. 

Cuando el desarrollo y el uso de tecnología de IA implique un riesgo alto para las derechos y libertades de las personas, se imponen una serie de restricciones a la libertad de empresa y a la libertad de las artes y de las ciencias, con vistas a garantizar que se respeten los derechos fundamentales y los fines de interés general. Por tanto, las empresas y autoridades públicas deberán implantar, documentar y mantener un sistema de gestión de riesgos asociado a los sistemas de IA de alto riesgo. Además, dichos sistemas serán sometidos a pruebas destinadas a determinar cuáles son las medidas de gestión de riesgos más adecuadas. No obstante, cabe la posibilidad de esquivar esa catalogación de riesgo cuando los sistemas de IA estén supervisados por un ser humano.

Cuando el nivel sea de riesgo bajo, las empresas y autoridades públicas tendrán que cumplir unas obligaciones mínimas de información, si bien podrán adoptar un código de conducta para garantizar la fiabilidad de sus sistemas de IA. En todo caso, habrá actividades que estarán expresamente prohibidas (artículo 5 de la propuesta).

Conclusión

La futura Ley de Inteligencia Artificial es una norma indispensable y urgente para desarrollar de forma controlado la IA.

A falta de otros referentes en el mundo, dicha norma podría convertirse en un estándar global como lo es el Reglamento General de Protección de Datos. 

Para concluir les recomiendo completar esta lectura con un artículo que publiqué hace tiempo sobre los riesgos de la IA, que dejo enlazado aquí

Actualización (06.12.2022)

Posición común del Consejo sobre el Reglamento de Inteligencia Artificial

Actualización (14.06.2023)

El Parlamento Europeo ha aprobado por mayoría absoluta (499 votos a favor, 28 en contra y 93 abstenciones) su posición sobre la Propuesta inicial de Reglamento de Inteligencia Artificial.

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).