El 21 de abril de 2021 la Comisión Europea publicó su Propuesta de Reglamento para el desarrollo, la comercialización y la utilización de la inteligencia artificial de conformidad con los valores de la Unión, que dejo enlazada aquí, y que es el germen de la futura Ley de Inteligencia Artificial.
Obviamente es una propuesta y como tal está sujeta a enmiendas, de forma que realizar un análisis al detalle carece de sentido, pero veo interesante leer la propuesta para advertir las líneas generales que las autoridades comunitarias proponen para la IA.
La propuesta plantea un ámbito de aplicación subjetivo amplio, que comprendería a todos los actores de la cadena de valor de la IA y que alcanzaría tanto aquellos sistemas ubicados en la Unión como en un tercer país, siempre que desplieguen sus efectos en la Unión.
Objetivos de la futura Ley de Inteligencia Artificial
La Comisión Europea plantea crear un marco reglamentario sobre la IA con los siguientes objetivos:
- Convertir a la Unión Europea en un líder mundial en el desarrollo de una inteligencia artificial segura, digna de confianza y ética.
- Garantizar que los sistemas de IA empleados en la Unión Europea respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión.
- Mejorar la gobernanza y la aplicación efectiva de dicha legislación.
- Garantizar la seguridad jurídica para facilitar la inversión e innovación en IA.
- Facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de la IA.
- Garantizar la libre circulación transfronteriza de bienes y servicios basados en la IA.
La Comisión Europea examinó diversas opciones para alcanzar los objetivos de la propuesta, así, se evaluaron cuatro opciones con distintos grados de intervención reguladora:
- Opción 1: Un instrumento legislativo de la Unión Europea que establezca un régimen voluntario de etiquetado.
- Opción 2: Una estrategia sectorial «ad hoc».
- Opción 3: Un instrumento legislativo horizontal de la Unión Europea basado en los riesgos.
- Opción 3+: Un instrumento legislativo horizontal de la Unión Europea basado en los riesgos + códigos de conducta para los sistemas de IA que no sean de alto riesgo.
- Opción 4: Un instrumento legislativo horizontal de la Unión Europea que establezca requisitos obligatorios para todos los sistemas de IA, con independencia del riesgo que conlleven.
La opción preferida es la opción 3+, es decir, un marco regulatorio que únicamente se aplique a los sistemas de IA de riesgo elevado, con la posibilidad de que todos los proveedores de sistemas de IA que no sean de «alto riesgo» sigan un código de conducta.
Niveles de riesgo
Se proponen tres niveles de riesgo:
- Riesgo Inaceptable: Se plantea la prohibición de aquellos sistemas de IA capaces de manipular el comportamiento humano, predecir información respecto a colectivos o grupos para identificar sus vulnerabilidades, los sistemas de identificación biométrica remota en espacios de acceso público y la videovigilancia masiva por las autoridades en dichos espacios, aunque caben excepciones en base al cumplimiento de la ley, autorización judicial o administrativa.
- Riesgo Alto: Se incluyen componentes de seguridad aplicables a sectores regulados como el suministro de agua, electricidad, gas y calefacción, e infraestructuras críticas como el tráfico rodado, pues un fallo en estas puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera apreciable el desarrollo habitual de las actividades sociales y económicas. En esta categoría, también se incluyen determinados sistemas de acceso a la educación y formación profesional, selección de personal, entre otros.
- Riesgo bajo: No suponen un alto riesgo para los derechos y las libertades de las personas, por su menor sofisticación o capacidad de intrusión, como los asistentes virtuales o chatbot.
Las empresas y las autoridades públicas que desarrollen o utilicen aplicaciones de IA que entrañen un riesgo alto tienen que garantizar los derechos fundamentales de las personas, tales como el derecho a la dignidad humana, el respeto de la vida privada y familiar y a la protección de datos personales, a la no discriminación y la igualdad entre hombres y mujeres, a la libertad de expresión y de reunión, a la tutela judicial efectiva y a un juez imparcial, a la presunción de inocencia y los derechos de la defensa y el principio general de buena administración.
A los anteriores derechos fundamentales, se unen otros que afectan a colectivos que merecen una especial protección como son menores, discapacitados, consumidores y trabajadores. El derecho a un nivel elevado de protección del medio ambiente y la mejora de su calidad también es pertinente, en particular en lo que respecta a la salud y la seguridad de las personas.
Cuando el desarrollo y el uso de tecnología de IA implique un riesgo alto para las derechos y libertades de las personas, se imponen una serie de restricciones a la libertad de empresa y a la libertad de las artes y de las ciencias, con vistas a garantizar que se respeten los derechos fundamentales y los fines de interés general. Por tanto, las empresas y autoridades públicas deberán implantar, documentar y mantener un sistema de gestión de riesgos asociado a los sistemas de IA de alto riesgo. Además, dichos sistemas serán sometidos a pruebas destinadas a determinar cuáles son las medidas de gestión de riesgos más adecuadas. No obstante, cabe la posibilidad de esquivar esa catalogación de riesgo cuando los sistemas de IA estén supervisados por un ser humano.
Cuando el nivel sea de riesgo bajo, las empresas y autoridades públicas tendrán que cumplir unas obligaciones mínimas de información, si bien podrán adoptar un código de conducta para garantizar la fiabilidad de sus sistemas de IA. En todo caso, habrá actividades que estarán expresamente prohibidas (artículo 5 de la propuesta).
Conclusión
Lo que evidencian las autoridades comunitarias es la necesidad de regular el uso de la IA, pues el mal uso de estos sistemas es preocupante (ejemplo aquí), si bien el futuro reglamento no pretende regular la IA como tecnología trasversal, solo sus usos de mayor riesgo.
Para concluir les recomiendo completar esta lectura con un artículo que publiqué hace tiempo sobre los riesgos de la Inteligencia Artificial, que dejo enlazado aquí.