Protección Data

BLOG

PARA ESTAR AL TANTO DE LA REGULACIÓN Y NOVEDADES EN PROTECCIÓN DE DATOS

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Propuesta de Reglamento de Inteligencia Artificial

El pasado 21 de abril de 2021 la Comisión Europea publicó su Propuesta de Reglamento en materia de Inteligencia Artificial (IA), que dejo enlazada aquí.

Obviamente es una propuesta y como tal está sujeta a posibles enmiendas, de forma que realizar un análisis al detalle carece de sentido, pero veo interesante leer la propuesta para advertir las líneas generales que las autoridades comunitarias proponen para la IA.

Según la definición de la Real Academia Española por “Inteligencia Artificial” se entiende la «disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». En otras palabras, la IA supone la combinación de diferentes algoritmos con el propósito de crear soluciones con capacidades similares, sino iguales, a las de los seres humanos. Desde luego, es un tema complejísimo, que cuesta entender y, tanto o más explicar.

La Comisión plantea crear un marco reglamentario sobre la IA con los siguientes objetivos:

  • Garantizar que los sistemas de IA empleados en la Unión sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión y mejorar la gobernanza y la aplicación efectiva de dicha legislación. 
  • Garantizar la seguridad jurídica para facilitar la inversión e innovación en IA.
  • Facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de la IA.

Lo que la Comisión plantea es la creación de normas armonizadas para la introducción y el desarrollo de la IA, estableciendo una serie de requisitos mínimos para tratar de corregir los riesgos vinculados a la IA, evitando obstaculizar el desarrollo tecnológico. 

La propuesta plantea un ámbito de aplicación subjetivo amplio, que comprendería a todos los actores de la cadena de valor de la IA y que alcanzaría tanto aquellos sistemas ubicados en la Unión como en un tercer país, siempre que desplieguen sus efectos en la Unión.

Si bien evita establecer limitaciones al desarrollo de la IA, la Comisión propone prohibir determinadas prácticas particularmente perjudiciales de la IA, por cuanto atentan contra de los valores de la Unión, así como establecer restricciones y salvaguardias específicas en relación a determinados usos de la IT.

La Comisión propone cuatro niveles de riesgo:

1º) Riesgo Inaceptable: Se prohíben aquellos sistemas de IA capaces de manipular el comportamiento humano, predecir información respecto a colectivos o grupos para identificar sus vulnerabilidades, los sistemas de identificación biométrica remota en espacios de acceso público y la videovigilancia masiva por las autoridades en dichos espacios, aunque caben excepciones en base al cumplimiento de la ley, autorización judicial o administrativa. 

2º) Riesgo Alto: Se incluyen componentes de seguridad aplicables a sectores regulados como el suministro de agua, electricidad, gas y calefacción, e infraestructuras críticas como el funcionamiento del tráfico rodado, pues un fallo en dichos sistemas puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera apreciable el desarrollo habitual de las actividades sociales y económicas.  En esta categoría, también se incluyen determinados sistemas de acceso a la educación y formación profesional, selección de personal, entre otros.

3º) Riesgo bajo: No suponen un alto riesgo para los derechos y las libertades de las personas, por su menor sofisticación o capacidad de intrusión, como los asistentes virtuales o “chatbot” (por ejemplo, Alexa de Amazon).

A los efectos de corregir los riesgos asociados a la IA, la Comisión propone una serie de obligaciones, fomentando que los proveedores de sistemas de IA que no sean de alto riesgo cumplan de manera voluntaria los requisitos que son obligatorios para los sistemas de IA de alto riesgo, para ello podrían establecer sus propios códigos de conducta, de forma que se opta por la autorregulación.

Las multas para quienes incumplan las normas podrían alcanzar un máximo de 30 millones de euros y si el infractor es una empresa, podría ser de hasta el 6% del volumen total de negocio, tomando como referencia el último ejercicio financiero. 

Lo que evidencian las autoridades comunitarias es la necesidad de regular el uso de la IA. El mal uso de estos sistemas es preocupante (ejemplo aquí).

Para concluir les recomiendo completar esta lectura con un artículo que publiqué hace tiempo sobre los riesgos de la Inteligencia Artificial, que dejo enlazado aquí

EnglishPortuguêsEspañol
error: Contenido protegido por derechos de propiedad intelectual