Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Directrices para una Inteligencia Artificial fiable

“La Inteligencia Artificial es el futuro”. Esa frase la he oído mucho últimamente y no es cierta, pues la Inteligencia Artificial es el presente. Aunque está dando sus primeros pasos, y no se ha desarrollado todo su potencial, la Inteligencia Artificial (es una realidad con la que convivimos a diario.

Que la Inteligencia Artificial está transformando la sociedad es un hecho. El espacio que ocupa es vasto y complicado. La mayoría de los sistemas de Inteligencia Artificial plantearán un riesgo bajo, pero habrá sistemas que entrañarán un peligro para los derechos y las libertades de las personas, dando lugar a situaciones no deseadas, que deberán abordarse al amparo de un marco normativo perfectamente definido, que genere seguridad jurídica para las empresas del sector y otros agentes económicos.

La Unión Europea lleva años trabajando para crear un marco normativo único, que evitará el riesgo de fragmentación del mercado interior, con una ponderación adecuada de los beneficios y los riesgos para los derechos fundamentales y las libertades de las personas.

En junio de 2018 la Comisión Europea creó un Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial, formado por 52 miembros, el cual elaboró un informe que titularon Directrices éticas para una Inteligencia Artificial fiable.

Según el grupo de expertos, un sistema de Inteligencia Artificial fiable debe reunir los siguientes requisitos: supervisión humana; solidez técnica y seguridad; gestión de datos y respeto por la privacidad y dignidad humana; transparencia; diversidad, no discriminación y equidad; bienestar social; sostenibilidad y respeto del medio ambiente; mitigación de los sesgos perjudiciales; auditabilidad y responsabilidad.

La fiabilidad de la Inteligencia Artificial debe apoyarse en tres componentes: a) Licitud, es decir, debe cumplir la normativa; b) Ética, de forma que se garantice el respeto de los principios y valores éticos; y c) Robustez, tanto desde el punto de vista técnico como social, puesto que los sistemas de Inteligencia Artificial, incluso si las intenciones son buenas, pueden provocar daños accidentales. Lo ideal sería que todos actúen en armonía y de manera simultánea.

El respeto a la dignidad humana implica que todas las personas deben ser tratadas con el debido respeto, no como simples objetos que se pueden filtrar, ordenar, puntuar, dirigir, condicionar o manipular. Los sistemas de Inteligencia Artificial deben ser respetuosos con la autonomía humana. Las personas nacemos libres para tomar decisiones vitales por nosotros mismos y nada ni nadie debe condicionar la libertad individual, que se materializa en derechos fundamentales como el derecho a la privacidad, la libertad de expresión, la libertad de asociación, la libertad de empresa y la libertad de las artes y las ciencias, entre otras.

El desarrollo de la Inteligencia Artificial debe asegurar que las personas no sufran sesgos injustos, discriminación ni estigmatización. También se garantizará la igualdad de oportunidades en términos de acceso a la educación, a la tecnología y a los servicios.

El grupo de expertos manifiesta una especial preocupación por la protección de la privacidad, que es un derecho fundamental que se ve especialmente afectado por determinados sistemas de Inteligencia Artificial y que guarda una estrecha relación con el principio de prevención del daño.

Otro pilar fundamental es la transparencia de los sistemas de Inteligencia Artificial. Este requisito guarda una relación estrecha con el principio de explicabilidad que requiere que las decisiones que adopte un sistema de Inteligencia Artificial sean comprensibles para los seres humanos. En este sentido, el Reglamento General de Protección de Datos (RGPD) establece en su artículo 22 apartado 1 que «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».

El RGPD prohíbe las decisiones individuales basadas únicamente en el tratamiento automatizado de datos. No obstante, prevé una serie de excepciones, así, el apartado 2 del artículo 22 dispone que el apartado 1 no será de aplicación cuando la decisión sea necesaria para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento; cuando esté autorizado por el Derecho de la Unión o de los Estados miembros, siempre que se establezcan medidas adecuadas para salvaguardar los derechos, las libertades y los intereses legítimos del interesado; y cuando se basa en el consentimiento explícito del interesado.

Una gran preocupación del grupo de expertos es la seguridad de los sistemas de Inteligencia Artificial, que deben protegerse frente agentes malintencionados que podrían alterar el comportamiento del sistema, de modo que este adopte decisiones erróneas, injustas o, sencillamente, se desconecte. Desarrollar y adoptar medidas de seguridad para prevenir y mitigar esos riesgos, de forma proactiva, se advierte crucial.

La solidez técnica, la resistencia a los ataques y la seguridad del sistema, así como la existencia de un plan de repliegue deben ser una prioridad para los desarrolladores de la Inteligencia Artificial.

Si quieren saber más sobre la Propuesta de la Comisión Europea al Parlamento Europeo y al Consejo para la regulación de la Inteligencia Artificial hagan clic aquí

Proyecto piloto 

El Gobierno de España tiene previsto desarrollar los aspectos técnicos del proyecto piloto con el que se probará el Reglamento de Inteligencia Artificial antes de que entre en vigor (la previsión es que entre en vigor en enero de 2024). 

El proyecto piloto cuenta con un presupuesto de 4,3 millones de euros durante tres años, desde el inicio de los trabajos este año hasta 2024. Es una inversión enmarcada en la Estrategia Nacional de Inteligencia Artificial (ENIA) que forma parte del Plan de Recuperación, Transformación y Resiliencia. La iniciativa ha sido adjudicada, en convocatoria pública, a la unión temporal de empresas formada por la consultora Deloitte y la asociación OdiseIA.

Otras iniciativas

El National Institute of Standards and Technology o NIST –Agencia de la Administración de Tecnología del Departamento de Comercio de los Estados Unidos, cuyo objetivo es promover la innovación y la competencia industrial en los Estados Unidos mediante avances en metrología, normas y tecnología– publicó el 17 de agosto de 2020 un interesante informe que titularon Four Principles of Explainable Artificial Intelligence (Cuatro principios para una Inteligencia Artificial explicable). El NIST camina por una senda similar a la que sigue el Grupo de expertos designado por la Comisión Europea.

Conclusiones

El reto que supone la Inteligencia Artificial es apasionante, pero urge crear unas bases firmes para su desarrollo.

Isaac Asimov estableció tres leyes básicas con las que los robots tenían que ser diseñados para evitar que se rebelasen contra sus creadores: los humanos. 

  1. Un robot no hará daño a un ser humano ni permitirá que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Otro visionario, Elon Musk, lleva tiempo advirtiendo de los riesgos asociados a la Inteligencia Artificial y de la necesidad de regularla, pues no está exenta de peligros (vean aquí algunos ejemplos).

EnglishPortuguêsEspañol
error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).