Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Directrices para una inteligencia artificial fiable

«La inteligencia artificial es el futuro». Esa frase la he oído mucho últimamente y no es cierta, pues la inteligencia artificial es el presente. Aunque está dando sus primeros pasos y no se ha desarrollado todo su potencial, la inteligencia artificial es una realidad con la que convivimos a diario.

El espacio que ocupa la inteligencia artificial es vasto y complicado. La mayoría de los sistemas de inteligencia artificial plantearán un riesgo bajo para las personas, pero habrá sistemas que entrañarán un peligro para nuestros derechos y libertades, dando lugar a situaciones no deseadas que deberán abordarse al amparo de un marco normativo perfectamente definido que genere seguridad para las personas, las empresas del sector y otros agentes económicos.

Iniciativas de la Unión Europea para una IA fiable

La Unión Europea lleva años trabajando para crear un marco normativo único que evitará el riesgo de fragmentación del mercado interior con una ponderación adecuada de los beneficios y los riesgos para los derechos fundamentales y las libertades de las personas.

En junio de 2018 la Comisión Europea creó un Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial, formado por 52 miembros, el cual elaboró un informe que titularon Directrices éticas para una inteligencia artificial fiable.

Según este grupo de expertos, un sistema de inteligencia artificial fiable debe reunir los siguientes requisitos: supervisión humana; solidez técnica y seguridad; gestión de datos y respeto por la privacidad y dignidad humana; transparencia; diversidad, no discriminación y equidad; bienestar social; sostenibilidad y respeto del medio ambiente; mitigación de los sesgos perjudiciales; auditabilidad y responsabilidad.

La fiabilidad de la inteligencia Aatificial debe apoyarse en tres componentes: a) Licitud, es decir, debe cumplir la normativa; b) Ética, de forma que se garantice el respeto de los principios y valores éticos; y c) Robustez, tanto desde el punto de vista técnico como social, puesto que los sistemas de inteligencia artificial, incluso si las intenciones son buenas, pueden provocar daños accidentales. Lo ideal sería que todos actúen en armonía y de manera simultánea.

El respeto a la dignidad humana implica que todas las personas deben ser tratadas con el debido respeto, no como simples objetos que se pueden filtrar, ordenar, puntuar, dirigir, condicionar o manipular. Los sistemas de inteligencia artificial deben ser respetuosos con la autonomía humana. Las personas nacemos libres para tomar decisiones vitales por nosotros mismos y nada ni nadie debe condicionar la libertad individual, que se materializa en derechos fundamentales como el derecho a la privacidad, la libertad de expresión, la libertad de asociación, la libertad de empresa y la libertad de las artes y las ciencias, entre otras.

El desarrollo de la inteligencia artificial debe asegurar que las personas no sufran sesgos injustos, discriminación ni estigmatización. También se garantizará la igualdad de oportunidades en términos de acceso a la educación, a la tecnología y a los servicios.

El grupo de expertos manifiesta una especial preocupación por la protección de la privacidad, que es un derecho fundamental que se ve especialmente afectado por determinados sistemas de inteligencia artificial y que guarda una estrecha relación con el principio de prevención del daño.

Otro pilar fundamental es la transparencia de los sistemas de inteligencia artificial. Este requisito guarda una relación estrecha con el principio de explicabilidad que requiere que las decisiones que adopte un sistema de inteligencia artificial sean comprensibles para los seres humanos. En este sentido, el Reglamento General de Protección de Datos (RGPD) establece en su artículo 22 apartado 1 que «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».

El RGPD prohíbe las decisiones individuales basadas únicamente en el tratamiento automatizado de datos. No obstante, prevé una serie de excepciones, así, el apartado 2 del artículo 22 dispone que el apartado 1 no será de aplicación cuando la decisión sea necesaria para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento; cuando esté autorizado por el Derecho de la Unión o de los Estados miembros, siempre que se establezcan medidas adecuadas para salvaguardar los derechos, las libertades y los intereses legítimos del interesado; y cuando se basa en el consentimiento explícito del interesado.

El grupo de expertos advierte que la seguridad de los sistemas de inteligencia artificial debe ser una prioridad para protegerlos frente agentes malintencionados que podrían alterar el comportamiento del sistema, de modo que este adopte decisiones erróneas, injustas o, sencillamente, se desconecte. Desarrollar y adoptar medidas de seguridad para prevenir y mitigar esos riesgos, de forma proactiva, se advierte crucial.

La solidez técnica, la resistencia a los ataques y la seguridad del sistema, así como la existencia de un plan de repliegue deben ser una prioridad para los desarrolladores de la inteligencia artificial.

Si quieren saber más sobre la Propuesta de la Comisión Europea al Parlamento Europeo y al Consejo para la regulación de la inteligencia artificial hagan clic aquí

Proyecto piloto 

El Gobierno de España tiene previsto desarrollar los aspectos técnicos del proyecto piloto con el que se probará el futuro Reglamento de Inteligencia Artificial (pendiente de aprobación, la previsión es que entre en vigor en el primer trimestre de 2024). 

El proyecto piloto cuenta con un presupuesto de 4,3 millones de euros durante tres años, desde el inicio de los trabajos este año hasta 2024. Es una inversión enmarcada en la Estrategia Nacional de Inteligencia Artificial (ENIA) que forma parte del Plan de Recuperación, Transformación y Resiliencia. La iniciativa ha sido adjudicada, en convocatoria pública, a la unión temporal de empresas formada por la consultora Deloitte y la asociación OdiseIA.

El gobierno también adjudicó por 1,6 millones de euros a Deloitte y OdiseIA la creación de un sello nacional que certifique la seguridad y calidad de los proyectos que utilicen la inteligencia artificial. Se espera que los trabajos técnicos para la creación del sello finalicen en algo más de un año desde la adjudicación, aunque el contrato licitado durará 30 meses, ya que también tiene asociado informes de seguimiento y otros proyectos. El sello tendrá un carácter voluntario y su desarrollo se adaptará al futuro Reglamento de Inteligencia Artificial.

En paralelo a la creación del sello, la licitación también contempla que Deloitte y OdiseIA elaboren informes que sirvan para dar forma a la Agencia Estatal de Supervisión de la Inteligencia Artificial, con sede en A Coruña.

Otras iniciativas

El National Institute of Standards and Technology o NIST –Agencia de la Administración de Tecnología del Departamento de Comercio de los Estados Unidos, cuyo objetivo es promover la innovación y la competencia industrial en los Estados Unidos mediante avances en metrología, normas y tecnología– publicó el 17 de agosto de 2020 un interesante informe que titularon Four Principles of Explainable Artificial Intelligence (Cuatro principios para una Inteligencia Artificial explicable). El NIST camina por una senda similar a la que sigue el Grupo de expertos designado por la Comisión Europea.

Conclusiones

El reto que supone la inteligencia artificial es apasionante, pero urge crear unas bases firmes para su desarrollo.

Isaac Asimov estableció tres leyes básicas con las que los robots tenían que ser diseñados para evitar que se rebelasen contra sus creadores: los humanos. 

  1. Un robot no hará daño a un ser humano ni permitirá que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Otro visionario, Elon Musk, lleva tiempo advirtiendo de los riesgos asociados a la inteligencia artificial y de la necesidad de regularla, pues no está exenta de peligros (vean aquí algunos ejemplos).

No es el único. El CEO de Google –Sundar Pichai– demanda una regulación urgente de la inteligencia artificial.  

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).