PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Directrices para una inteligencia artificial fiable

El espacio que ocupa la inteligencia artificial es vasto y complejo. La mayoría de los sistemas de inteligencia artificial plantean un riesgo bajo para las personas, pero hay sistemas que entrañan un peligro para nuestros derechos y libertades, dando lugar a situaciones no deseadas que deberán abordarse mediante un marco normativo que genere seguridad para las personas, las empresas del sector y otros agentes económicos.

Iniciativas de la Unión Europea para una IA fiable

La Unión Europea lleva años trabajando para crear un marco normativo único que evitará el riesgo de fragmentación del mercado interior con una ponderación adecuada de los beneficios y los riesgos para los derechos fundamentales y las libertades de las personas. Este esfuerzo culminó en el Reglamento (UE) 2024/1689, de Inteligencia Artificial, que será objeto de un análisis detallado en un artículo específico. 

En junio de 2018, la Comisión Europea creó un Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial, compuesto por 52 miembros, el cual elaboró un informe titulado Directrices éticas para una inteligencia artificial fiable. Este documento ha influido en regulaciones posteriores y esuna referencia clave en el enfoque europeo.

Según este grupo de expertos, un sistema de inteligencia artificial fiable debe reunir los siguientes requisitos: supervisión humana; solidez técnica y seguridad; gestión de datos y respeto por la privacidad y dignidad humana; transparencia; diversidad, no discriminación y equidad; bienestar social; sostenibilidad y respeto del medio ambiente; mitigación de los sesgos perjudiciales; auditabilidad y responsabilidad.

La fiabilidad de la inteligencia artificial debe sustentarse en tres componentes: a) Licitud, es decir, cumplimiento de la normativa vigente; b) Ética, garantizando el respeto a principios y valores éticos; y c) Robustez, tanto técnica como social, ya que los sistemas de inteligencia artificial, incluso con buenas intenciones, pueden causar daños accidentales. Lo ideal es que estos componentes actúen en armonía y de manera simultánea.

El respeto a la dignidad humana implica tratar a todas las personas con el debido respeto, no como objetos que se pueden filtrar, ordenar, puntuar, dirigir, condicionar o manipular. Los sistemas de inteligencia artificial deben respetar la autonomía humana. Las personas nacemos libres para tomar decisiones vitales por nosotros mismos, y nada ni nadie debe condicionar la libertad individual, que se materializa en derechos fundamentales como el derecho a la privacidad, la libertad de expresión, la libertad de asociación, la libertad de empresa y la libertad de las artes y las ciencias, entre otras. El Reglamento de Inteligencia Artificial refuerza estas ideas al prohibir prácticas como la puntuación social o el reconocimiento emocional en entornos laborales.

El desarrollo de la inteligencia artificial debe asegurar que las personas no sufran sesgos injustos, discriminación ni estigmatización. También se debe garantizar la igualdad de oportunidades en términos de acceso a la educación, a la tecnología y a los servicios, promoviendo la inclusión y reduciendo desigualdades.

Sobre esa base, el Grupo de Expertos publicó en 2020 el Libro Blanco sobre Inteligencia Artificial, un documento estratégico que establece un enfoque europeo para promover el desarrollo de la inteligencia artificial, basado en dos pilares: la excelencia técnica y la confianza en la IA, sustentada en instrumentos jurídicos vinculantes. Este libro blanco fue el precursor del Reglamento de Inteligencia Artificial.

Otro pilar fundamental es la transparencia de los sistemas de inteligencia artificial. Este requisito guarda una relación estrecha con el principio de explicabilidad, que requiere que las decisiones que adopte un sistema de inteligencia artificial sean comprensibles para los seres humanos. En este sentido, el Reglamento General de Protección de Datos (RGPD) establece en su artículo 22, apartado 1, que «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».

El RGPD prohíbe las decisiones individuales basadas únicamente en el tratamiento automatizado de datos. No obstante, prevé una serie de excepciones, así, el apartado 2 del artículo 22 dispone que el apartado 1 no será de aplicación cuando la decisión sea necesaria para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento; cuando esté autorizada por el Derecho de la Unión o de los Estados miembros, siempre que se establezcan medidas adecuadas para salvaguardar los derechos, las libertades y los intereses legítimos del interesado; y cuando se basa en el consentimiento explícito del interesado.

El grupo de expertos advierte que la seguridad de los sistemas de inteligencia artificial debe ser una prioridad para protegerlos frente agentes malintencionados que podrían alterar el comportamiento del sistema, de modo que este adopte decisiones erróneas, injustas o, sencillamente, se desconecte. Desarrollar y adoptar medidas de seguridad para prevenir y mitigar esos riesgos, de forma proactiva, se advierte crucial.

La solidez técnica, la resistencia a los ataques y la seguridad del sistema, así como la existencia de un plan de repliegue deben ser una prioridad para los desarrolladores de la inteligencia artificial.

Sandbox de IA 

El Gobierno de España ha desarrollado aspectos técnicos a través del Sandbox de IA, un proyecto piloto para probar en un entorno seguro el Reglamento de Inteligencia Artificial.

El gobierno también adjudicó por 1,6 millones de euros a Deloitte y OdiseIA la creación de un sello nacional que certifique la seguridad y calidad de los proyectos que utilicen la inteligencia artificial. Este sello, de carácter voluntario, se adaptará al Reglamento de Inteligencia Artificial. En paralelo a la creación del sello, la licitación contempla que Deloitte y OdiseIA elaboren informes que sirvan para dar forma a la Agencia Estatal de Supervisión de la Inteligencia Artificial.

Otras iniciativas

El National Institute of Standards and Technology (NIST), agencia del Departamento de Comercio de los Estados Unidos dedicada a promover la innovación y la competencia industrial mediante avances en metrología, normas y tecnología, publicó el 17 de agosto de 2020 un informe titulado Four Principles of Explainable Artificial Intelligence (Cuatro principios para una inteligencia artificial explicable). El NIST sigue una senda similar a la del Grupo de Expertos de la Comisión Europea.

Conclusiones

El reto que supone la inteligencia artificial es apasionante, pero urge crear unas bases firmes para su desarrollo ético y sostenible.

Isaac Asimov estableció tres leyes básicas con las que los robots tenían que ser diseñados para evitar que se rebelasen contra sus creadores: los humanos. 

  1. Un robot no hará daño a un ser humano ni permitirá que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Otro visionario, Elon Musk, lleva tiempo advirtiendo de los riesgos asociados a la inteligencia artificial y de la necesidad de regularla, pues no está exenta de peligros (vean aquí algunos ejemplos).

No es el único. El CEO de Google –Sundar Pichai– demanda una regulación urgente de la inteligencia artificial.  

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es