Protección Data

BLOG

PARA ESTAR AL TANTO DE LA REGULACIÓN Y NOVEDADES EN PROTECCIÓN DE DATOS

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Principios éticos sobre Inteligencia Artificial

El término “Inteligencia Artificial” (IA) fue acuñado por el prestigioso informático John McCarthy en una conferencia que pronunció en la universidad Dartmouth College en el año 1956, definiendo la Inteligencia Artificial como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes». Estamos ante una definición excepcionalmente amplia y un tanto vaga que se ha visto superada por el avance de la tecnología y la llegada de los “algoritmos”.

La Real Academia Española nos ofrece su definición de “Inteligencia Artificial” que dice: «Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico».

Igualmente vaga e imprecisa la definición de los Académicos, pues la Inteligencia Artificial, en varios sentidos, no llega a abarcar otros propios de la naturaleza humana, así, por ejemplo, hay algoritmos capaces de procesar imágenes con una eficiencia inaudita para un ser humano, pero no son capaces de sobreponerse a errores en su programación, cuando el ser humano tiene la capacidad innata de autosuperarse. 

Que la IA puede transformar nuestra sociedad para bien es un hecho, pero la programación de los algoritmos no está exenta de controversias y debates éticos.

La primera norma intergubernamental sobre IA es la Recomendación sobre Inteligencia Artificial del Consejo de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Dicha Recomendación fue adoptada el 22 de mayo de 2019 y tiene como objetivos fomentar la innovación y la confianza en la IA mediante la promoción de su administración responsable, así como garantizar el respeto de los derechos humanos y los valores democráticos. 

En junio de 2019, en la Cumbre de Osaka, los líderes del G20 adoptaron los “Principios sobre Inteligencia Artificial” extraídos de la Recomendación de la OCDE, a saber:  

Principio 1º. Crecimiento inclusivo, desarrollo sostenible y bienestar

“Las partes interesadas deben participar de manera proactiva en la administración responsable de la IA confiable en la búsqueda de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar”.

Principio 2º. Equidad y valores centrados en el ser humano

“Los actores de la IA deben respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de IA. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales reconocidos internacionalmente.

Para este fin, los actores de la IA deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean apropiados al contexto y al estado de la técnica”.

Principio 3º. Transparencia y explicabilidad

“Los actores de la IA deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de IA. Para este fin, deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica:

    • Fomentar una comprensión general de los sistemas de IA.
    • Concienciar a las partes interesadas de sus interacciones con los sistemas de IA, incluso en el lugar de trabajo.
    • Permitir que los afectados por un sistema de IA comprendan el resultado.
    • Permitir que aquellos afectados negativamente por un sistema de IA cuestionen su resultado basándose en información simple y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión”.

Principio 4º. Robustez, seguridad y protección

“Los sistemas de IA deben ser robustos, seguros y protectores durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas, funcionen adecuadamente y no presenten riesgos de seguridad irrazonables.

Con este fin, los actores de la IA deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de IA para permitir el análisis de los resultados del sistema de IA y las respuestas a las consultas, de manera adecuada al contexto y coherente con el estado de la técnica. 

Los actores de la IA deben, según sus roles, el contexto y su capacidad para actuar, aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de IA, de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la privacidad, la seguridad digital, la protección y perjuicios”.

Principio 5º. Responsabilidad

“Los actores de la IA deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto de los principios anteriores, en función de sus roles, el contexto y de conformidad con el estado de la técnica”.

De acuerdo con estos principios basados ​​en valores, la OCDE también ofrece cinco recomendaciones a los gobiernos:

  • Facilitar la inversión pública y privada en investigación y desarrollo para impulsar la innovación en IA confiable.
  • Fomentar ecosistemas de IA accesibles con infraestructura y tecnologías digitales y mecanismos para compartir datos y conocimientos.
  • Garantizar un entorno de políticas propicio que abra el camino al despliegue de sistemas de IA confiables.
  • Capacitar a las personas con las habilidades para la IA y apoyar a los trabajadores para garantizar una transición justa.
  • Cooperar más allá de las fronteras y los sectores para compartir información, desarrollar estándares y trabajar hacia una administración responsable de la IA.

En el caso de Europa hay una clara y marcada estrategia de que el ser humano sea el centro de la cuestión. Esto quiere decir que las aplicaciones de IA no solo deben ajustarse al marco normativo, sino que también deben respetar los principios éticos y garantizar que su implementación evite daños involuntarios o colaterales. En este sentido, el Parlamento Europeo aprobó una Resolución, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, que pueden consultar aquí.

En España, el debate ético se concentra, en iniciativas sin ánimo de lucro, como el Observatorio del impacto social y ético de la Inteligencia Artificial (OdiseIA). Este espacio de pensamiento, debate y acción está integrado por empresas, universidades, instituciones y personas físicas con interés por la ética y el buen uso de la IA, garantizando un diálogo independiente, objetivo y multidisciplinar. A la fecha desconozco si mantiene su actividad, pues su sitio web no está operativo.

Otra iniciativa española, igualmente, interesante es We The Humans que tiene por objetivos generar conocimiento sobre los retos éticos de las nuevas tecnologías, crear conciencia en la sociedad y en el tejido empresarial sobre los retos éticos actuales y fomentar la creación de soluciones a dichos retos (códigos de conducta, aspectos regulatorios, claves para un diseño ético-tecnológico, etc.).

Queda mucho por hacer en materia de Inteligencia Artificial, tanto en su desarrollo como en su regulación. El reto es apasionante.

Elon Musk advierte de los riesgos de la Inteligencia Artificial y de la necesidad de regularla. Vean el siguiente video:

 

EnglishItalianoPortuguêsEspañol
error: Content is protected !!