Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Principios éticos sobre inteligencia artificial

El término «inteligencia artificial» fue acuñado por el prestigioso informático John McCarthy en una conferencia que pronunció en la Universidad Dartmouth College en 1956, definiendo la inteligencia artificial (IA) como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes». Estamos ante una definición excepcionalmente amplia y un tanto vaga que se ha visto superada por el avance de la tecnología y la llegada de los algoritmos.

La Real Academia Española define la inteligencia artificial como «disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». Igualmente vaga e imprecisa la definición de los Académicos, pues la inteligencia artificial, en varios sentidos, no llega a abarcar actos propios de la naturaleza humana, así, por ejemplo, hay algoritmos capaces de procesar imágenes con una eficiencia inaudita para un ser humano, pero son incapaces de sobreponerse a errores en su programación, cuando el ser humano tiene la capacidad innata de auto-superarse.

Que la Inteligencia Artificial puede transformar nuestra sociedad para bien es un hecho, pero la programación de los algoritmos no está exenta de controversias y debates éticos.

Recomendación sobre inteligencia artificial de la OCDE

La primera iniciativa intergubernamental referida a la inteligencia artificial es la Recomendación sobre inteligencia artificial del Consejo de la Organización para la Cooperación y el Desarrollo Económicos (OCDE).

La Recomendación fue adoptada el 22 de mayo de 2019 y tiene como objetivo fomentar la innovación y la confianza en la inteligencia artificial mediante la promoción de su administración responsable, el respeto a los derechos humanos y los valores democráticos.

Las recomendaciones de la OCDE no son vinculantes, pero alcanzan cierta relevancia en el Derecho Internacional, pues ayudan a los legisladores nacionales a orientar sus normativas.

Cumbre del G-20 en Osaka

El 28 y 29 de junio de 2019, en la Cumbre de Osaka, los líderes del G-20 adoptaron los llamados «Principios sobre Inteligencia Artificial» extraídos de la Recomendación de la OCDE, a saber:  

Principio 1º. Crecimiento inclusivo, desarrollo sostenible y bienestar

«Las partes interesadas deben participar de manera proactiva en la administración responsable de la inteligencia artificial confiable en la búsqueda de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar».

Principio 2º. Equidad y valores centrados en el ser humano

«Los actores de la inteligencia artificial deben respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de inteligencia artificial. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales reconocidos internacionalmente.

Para este fin, los actores de la inteligencia artificial deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean apropiados al contexto y al estado de la técnica».

Principio 3º. Transparencia y explicabilidad

«Los actores de la inteligencia artificial deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de inteligencia artificial. Para este fin, deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica:

    • Fomentar una comprensión general de los sistemas de inteligencia artificial.
    • Concienciar a las partes interesadas de sus interacciones con los sistemas de inteligencia artificial, incluso en el lugar de trabajo.
    • Permitir que los afectados por un sistema de inteligencia artificial comprendan el resultado.
    • Permitir que aquellos afectados negativamente por un sistema de inteligencia artificial cuestionen su resultado basándose en información simple y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión».

Principio 4º. Robustez, seguridad y protección

«Los sistemas de inteligencia artificial deben ser robustos, seguros y protectores durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas, funcionen adecuadamente y no presenten riesgos de seguridad irrazonables.

Con este fin, los actores de la inteligencia artificial deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de inteligencia artificial para permitir el análisis de los resultados del sistema de inteligencia artificial y las respuestas a las consultas, de manera adecuada al contexto y coherente con el estado de la técnica. 

Los actores de la inteligencia artificial deben, según sus roles, el contexto y su capacidad para actuar, aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de inteligencia artificial, de forma continua para abordar los riesgos relacionados con los sistemas de inteligencia artificial, incluida la privacidad, la seguridad digital, la protección y perjuicios».

Principio 5º. Responsabilidad

«Los actores de la inteligencia artificial deben ser responsables del correcto funcionamiento de los sistemas de inteligencia artificial y del respeto de los principios anteriores, en función de sus roles, el contexto y de conformidad con el estado de la técnica».

De acuerdo con estos principios se ofrecen cinco recomendaciones a los gobiernos:

  • Facilitar la inversión pública y privada en investigación y desarrollo para impulsar la innovación en inteligencia artificial confiable.
  • Fomentar ecosistemas de inteligencia artificial accesibles con infraestructura y tecnologías digitales y mecanismos para compartir datos y conocimientos.
  • Garantizar un entorno de políticas propicio que abra el camino al despliegue de sistemas de inteligencia artificial confiables.
  • Capacitar a las personas con las habilidades para la inteligencia artificial y apoyar a los trabajadores para garantizar una transición justa.
  • Cooperar más allá de las fronteras y los sectores para compartir información, desarrollar estándares y trabajar hacia una administración responsable de la inteligencia artificial.

La Unión Europea ante el reto de la inteligencia artificial

En Europa hay una clara y marcada estrategia de que el ser humano sea el centro de la cuestión. Esto quiere decir que las aplicaciones de inteligencia artificial no solo deben ajustarse al marco normativo, sino que también deben respetar los principios éticos y garantizar que su implementación evite daños involuntarios o colaterales.

En abril de 2019, la Comisión Europea, publicó un comunicación al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones para «generar confianza en la inteligencia artificial centrada en el ser humano».

En octubre de 2020, el Parlamento Europeo aprobó una resolución con recomendaciones destinadas a la Comisión sobre aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, que pueden consultar aquí.

En nuestro país, el debate ético se concentra, en iniciativas sin ánimo de lucro, como el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). Este espacio de pensamiento, debate y acción está integrado por empresas, universidades, instituciones y personas físicas con interés por la ética y el buen uso de la inteligencia artificial. Haciendo clic aquí les comparto la «Guía de buenas prácticas en el uso de la inteligencia artificial ética» elaborada por OdiseIA en colaboración con PwC, Google, Microsoft, IBM y Telefónica. 

Otra iniciativa española, igualmente, interesante es We The Humans que tiene por objetivos generar conocimiento sobre los retos éticos de las nuevas tecnologías, crear conciencia en la sociedad y en el tejido empresarial sobre los retos éticos actuales y fomentar la creación de soluciones a dichos retos (códigos de conducta, aspectos regulatorios, claves para un diseño ético-tecnológico, etc.).

Por último, destacaría el Observatorio de Trabajo, Algoritmo y Sociedad (TAS). Una asociación sin ánimo de lucro que pretende defender los intereses y reivindicar los derechos de los trabajadores de la economía de plataformas.

Estados Unidos

La estrategia a escala nacional de Estados Unidos en materia de inteligencia artificial se advierte en el Proyecto de Declaración de Derechos sobre la Inteligencia Artificial que intenta delimitar el uso de esta tecnología para evitar que los ciudadanos vean deteriorados sus derechos o se les impida el acceso a recursos o servicios críticos. Este marco va acompañado de otro documento llamado From Principles to Practice,

América Latina y el Caribe

En América Latina y el Caribe destaca fAIr LAC. Se trata de una red diversa de profesionales y expertos que, desde la academia, el gobierno, la sociedad civil, la industria y el sector emprendedor promueven una aplicación ética de la Inteligencia Artificial en sus zonas de influencia.

Más información

Para más información pueden consultar los siguientes enlaces: 

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).