PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Principios éticos sobre inteligencia artificial

El término «inteligencia artificial» fue acuñado por el prestigioso informático John McCarthy en una conferencia que pronunció en la Universidad Dartmouth College en 1956, definiendo la inteligencia artificial (IA) como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes». Estamos ante una definición excepcionalmente amplia y un tanto vaga que se ha visto superada por el avance de la tecnología y el desarrollo de algoritmos de aprendizaje profundo y modelos de IA generativa.

La Real Academia Española define la inteligencia artificial como «disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». Esta definición, aunque precisa, sigue siendo general y no captura plenamente las capacidades actuales de la IA, que en muchos casos supera a los humanos en tareas específicas.

Que la inteligencia artificial tiene el potencial de transformar nuestra sociedad para bien es un hecho, por ejemplo, impulsando sectores como la salud, pero la programación de los algoritmos no está exenta de controversias y debates éticos.

Recomendación sobre inteligencia artificial de la OCDE

La primera iniciativa intergubernamental referida a la inteligencia artificial es la Recomendación sobre inteligencia artificial del Consejo de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), adoptada el 22 de mayo de 2019, con el objetivo de promover la innovación y la confianza en la inteligencia artificial mediante una administración responsable, respetando los derechos humanos y los valores democráticos.

Las recomendaciones de la OCDE no son vinculantes, pero alcanzan cierta relevancia en el Derecho Internacional, pues ayudan a los legisladores nacionales a orientar sus normativas.

Cumbre del G-20 en Osaka

En la Cumbre de Osaka celebrada los días 28 y 29 de junio de 2019, los líderes del G-20 adoptaron los «Principios sobre Inteligencia Artificial» extraídos de la Recomendación de la OCDE, a saber:  

Principio 1º. Crecimiento inclusivo, desarrollo sostenible y bienestar

«Las partes interesadas deben participar de manera proactiva en la administración responsable de la inteligencia artificial confiable en la búsqueda de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar».

Principio 2º. Equidad y valores centrados en el ser humano

«Los actores de la inteligencia artificial deben respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de inteligencia artificial. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales reconocidos internacionalmente.

Para este fin, los actores de la inteligencia artificial deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean apropiados al contexto y al estado de la técnica».

Principio 3º. Transparencia y explicabilidad

«Los actores de la inteligencia artificial deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de inteligencia artificial. Para este fin, deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica:

    • Fomentar una comprensión general de los sistemas de inteligencia artificial.
    • Concienciar a las partes interesadas de sus interacciones con los sistemas de inteligencia artificial, incluso en el lugar de trabajo.
    • Permitir que los afectados por un sistema de inteligencia artificial comprendan el resultado.
    • Permitir que aquellos afectados negativamente por un sistema de inteligencia artificial cuestionen su resultado basándose en información simple y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión».

Principio 4º. Robustez, seguridad y protección

«Los sistemas de inteligencia artificial deben ser robustos, seguros y protectores durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas, funcionen adecuadamente y no presenten riesgos de seguridad irrazonables.

Con este fin, los actores de la inteligencia artificial deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de inteligencia artificial para permitir el análisis de los resultados del sistema de inteligencia artificial y las respuestas a las consultas, de manera adecuada al contexto y coherente con el estado de la técnica. 

Los actores de la inteligencia artificial deben, según sus roles, el contexto y su capacidad para actuar, aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de inteligencia artificial, de forma continua para abordar los riesgos relacionados con los sistemas de inteligencia artificial, incluida la privacidad, la seguridad digital, la protección y perjuicios».

Principio 5º. Responsabilidad

«Los actores de la inteligencia artificial deben ser responsables del correcto funcionamiento de los sistemas de inteligencia artificial y del respeto de los principios anteriores, en función de sus roles, el contexto y de conformidad con el estado de la técnica».

De acuerdo con estos principios, se ofrecen cinco recomendaciones a los gobiernos:

  • Facilitar la inversión pública y privada en investigación y desarrollo para impulsar la innovación en inteligencia artificial confiable.
  • Fomentar ecosistemas de inteligencia artificial accesibles con infraestructura y tecnologías digitales, y mecanismos para compartir datos y conocimientos.
  • Garantizar un entorno de políticas propicio que abra el camino al despliegue de sistemas de inteligencia artificial confiables.
  • Capacitar a las personas con las habilidades para la inteligencia artificial y apoyar a los trabajadores para garantizar una transición justa.
  • Cooperar más allá de las fronteras y los sectores para compartir información, desarrollar estándares y trabajar hacia una administración responsable de la inteligencia artificial.

La Unión Europea ante el reto de la inteligencia artificial

En la Unión Europea, la estrategia prioriza al ser humano como centro. Esto quiere decir que las aplicaciones de inteligencia artificial no solo deben ajustarse al marco normativo, sino que también deben respetar los principios éticos y garantizar que su implementación evite daños involuntarios o colaterales.

En abril de 2019, la Comisión Europea, publicó una comunicación al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones para «generar confianza en la inteligencia artificial centrada en el ser humano», enfatizando la necesidad de transparencia, robustez y no discriminación en los sistemas de inteligencia artificial, al tiempo que promueve la innovación y la competitividad europea.

En octubre de 2020, el Parlamento Europeo aprobó una resolución con recomendaciones destinadas a la Comisión sobre aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas. Esta resolución profundizó en temas como la responsabilidad civil, la propiedad intelectual y la protección de datos, instando a un marco normativo que priorice los derechos fundamentales y evite riesgos sociales, como la amplificación de sesgos.

Los textos anteriores fueron el germen del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial). 

En noviembre de 2025, se presentó la Propuesta de Reglamento Omnibus Digital, que contempla medidas dirigidas a simplificar el Reglamento de Inteligencia Artificial, como reducir las cargas administrativas, especialmente para pymes y startups, así como el aplazamiento de determinadas obligaciones para los sistemas de alto riesgo hasta que se adopten medidas de apoyo y se alivien los requisitos de documentación y pruebas.

En diciembre de 2025, la Comisión Europea publicó el primer Proyecto de Código de buenas prácticas sobre marcado y etiquetado de contenidos generados por IA, enfocado en mitigar deepfakes y desinformación mediante etiquetado y trazabilidad.

Debates en España

En nuestro país, el debate ético se concentra, en iniciativas sin ánimo de lucro, como el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). Este espacio de pensamiento, debate y acción está integrado por empresas, universidades, instituciones y personas físicas con interés por la ética y el buen uso de la inteligencia artificial. OdiseIA en colaboración con PwC, Google, Microsoft, IBM y Telefónica publicó una Guía de buenas prácticas en el uso de la inteligencia artificial ética.

Otra iniciativa española, igualmente, interesante es We The Humans enfocada en generar conocimiento sobre retos éticos de las nuevas tecnologías, crear conciencia en la sociedad y el sector empresarial, y fomentar soluciones como códigos de conducta y diseños ético-tecnológicos.

A las anteriores iniciativas, se une el Observatorio de Trabajo, Algoritmo y Sociedad (TAS), una asociación sin ánimo de lucro que pretende defender los intereses y reivindicar los derechos de los trabajadores de la economía de plataformas.

Finalmente, cabe destacar la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) que ha consolidado su liderazgo europeo en IA responsable.

Estados Unidos

La estrategia nacional de Estados Unidos en IA se refleja en el Proyecto de Declaración de Derechos sobre la Inteligencia Artificial (AI Bill of Rights) de 2022, que busca limitar su uso para proteger derechos ciudadanos y acceso a recursos críticos, acompañado del documento «From Principles to Practice».

Bajo la administración Trump, se lanzó el America’s AI Action Plan en julio de 2025, enfocado en acelerar la innovación, reducir regulaciones y competir globalmente, especialmente contra China. En noviembre del mismo año, presentaron la Genesis Mission, una plataforma nacional para datos y cómputo en inteligencia artificial.

América Latina y el Caribe

En América Latina y el Caribe destaca fAIr LAC, una red de profesionales y expertos que, desde la academia, el gobierno, la sociedad civil, la industria y el sector emprendedor promueven una aplicación ética de la inteligencia artificial en sus zonas de influencia.

Más información

Para más información pueden consultar los siguientes enlaces: 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es