Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Directrices sobre la definición de «Sistemas de IA»

En cumplimiento del artículo 96.1.f) del Reglamento de Inteligencia Artificial (RIA), la Comisión Europea publicó el 6 de febrero de 2025 sus Directrices sobre la definición de un sistema de inteligencia artificial establecidas por el Reglamento de IA.

Las mencionadas directrices tienen por objetivo precisar los elementos que configuran un «sistema de IA» conforme al artículo 3.1 del RIA.

El RIA no se aplica a todos los sistemas de IA, solo a aquellos que cumplen la definición de «sistema de IA» en el sentido del artículo 3.1 del RIA. Por lo tanto, la definición de «sistema de IA» es fundamental para comprender el ámbito de aplicación del RIA.

El Considerando 12 del RIA establece que el concepto de «sistema de IA» debe definirse claramente, ofreciendo la flexibilidad necesaria para adaptarse a los rápidos avances tecnológicos en este campo. Por ello, no es posible proporcionar una lista exhaustiva de todos los sistemas de IA potenciales.

La definición de «sistema de IA» no debe aplicarse mecánicamente. Cada sistema debe evaluarse en función de sus características específicas.

Definición de «sistema de IA»

El artículo 3.1 del RIA define un «sistema de IA» como «un sistema basado en una máquina diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe, la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales».

En virtud de la definición expuesta se advierten siete elementos principales:

1. Sistema basado en máquinas

El término «basado en máquinas» se refiere al hecho de que los sistemas de IA se desarrollan con máquinas y se ejecutan en ellas.

Todos los sistemas de IA se basan en máquinas, ya que requieren máquinas para su funcionamiento, como el entrenamiento de modelos, el procesamiento de datos, el modelado predictivo y la toma de decisiones automatizada a gran escala.

El término «máquina» incluye los componentes de hardware (unidades de procesamiento, memoria, dispositivos de almacenamiento, unidades de red e interfaces de entrada / salida) como de software (código informático, instrucciones, programas, sistemas operativos y aplicaciones que gestionan cómo el hardware procesa los datos y realiza las tareas).

2. Autonomía

La «autonomía» se refiere a la medida en que un sistema de IA puede realizar tareas y generar resultados, como predicciones, contenido, recomendaciones o decisiones que puedan influir en entornos físicos o virtuales, sin intervención humana continua.

La referencia a «cierto grado de independencia de acción» en el Considerando 12 del RIA excluye los sistemas diseñados para funcionar con plena intervención humana manual. Dicha intervención puede ser directa, por ejemplo, mediante controles manuales o indirecta, por ejemplo, mediante controles automatizados basados en sistemas que permiten a los humanos delegar o supervisar las operaciones del sistema.

Los sistemas de IA que pueden funcionar con intervención humana limitada o nula en contextos de uso específicos como los identificados en los anexos I y III del RIA pueden generar riesgos potenciales adicionales y requerir supervisión humana.

El nivel de autonomía es un factor importante para el proveedor al diseñar, por ejemplo, la supervisión humana del sistema o las medidas de mitigación de riesgos en el contexto de su finalidad.

3. Adaptabilidad

Los conceptos de «autonomía» y «adaptabilidad» son distintos, si bien están relacionados, y aunque suelen abordarse conjuntamente, representan dimensiones diferentes de la funcionalidad de un sistema de IA.

La «adaptabilidad» se refiere a la capacidad de autoaprendizaje que permite que el comportamiento del sistema cambie durante su uso. El nuevo comportamiento del sistema adaptado puede producir resultados diferentes a los del sistema anterior para las mismas entradas. El término «puede» indica que un sistema puede, aunque no necesariamente tiene que, poseer capacidad de adaptabilidad o de autoaprendizaje tras su implementación para constituir un sistema de IA.

En todo caso, la capacidad de un sistema para aprender automáticamente, descubrir nuevos patrones o identificar relaciones en los datos más allá de los que se usaron inicialmente para su entrenamiento no resulta decisiva para determinar si el sistema se considera un sistema de IA.

4. Objetivos

Los sistemas de IA están diseñados para operar según uno o más objetivos. Los objetivos del sistema pueden definirse explícita o implícitamente.

Los «objetivos explícitos» se refieren a metas establecidas por el desarrollador que codifica el sistema.

Los «objetivos implícitos» se refieren a metas que no se establecen explícitamente, pero que pueden deducirse del comportamiento o de los supuestos subyacentes del sistema, a partir de los datos de entrenamiento o de la interacción del sistema con su entorno.

5. Inferir cómo generar resultados utilizando técnicas de IA

Los términos «inferir cómo» no se limitan únicamente a una comprensión estrecha del concepto de «inferencia» como la capacidad de un sistema para deducir resultados a partir de datos de entrada.

Dicha interpretación no contradice el concepto de «inferencia» de la norma ISO/ IEC 22989 que define la inferencia «como el razonamiento mediante el cual se derivan conclusiones a partir de premisas conocidas». En la IA, una premisa es un hecho, una regla, un modelo, una característica o datos brutos.

Las técnicas que permiten la inferencia durante el desarrollo de un sistema de IA incluyen enfoques de aprendizaje automático y basados en la lógica y el conocimiento que infieren a partir del conocimiento codificado o la representación simbólica de la tarea a resolver.

Respecto a la primera categoría, esto es, enfoques de aprendizaje automático o «machine learning» podemos distinguir:

  • Aprendizaje supervisado: el sistema de IA aprende de los datos etiquetados que se emparejan con la salida correcta. Por ejemplo, un sistema de detección de spam de correo electrónico que se basa en IA, durante su fase de desarrollo, se entrena con un conjunto de datos que contienen correos electrónicos etiquetados por personas como «spam» o «no spam» para que el sistema aprenda patrones de las características de los correos etiquetados. Una vez entrenado y en uso, el sistema puede analizar nuevos correos electrónicos y clasificarlos como «spam» según los patrones aprendidos de los datos etiquetados.
  • Aprendizaje no supervisado: el sistema de IA aprende de datos no etiquetados. El modelo se entrena con datos sin etiquetas ni resultados predefinidos. Mediante diferentes técnicas, como agrupación en clústeres, reducción de dimensionalidad, aprendizaje de reglas de asociación, detección de anomalías o modelos generativos, el sistema se entrena para encontrar patrones, estructuras o relaciones en los datos sin una guía explícita sobre cuál debería ser el resultado. Un ejemplo son los sistemas utilizados por las compañías farmacéuticas para el descubrimiento de nuevos fármacos basándose en sus similitudes con fármacos existentes.
  • Aprendizaje autosupervisado: el sistema de IA aprende de datos no etiquetados, utilizando sus datos para crear sus propias etiquetas u objetivos. Por ejemplo, un sistema de reconocimiento de imágenes que aprende a reconocer objetos prediciendo los píxeles que faltan en la imagen.
  • Aprendizaje por refuerzo: el sistema de IA aprende de los datos recopilados de su experiencia. El sistema no recibe etiquetas explícitas, sino que aprende mediante ensayo y error, refinando su estrategia en función de la retroalimentación que recibe del entorno. Se usa, por ejemplo, para optimizar las recomendaciones de contenido personalizado en motores de búsqueda o el rendimiento de vehículos autónomos.
  • Aprendizaje profundo (deep learning): su aprendizaje se basa en arquitecturas de múltiples capas de redes neuronales que permiten a los sistemas identificar patrones complejos y realizar predicciones precisas. Son ampliamente utilizados y constituyen una tecnología clave en muchos avances recientes en IA. Un ejemplo son los asistentes virtuales, como Siri y Alexa, que analizan patrones en grandes conjuntos de datos de voz para reconocer el habla humana. En los vehículos autónomos analizan los datos de sensores y cámaras para tomar decisiones en tiempo real.

La segunda categoría de técnicas de aprendizaje, mencionada en el considerando 12 del RIA, son los «enfoques basados en la lógica y el conocimiento que infieren a partir del conocimiento codificado o la representación simbólica de la tarea a resolver». En lugar de aprender de los datos, estos sistemas aprenden del conocimiento, incluyendo reglas, hechos y relaciones codificadas por expertos humanos. Estos sistemas pueden «razonar» mediante motores deductivos o inductivos o utilizando operaciones como la ordenación, la búsqueda, la correspondencia y el encadenamiento. Al usar la inferencia lógica para extraer conclusiones, aplican lógica formal, reglas predefinidas u ontologías a nuevas situaciones. Como ejemplo tenemos las herramientas para evaluación de riesgo crediticio que emplean las entidades financieras.

6. Capacidad de generar resultados que pueden influir en entornos físicos o virtuales

Un sistema de IA debe tener la capacidad de generar resultados –ya sean predicciones, contenido, recomendaciones o decisiones, utilizando aprendizaje automático, la lógica o enfoques basados en el conocimiento– que puedan influir en entornos físicos o virtuales.

Por ejemplo, los sistemas de IA implementados en automóviles autónomos están diseñados para hacer «predicciones» en tiempo real en entornos complejos y dinámicos, con múltiples tipos de agentes e interacciones, y un número prácticamente infinito de situaciones posibles, y para tomar decisiones para ajustar su comportamiento en consecuencia.

El «contenido» se refiere a la generación de nuevo material por parte de un sistema de IA, ya sea texto, imágenes, vídeos, música u otros tipos de salida. Un ejemplo son los sistemas de IA generativa como ChatGPT.

Las «recomendaciones» se refieren a sugerencias de acciones, productos o servicios específicos para los usuarios a partir de sus preferencias, comportamientos u otros datos. Pueden aprovechar datos a gran escala, adaptarse al comportamiento del usuario en tiempo real, ofrecer recomendaciones altamente personalizadas y escalar eficientemente a medida que crece el conjunto de datos.

Finalmente, las «decisiones» se refieren a las conclusiones o elecciones que realiza un sistema. Implica un proceso totalmente automatizado mediante el cual se produce un resultado determinado en el entorno que lo rodea sin intervención humana.

7. Interacción con el entorno

El séptimo y último elemento de la definición de «sistema de IA» es que sus resultados «puedan influir en entornos físicos o virtuales». Esto indica que la influencia de un sistema de IA puede afectar tanto a objetos físicos tangibles, por ejemplo, un brazo robótico, como a entornos virtuales, por ejemplo, un ecosistema de software.

Conclusión 

Cualquier interpretación autorizada del Reglamento de IA solo podrá ser emitida, en última instancia, por el Tribunal de Justicia de la Unión Europea (TJUE).

Aunque las Directrices interpretativas no son vinculantes, no cabe duda de que pueden influir en la interpretación última del TJUE sobre el Reglamento de IA, de ahí su relevancia.

Las Directrices se completan con el repositorio sobre prácticas de alfabetización en IA recopiladas por los participantes del Pacto de IA. La lista no es exhaustiva y se actualizará periódicamente.

error: Contenido protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Se prohíbe la reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. La infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (artículo 270 y ss. del Código Penal). Se autoriza la reproducción, distribución y exhibición con fines no lucrativos mediante enlace a la fuente original