Volver al blog
General

Glosario de la Ley de Inteligencia Artificial de la UE: 35 Términos Clave

Proveedor, deployer, sistema GPAI, riesgo sistémico, conformidad CE... el EU AI Act tiene su propio vocabulario. Este glosario explica los 35 términos más importantes del reglamento con definiciones claras y ejemplos prácticos.

Equipo GuardianAI
2026-03-05
10 min
General

Vocabulario esencial del EU AI Act

El Reglamento (UE) 2024/1689 usa terminología técnico-jurídica específica. Conocer estos términos con precisión es fundamental para entender qué obligaciones aplican a tu organización. Este glosario se basa en las definiciones del Artículo 3 del Reglamento.


A

Agente de IA (AI agent)

Sistema de IA capaz de planificar y ejecutar secuencias de acciones de forma autónoma para alcanzar objetivos definidos por el usuario, generalmente interactuando con herramientas externas o sistemas de software.

Autoridad de vigilancia del mercado

Autoridad nacional designada por cada Estado miembro para supervisar el cumplimiento del EU AI Act por parte de proveedores y deployers en su territorio.


C

Categorización biométrica

Asignación de personas físicas a categorías específicas (como edad, sexo, grupo étnico, etc.) mediante datos biométricos. Prohibida cuando se use para inferir atributos sensibles (raza, religión, orientación sexual, etc.).

Conformidad CE / Marcado CE

Proceso mediante el que un proveedor declara que su sistema de IA de alto riesgo cumple todos los requisitos del EU AI Act. Culmina con la colocación del marcado "CE" en el producto. Para sistemas del Anexo I, requiere evaluación por organismo notificado.

Ciclo de vida del sistema de IA

Todas las fases del development de un sistema de IA: concepción, desarrollo, validación, despliegue, monitorización y retirada.


D

Datos de entrenamiento

Conjuntos de datos usados para entrenar un sistema de IA mediante los cuales el modelo aprende a producir salidas para tareas determinadas.

Declaración UE de Conformidad

Documento firmado por el proveedor donde declara que el sistema de IA cumple todos los requisitos esenciales del EU AI Act y la legislación sectorial aplicable.

Deployer (usuario)

Persona física o jurídica, autoridad pública, agencia u otro organismo que utiliza un sistema de IA bajo su propia responsabilidad, salvo cuando el uso tenga lugar en el marco de una actividad personal no profesional. Nota: en versiones anteriores de la traducción al español se usó "usuario".

Documentación técnica

Conjunto de documentos que el proveedor debe preparar y mantener actualizados demostrando el cumplimiento del sistema de IA con los requisitos del Reglamento (Art. 11 + Anexo IV).


E

Evaluación de conformidad

Proceso para verificar que un sistema de IA de alto riesgo cumple los requisitos del EU AI Act. Puede ser autoevaluación (mayoría de casos del Anexo III) o evaluación por tercero independiente (organismo notificado, para casos del Anexo I y sistemas biométricos).

Evaluación de impacto en derechos fundamentales

Evaluación que deben realizar los deployers del sector público (y ciertos deployers privados) de sistemas de alto riesgo para identificar el impacto del uso del sistema sobre los derechos fundamentales de las personas afectadas.


F

Fine-tuning

Proceso de ajuste de un modelo de IA preentrenado (frecuentemente un modelo GPAI) con datos adicionales para especializarlo en una tarea concreta. Puede convertir a quien lo realiza y distribuye en proveedor del sistema resultante.


G

GPAI (General Purpose AI) / IA de Propósito General

Modelo de IA entrenado con grandes cantidades de datos, con capacidades generales, que puede adaptarse a una amplia variedad de tareas y usarse en múltiples contextos. No diseñado para una finalidad específica. Ej: GPT, Claude, Gemini, Llama.

Gestión de riesgos

Proceso iterativo y continuo que los proveedores de sistemas de alto riesgo deben establecer, documentar y aplicar para identificar, analizar y mitigar los riesgos de su sistema de IA (Art. 9).


I

Identificación biométrica

Proceso automatizado de reconocimiento de personas físicas comparando sus datos biométricos con los almacenados en una base de datos de referencia. Distingue entre identificación "en tiempo real" (prohibida en espacios públicos con fines de ley) y "diferida" (sujeta a requisitos estrictos).

Incidente grave

Incidente o mal funcionamiento que provoca directa o indirectamente: muerte o daño grave a la salud de una persona; interrupción grave de infraestructura crítica; violación de obligaciones del derecho UE; daño a la propiedad o al medio ambiente de carácter grave.


M

Modelo fundacional (Foundation model)

Término informal (no jurídico en el Reglamento) para referirse a grandes modelos de IA preentrenados que sirven de base para otros sistemas. Conceptualmente equivalente a los modelos GPAI con mayor capacidad.

Mala utilización razonablemente previsible

Uso de un sistema de IA de una forma no prevista por el proveedor, pero que puede anticiparse razonablemente. El proveedor debe considerar y mitigar riesgos derivados de este tipo de usos al diseñar el sistema.


O

Oficina de IA de la UE (AI Office)

Organismo de la Comisión Europea creado para supervisar la implementación del EU AI Act a nivel europeo, especialmente en lo relativo a los modelos GPAI. Coordina con las autoridades nacionales.

Organismo notificado

Organización tercera independiente designada por un Estado miembro para realizar evaluaciones de conformidad de terceros (evaluaciones externas) para ciertos sistemas de IA de alto riesgo.


P

Propósito previsto (intended purpose)

El uso para el que está diseñado un sistema de IA, tal y como lo define el proveedor en las instrucciones, especificaciones técnicas o material de marketing. Determina la categorización de riesgo.

Proveedor

Persona física o jurídica, autoridad pública, agencia u otro organismo que desarrolla un sistema de IA o contrata su desarrollo para ponerlo en el mercado o en servicio bajo su propio nombre o marca, ya sea de forma onerosa o gratuita. A efectos prácticos: quien crea y comercializa (o despliega para uso propio) el sistema.


R

Representante autorizado

Persona física o jurídica establecida en la UE que actúa en nombre de un proveedor de sistema de IA establecido fuera de la UE ante las autoridades de la Unión.

Riesgo sistémico

Riesgo específico de los modelos GPAI de gran capacidad (>10²⁵ FLOPs) que, por su alcance o capacidades, puede tener efectos significativos a escala de la Unión o incluso globales. Implica obligaciones adicionales.


S

Sandbox regulatorio

Entorno controlado establecido por la autoridad nacional competente que permite el desarrollo, entrenamiento, prueba y validación de sistemas de IA innovadores durante un tiempo limitado y bajo supervisión activa.

Sistema de IA

Definición del Art. 3(1): "Sistema basado en máquinas diseñado para funcionar con diferentes niveles de autonomía y que puede mostrar capacidad de adaptación después del despliegue, y que, a partir de los datos que recibe, genera resultados tales como predicciones, recomendaciones, decisiones o contenidos que pueden influir en entornos reales o virtuales."

Sistema de IA de alto riesgo

Sistema de IA que cae dentro de las categorías del Anexo III o que está integrado como componente de seguridad de productos regulados por el Anexo I. Sujeto al régimen más exigente del Reglamento.

Supervisión humana (human oversight)

Conjunto de medidas técnicas y organizativas que permiten a personas físicas supervisar, interrumpir o corregir el funcionamiento de un sistema de IA de alto riesgo durante su despliegue (Art. 14).


T

Trazabilidad (traceability)

Capacidad de seguir el rastro de las decisiones y datos utilizados por un sistema de IA. Requisito implícito en los registros de eventos (Art. 12) y en la documentación técnica.

Transparencia

Principio que exige que los sistemas de IA (especialmente aquellos que interactúan con personas) proporcionen información suficiente sobre su naturaleza artificial y sus capacidades.


U

Uso fuera del propósito previsto

Ver mala utilización razonablemente previsible.


V

Vulnerabilidades específicas de grupos

Estado de ciertos colectivos (menores, personas con discapacidad, personas en situación de vulnerabilidad económica, etc.) que el sistema de IA no puede explotar deliberadamente. Relacionado con las prohibiciones del Art. 5.


Recursos adicionales

¿Quieres evaluar tu cumplimiento?

GuardianAI analiza tu documentación y contratos en minutos.

Iniciar Escaneo Gratuito