Vocabulario esencial del EU AI Act
El Reglamento (UE) 2024/1689 usa terminología técnico-jurídica específica. Conocer estos términos con precisión es fundamental para entender qué obligaciones aplican a tu organización. Este glosario se basa en las definiciones del Artículo 3 del Reglamento.
A
Agente de IA (AI agent)Sistema de IA capaz de planificar y ejecutar secuencias de acciones de forma autónoma para alcanzar objetivos definidos por el usuario, generalmente interactuando con herramientas externas o sistemas de software.
Autoridad de vigilancia del mercadoAutoridad nacional designada por cada Estado miembro para supervisar el cumplimiento del EU AI Act por parte de proveedores y deployers en su territorio.
C
Categorización biométricaAsignación de personas físicas a categorías específicas (como edad, sexo, grupo étnico, etc.) mediante datos biométricos. Prohibida cuando se use para inferir atributos sensibles (raza, religión, orientación sexual, etc.).
Conformidad CE / Marcado CEProceso mediante el que un proveedor declara que su sistema de IA de alto riesgo cumple todos los requisitos del EU AI Act. Culmina con la colocación del marcado "CE" en el producto. Para sistemas del Anexo I, requiere evaluación por organismo notificado.
Ciclo de vida del sistema de IATodas las fases del development de un sistema de IA: concepción, desarrollo, validación, despliegue, monitorización y retirada.
D
Datos de entrenamientoConjuntos de datos usados para entrenar un sistema de IA mediante los cuales el modelo aprende a producir salidas para tareas determinadas.
Declaración UE de ConformidadDocumento firmado por el proveedor donde declara que el sistema de IA cumple todos los requisitos esenciales del EU AI Act y la legislación sectorial aplicable.
Deployer (usuario)Persona física o jurídica, autoridad pública, agencia u otro organismo que utiliza un sistema de IA bajo su propia responsabilidad, salvo cuando el uso tenga lugar en el marco de una actividad personal no profesional. Nota: en versiones anteriores de la traducción al español se usó "usuario".
Documentación técnicaConjunto de documentos que el proveedor debe preparar y mantener actualizados demostrando el cumplimiento del sistema de IA con los requisitos del Reglamento (Art. 11 + Anexo IV).
E
Evaluación de conformidadProceso para verificar que un sistema de IA de alto riesgo cumple los requisitos del EU AI Act. Puede ser autoevaluación (mayoría de casos del Anexo III) o evaluación por tercero independiente (organismo notificado, para casos del Anexo I y sistemas biométricos).
Evaluación de impacto en derechos fundamentalesEvaluación que deben realizar los deployers del sector público (y ciertos deployers privados) de sistemas de alto riesgo para identificar el impacto del uso del sistema sobre los derechos fundamentales de las personas afectadas.
F
Fine-tuningProceso de ajuste de un modelo de IA preentrenado (frecuentemente un modelo GPAI) con datos adicionales para especializarlo en una tarea concreta. Puede convertir a quien lo realiza y distribuye en proveedor del sistema resultante.
G
GPAI (General Purpose AI) / IA de Propósito GeneralModelo de IA entrenado con grandes cantidades de datos, con capacidades generales, que puede adaptarse a una amplia variedad de tareas y usarse en múltiples contextos. No diseñado para una finalidad específica. Ej: GPT, Claude, Gemini, Llama.
Gestión de riesgosProceso iterativo y continuo que los proveedores de sistemas de alto riesgo deben establecer, documentar y aplicar para identificar, analizar y mitigar los riesgos de su sistema de IA (Art. 9).
I
Identificación biométricaProceso automatizado de reconocimiento de personas físicas comparando sus datos biométricos con los almacenados en una base de datos de referencia. Distingue entre identificación "en tiempo real" (prohibida en espacios públicos con fines de ley) y "diferida" (sujeta a requisitos estrictos).
Incidente graveIncidente o mal funcionamiento que provoca directa o indirectamente: muerte o daño grave a la salud de una persona; interrupción grave de infraestructura crítica; violación de obligaciones del derecho UE; daño a la propiedad o al medio ambiente de carácter grave.
M
Modelo fundacional (Foundation model)Término informal (no jurídico en el Reglamento) para referirse a grandes modelos de IA preentrenados que sirven de base para otros sistemas. Conceptualmente equivalente a los modelos GPAI con mayor capacidad.
Mala utilización razonablemente previsibleUso de un sistema de IA de una forma no prevista por el proveedor, pero que puede anticiparse razonablemente. El proveedor debe considerar y mitigar riesgos derivados de este tipo de usos al diseñar el sistema.
O
Oficina de IA de la UE (AI Office)Organismo de la Comisión Europea creado para supervisar la implementación del EU AI Act a nivel europeo, especialmente en lo relativo a los modelos GPAI. Coordina con las autoridades nacionales.
Organismo notificadoOrganización tercera independiente designada por un Estado miembro para realizar evaluaciones de conformidad de terceros (evaluaciones externas) para ciertos sistemas de IA de alto riesgo.
P
Propósito previsto (intended purpose)El uso para el que está diseñado un sistema de IA, tal y como lo define el proveedor en las instrucciones, especificaciones técnicas o material de marketing. Determina la categorización de riesgo.
ProveedorPersona física o jurídica, autoridad pública, agencia u otro organismo que desarrolla un sistema de IA o contrata su desarrollo para ponerlo en el mercado o en servicio bajo su propio nombre o marca, ya sea de forma onerosa o gratuita. A efectos prácticos: quien crea y comercializa (o despliega para uso propio) el sistema.
R
Representante autorizadoPersona física o jurídica establecida en la UE que actúa en nombre de un proveedor de sistema de IA establecido fuera de la UE ante las autoridades de la Unión.
Riesgo sistémicoRiesgo específico de los modelos GPAI de gran capacidad (>10²⁵ FLOPs) que, por su alcance o capacidades, puede tener efectos significativos a escala de la Unión o incluso globales. Implica obligaciones adicionales.
S
Sandbox regulatorioEntorno controlado establecido por la autoridad nacional competente que permite el desarrollo, entrenamiento, prueba y validación de sistemas de IA innovadores durante un tiempo limitado y bajo supervisión activa.
Sistema de IADefinición del Art. 3(1): "Sistema basado en máquinas diseñado para funcionar con diferentes niveles de autonomía y que puede mostrar capacidad de adaptación después del despliegue, y que, a partir de los datos que recibe, genera resultados tales como predicciones, recomendaciones, decisiones o contenidos que pueden influir en entornos reales o virtuales."
Sistema de IA de alto riesgoSistema de IA que cae dentro de las categorías del Anexo III o que está integrado como componente de seguridad de productos regulados por el Anexo I. Sujeto al régimen más exigente del Reglamento.
Supervisión humana (human oversight)Conjunto de medidas técnicas y organizativas que permiten a personas físicas supervisar, interrumpir o corregir el funcionamiento de un sistema de IA de alto riesgo durante su despliegue (Art. 14).
T
Trazabilidad (traceability)Capacidad de seguir el rastro de las decisiones y datos utilizados por un sistema de IA. Requisito implícito en los registros de eventos (Art. 12) y en la documentación técnica.
TransparenciaPrincipio que exige que los sistemas de IA (especialmente aquellos que interactúan con personas) proporcionen información suficiente sobre su naturaleza artificial y sus capacidades.
U
Uso fuera del propósito previstoVer mala utilización razonablemente previsible.
V
Vulnerabilidades específicas de gruposEstado de ciertos colectivos (menores, personas con discapacidad, personas en situación de vulnerabilidad económica, etc.) que el sistema de IA no puede explotar deliberadamente. Relacionado con las prohibiciones del Art. 5.