Volver al blog
Regulación

Sistemas de IA Prohibidos: Qué Prohíbe el Artículo 5 del EU AI Act

El EU AI Act prohíbe sin excepciones determinados usos de la IA desde febrero de 2025. Conoce la lista completa: manipulación subliminal, scoring social, biometría en tiempo real y más. Si tu empresa usa alguno, debes actuar ya.

Equipo GuardianAI
2026-03-28
7 min
Regulación

Las prácticas de IA que la UE prohíbe completamente

El Artículo 5 del EU AI Act recoge las denominadas "prácticas prohibidas" — sistemas y usos de la inteligencia artificial que el legislador europeo considera intrínsecamente contrarios a los valores fundamentales de la Unión. No admiten excepciones por diseño ni por uso.

Estas prohibiciones son aplicables desde el 2 de febrero de 2025. Incumplirlas conlleva las multas más altas del reglamento: hasta 35 millones de euros o el 7% del volumen de negocio global anual.


Las 8 prácticas prohibidas

1. Manipulación subliminal inconsciente

Está prohibido poner en el mercado o usar sistemas de IA que influyan en el comportamiento de una persona o grupo a través de técnicas que actúen fuera de su consciencia, cuando dicha influencia provoque o sea capaz de provocar un daño significativo.

Ejemplo práctico: Interfaces de usuario diseñadas con IA para generar adicción o impulsar decisiones de compra mediante estímulos que el usuario no puede percibir conscientemente.

2. Explotación de vulnerabilidades

Prohibido: sistemas que se aprovechen de las vulnerabilidades de grupos específicos (por edad, discapacidad, situación económica) para alterar su comportamiento de forma que les cause o pueda causar daño.

Ejemplo práctico: Sistemas de recomendación dirigidos a menores que explotan patrones de comportamiento para fomentar conductas compulsivas de consumo.

3. Evaluación o puntuación social (Social Scoring)

Prohíbe que autoridades públicas o cualquier persona que actúe en su nombre evalúen o clasifiquen a personas físicas por un período de tiempo en función de su comportamiento social o características personales, cuando ello provoque:

  • Un trato perjudicial en contextos no relacionados con el contexto de generación de datos
  • Un trato injustificado o desproporcionado respecto a la gravedad del comportamiento
Nota importante: Esta prohibición aplica a autoridades públicas, no explícitamente a actores privados con otros fines (ej. scoring crediticio, que queda bajo el régimen de alto riesgo).

4. Evaluación del riesgo de cometer delitos

Prohibido: sistemas que predigan la probabilidad de que una persona cometa un delito basándose únicamente en perfiles o características de personalidad, sin que exista un comportamiento concreto y objetivo.

No confundir con el análisis predictivo basado en comportamientos observados (que queda bajo alto riesgo con garantías estrictas).


5. Bases de datos de reconocimiento facial no consentidas (scraping)

Está prohibido crear o ampliar bases de datos de reconocimiento facial mediante scraping masivo y no dirigido de imágenes de caras desde internet o cámaras de vigilancia.

Afecta directamente a cualquier empresa que construya o comercialice datasets biométricos para entrenamiento.

6. Inferencia de emociones en el trabajo y la educación

Sistemas que infieran las emociones de personas físicas en contextos laborales o educativos están prohibidos, salvo que sea necesario por razones médicas o de seguridad.

Impacto en RRHH: Herramientas de entrevistas de trabajo que usan análisis facial para medir "engagement" o "veracidad" son directamente ilegales bajo esta disposición.

7. Categorización biométrica con inferencia de atributos sensibles

Sistemas que categoricen individualmente a personas según datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual están prohibidos.

Excepción: El etiquetado o filtrado de datasets biométricos legalmente adquiridos para entrenar sistemas contra el uso discriminatorio.

8. Identificación biométrica remota en tiempo real en espacios públicos

Esta es la prohibición de mayor impacto operativo. Prohibida la identificación biométrica en tiempo real en espacios de acceso público con fines de aplicación de la ley, salvo tres excepciones muy limitadas:

  • Búsqueda específica de víctimas de tráfico humano, explotación sexual o personas desaparecidas
  • Prevención de amenazas terroristas específicas e inminentes
  • Localización y detención de personas sospechosas de delitos específicos graves (art. 83 TFUE, penas ≥ 4 años)

Estas excepciones requieren autorización judicial previa (salvo urgencia, con confirmación posterior en 24h).


¿Cómo auditar mi empresa?

Para cumplir con el Artículo 5, sigue estos pasos:

  • Inventario completo de todos los sistemas de IA en uso, tanto desarrollados internamente como comprados a terceros
  • Análisis de función principal: ¿El sistema inferiere emociones? ¿Categoriza por atributos biométricos? ¿Genera perfiles de comportamiento?
  • Revisión de contratos con proveedores: verifica que sus sistemas no realicen prácticas prohibidas (eres co-responsable si los usas)
  • Documentación de la decisión: si un sistema fue revisado y considerado no prohibido, documenta el análisis
→ GuardianAI analiza tus documentos contractuales y técnicos automáticamente para detectar prácticas prohibidas

Conclusión

El Artículo 5 del EU AI Act crea una lista de "líneas rojas" absolutas. A diferencia del régimen de alto riesgo (que admite cumplimiento mediante documentación y evaluaciones), aquí no hay margen: el sistema prohibido no puede estar en el mercado bajo ninguna circunstancia.

Si tienes dudas sobre si un sistema de tu organización podría caer en estas categorías, consulta con un especialista en cumplimiento de IA o utiliza una herramienta automatizada de análisis.

¿Quieres evaluar tu cumplimiento?

GuardianAI analiza tu documentación y contratos en minutos.

Iniciar Escaneo Gratuito