La pieza que faltaba: responsabilidad civil por daños de IA
El EU AI Act regula las obligaciones de diseño y compliance. Pero ¿qué pasa cuando un sistema de IA causa un daño real a una persona o empresa? ¿Cómo se reclama? ¿Quién es responsable?
La respuesta está en la Propuesta de Directiva sobre Responsabilidad en Materia de Inteligencia Artificial (AI Liability Directive, AILD), presentada por la Comisión Europea en septiembre de 2022.
Estado legislativo
A diferencia del EU AI Act (ya en vigor), la AILD está aún en tramitación. El Parlamento Europeo adoptó su posición en 2023 y las negociaciones con el Consejo continuaban en 2025. Se espera que se apruebe definitivamente en 2025-2026 con un período de transposición de 2 años para los Estados miembros.
Aviso: este artículo refleja el texto de la propuesta y la posición parlamentaria, que puede sufrir modificaciones antes de la adopción final.El problema que resuelve la AILD
Con las normas actuales de responsabilidad extracontractual, quien sufre daños de un sistema de IA debe probar:
- El daño ocurrió
- El sistema de IA lo causó
- El operador/proveedor fue negligente
La AILD resuelve esto con dos mecanismos clave: presunción de causalidad y acceso a evidencia.
Mecanismo 1: Presunción de causalidad (Art. 4)
Si se demuestra que el operador de un sistema de IA de alto riesgo:
- Incumplió una obligación de diligencia debida relevante (incluyendo obligaciones del EU AI Act)
- Y es razonablemente probable que ese incumplimiento causó el daño
Entonces se presume que el incumplimiento causó el daño. El operador/proveedor debe demostrar lo contrario.
Esto es un cambio radical: invierte parcialmente la carga de la prueba, beneficiando enormemente a los demandantes.Ejemplo práctico
Una empresa usa un sistema de IA de alto riesgo para selección de personal y rechaza al candidato X. X demuestra que:
- El sistema no tenía supervisión humana documentada (incumplimiento EU AI Act Art. 14)
- Fue rechazado injustamente
Con la AILD, el tribunal presume que la falta de supervisión humana causó la decisión errónea. La empresa debe probar que no fue así.
Mecanismo 2: Acceso a evidencia (Art. 3)
Cuando una víctima reclama daños y necesita acceso a la documentación técnica o logs del sistema de IA para fundamentar su reclamación, puede solicitar al tribunal que ordene la divulgación de esa documentación al demandado.
Si el demandado se niega sin justificación a facilitar la documentación requerida, el tribunal puede presumir que los hechos alegados por el demandante son ciertos.
Esto crea un incentivo fortísimo para que los proveedores mantengan documentación técnica actualizada, completa y organizada.
Impacto combinado AILD + EU AI Act
El tandem AILD + EU AI Act crea un ecosistema de responsabilidad muy robusto:
- EU AI Act define exactamente qué documentación debe existir y qué obligaciones deben cumplirse
- AILD convierte el incumplimiento de esas obligaciones en presunción de responsabilidad civil
- El resultado: cada requisito del EU AI Act que no se cumpla se convierte en un pasivo de responsabilidad potencial
Relación con la Directiva de Productos Defectuosos revisada
En paralelo, la UE revisó la Directiva de Responsabilidad por Productos (PLD, Directiva 2024/2853) para incluir explícitamente el software y los sistemas de IA como "productos". Esto significa:
- El fabricante/productor es responsable objetivamente por daños causados por su software de IA defectuoso
- No hace falta probar negligencia — basta probar que el producto era defectuoso y causó daño
- Los proveedores de software open-source gratuito tienen cierta protección, pero los que comercializan el software no
¿Cómo prepararse?
- Documentar todo: la primera línea de defensa ante reclamaciones de la AILD es tener documentación técnica completa, actualizada y accesible
- Seguro de responsabilidad civil tecnológica: verificar que tu póliza cubre daños causados por sistemas de IA
- Cláusulas contractuales claras con deployers sobre las condiciones de uso y los riesgos
- Auditorías de cumplimiento EU AI Act regulares: cada incumplimiento detectado y corregido reduce el riesgo de responsabilidad AILD
- Registro de incidentes interno: si el sistema funciona mal en algún caso, documentar el incidente, la investigación causa-raíz y las correcciones aplicadas
Conclusión
La AILD transforma el cumplimiento del EU AI Act de una obligación regulatoria en una necesidad de gestión de riesgo empresarial. Incumplir no solo arriesga multas administrativas — abre la puerta a reclamaciones civiles donde la carga de la prueba favorece a las víctimas.
Las empresas que inviertan ahora en documentación técnica y compliance del EU AI Act estarán mejor protegidas ante ambas dimensiones de responsabilidad.