Guía de Cumplimiento

Guía AEPD 2025: Prepara tu Empresa para la Ley de IA de la UE

La cuenta atrás ha comenzado: Quedan menos de 600 días para cumplir o enfrentar multas de hasta €35M

Equipo Legal RegulaAI
2025-12-23
12 min lectura

Guía definitiva para empresas españolas: Todo lo que necesitas saber sobre cumplimiento con AEPD, AESIA y la Ley de IA antes del 2 de agosto de 2026.

Si tu empresa española utiliza inteligencia artificial para tomar decisiones automatizadas, procesar datos personales o evaluar personas, este artículo es obligatorio para ti. La Agencia Española de Protección de Datos (AEPD) ha publicado directrices específicas en 2025 que van más allá del marco europeo básico.

#⚠️ Fecha Límite Crítica

2 de agosto de 2026 - Todos los sistemas de IA de alto riesgo en la UE deben cumplir con el Reglamento de IA.

Penalizaciones por incumplimiento: Hasta €35 millones o el 7% de la facturación global anual (lo que sea mayor)

Días restantes: Aproximadamente 590 días

#📋 ¿Qué es la AEPD y Por Qué Importa para tu IA?

La Agencia Española de Protección de Datos (AEPD) es la autoridad de control española responsable de velar por el cumplimiento del RGPD, la LOPDGDD (Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales) y, ahora, del Reglamento de IA de la UE en territorio español.

### 🎯 Competencias de la AEPD en IA

* Supervisión directa de sistemas de IA que procesen datos personales * Imposición de sanciones por violaciones del RGPD relacionadas con IA * Publicación de directrices específicas para el mercado español * Coordinación con AESIA (Agencia Española de Supervisión de Inteligencia Artificial)

#🏛️ AESIA: La Nueva Agencia de Supervisión de IA en España

En 2024, España se convirtió en el primer país de la UE en crear una Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Esta agencia trabaja junto con la AEPD para supervisar el cumplimiento del Reglamento de IA.

División de responsabilidades:

AEPD (Datos Personales): * RGPD y LOPDGDD * Protección de datos * Derechos de los usuarios * Consentimiento y transparencia

AESIA (Sistemas de IA): * Reglamento de IA UE * Clasificación de riesgo * Evaluaciones de conformidad * Sandbox regulatorio

#⚖️ Directrices AEPD 2025: Las 5 Claves para Empresas Españolas

### 1. Explicabilidad No Negociable

La AEPD ha dejado claro que ningún sistema de IA puede ser una "caja negra" cuando afecta a derechos fundamentales. Si tu sistema de IA toma decisiones automatizadas (rechazo de crédito, filtrado de CVs, pricing dinámico), debes poder explicar:

* Por qué el sistema tomó esa decisión específica * Qué variables influyeron más en el resultado * Cómo un usuario podría obtener un resultado diferente

💡 Ejemplo Real - Factorial (España):

Factorial, la plataforma española de RRHH, usa IA para filtrar candidatos. Según las directrices AEPD 2025, deben implementar explicaciones contrafactuales: "Tu solicitud fue rechazada porque tu experiencia en gestión de equipos (2 años) está por debajo del umbral requerido (5 años)."

### 2. Registros de Auditoría Obligatorios

Todos los sistemas de IA de alto riesgo deben mantener logs automáticos de trazabilidad durante al menos 3 años después de que el sistema haya dejado de operar.

📊 Qué registrar:

* Timestamp de cada decisión automatizada * Datos de entrada utilizados (anonimizados si es posible) * Resultado generado por el modelo * Versión del modelo utilizado * Si hubo intervención humana (y quién)

### 3. Supervisión Humana Efectiva

La AEPD rechaza explícitamente el concepto de "aprobación automática humana". Un humano que aprueba el 99% de las decisiones de IA en menos de 2 segundos NO cumple con el requisito de supervisión.

✅ Requisitos para supervisión válida:

* El supervisor debe entender cómo funciona el sistema * Debe poder anular o rechazar la decisión de la IA * Debe tener un "botón de parada" para detener el sistema * No puede haber presión temporal que fuerce la aprobación

### 4. Evaluaciones de Impacto (EIPD-IA)

La AEPD exige Evaluaciones de Impacto en la Protección de Datos específicas para IA antes de desplegar sistemas de alto riesgo.

🔍 Componentes de una EIPD-IA:

  • 1
    Descripción del sistema y su propósito
  • 2
    Evaluación de la necesidad y proporcionalidad
  • 3
    Riesgos para los derechos y libertades
  • 4
    Medidas para abordar los riesgos identificados
  • 5
    Consulta con el DPO (si aplica)

### 5. Solapamiento LOPDGDD y Ley de IA

España tiene una capa adicional de regulación: la LOPDGDD (Ley Orgánica 3/2018). Esta ley española complementa el RGPD con requisitos específicos que afectan a la IA.

⚖️ Artículos LOPDGDD críticos para IA:

* Art. 11: Derecho a no ser objeto de decisiones individuales automatizadas (incluye perfilado) * Art. 28: Sistemas de información crediticia - restricciones específicas para scoring de crédito con IA * Art. 89: Derecho a la explicación - el usuario puede solicitar intervención humana y explicación de la lógica aplicada

#🏢 Casos de Uso Españoles de Alto Riesgo

### 🏦 Banca y Fintech

Ejemplo: BBVA, Santander, CaixaBank usan IA para scoring de crédito y detección de fraude.

Riesgo AEPD: Decisiones automatizadas que afectan el acceso al crédito deben ser explicables y auditables. Art. 28 LOPDGDD aplica específicamente.

### 👥 Recursos Humanos y Reclutamiento

Ejemplo: Factorial, Personio, Jobandtalent usan IA para filtrado de CVs.

Riesgo AEPD: Discriminación indirecta por sesgos en datos de entrenamiento. Obligatorio demostrar equidad mediante pruebas de sesgo.

### 🏥 Salud Digital

Ejemplo: Quirónsalud, Sanitas usan IA para diagnóstico asistido y triaje.

Riesgo AEPD: Datos sensibles de salud (categoría especial RGPD Art. 9). Requiere base legal explícita y medidas de seguridad reforzadas.

### 🛒 E-commerce y Retail

Ejemplo: El Corte Inglés, Inditex usan IA para pricing dinámico y recomendaciones personalizadas.

Riesgo AEPD: Perfilado automatizado requiere consentimiento explícito o base legal alternativa. Transparencia obligatoria sobre uso de datos para personalización.

### 🚗 Seguros y Movilidad

Ejemplo: Mapfre, Mutua Madrileña usan IA para evaluación de riesgo y cálculo de primas.

Riesgo AEPD: Decisiones que afectan precio/acceso a seguros son de alto riesgo. No se permiten variables proxy que discriminen indirectamente.

#📋 Guía Paso a Paso: Cumplimiento AEPD para PYMEs Españolas

### Paso 1: Clasifica tu Sistema de IA

Determina si tu IA es prohibida, alto riesgo, riesgo limitado o mínimo riesgo según el Anexo III del Reglamento de IA.

Herramienta: Usa el cuestionario gratuito de RegulaAI (8 preguntas, 3 minutos) para obtener tu clasificación automática.

### Paso 2: Documenta tu Sistema (System Card)

Crea una ficha técnica que explique en lenguaje claro:

* Propósito del sistema y casos de uso * Fuentes de datos de entrenamiento * Arquitectura del modelo (sin necesidad de detalles técnicos profundos) * Métricas de rendimiento y limitaciones conocidas * Medidas de mitigación de sesgos implementadas

### Paso 3: Realiza Evaluación de Impacto (EIPD-IA)

Si tu sistema es de alto riesgo, debes completar una EIPD antes del despliegue. Incluye:

* Identificación de riesgos para derechos fundamentales * Análisis de necesidad y proporcionalidad * Plan de mitigación con medidas técnicas y organizativas

### Paso 4: Implementa Registros de Auditoría Automáticos

Configura logging automático que capture:

* Cada decisión automatizada (timestamp, input, output) * Versión del modelo utilizada * Intervenciones humanas (quién, cuándo, por qué)

Retención: Mínimo 3 años según directrices AEPD 2025.

### Paso 5: Establece Supervisión Humana Efectiva

Diseña tu interfaz de usuario para que:

* El supervisor vea claramente la recomendación de la IA * Pueda aprobar, rechazar o modificar la decisión * Tenga acceso a explicación del porqué de la decisión * Haya un botón de "parada de emergencia" accesible

### Paso 6: Pruebas de Sesgo y Equidad

Ejecuta tests automatizados para detectar discriminación indirecta:

* Disparate Impact Analysis (ratio de aprobación entre grupos) * Equal Opportunity (tasas de falsos negativos por grupo) * Demographic Parity (distribución de resultados positivos)

Herramientas: Fairlearn (Microsoft), AI Fairness 360 (IBM), What-If Tool (Google)

### Paso 7: Actualiza Política de Privacidad y Transparencia

Informa a los usuarios de forma clara sobre:

* Existencia de toma de decisiones automatizadas * Lógica subyacente del sistema de IA * Consecuencias previstas para el usuario * Derecho a solicitar intervención humana y explicación * Derecho a impugnar la decisión

### Paso 8: Prepara Plan de Respuesta a Incidentes

Tienes 72 horas para notificar a la AEPD/AESIA si tu IA causa:

* Violación de derechos fundamentales * Discriminación probada * Filtración de datos de entrenamiento * Daño físico o económico significativo

Preparación: Redacta plantillas de notificación AHORA, no cuando ocurra el incidente.

#🏖️ Sandbox Regulatorio Español de IA

España es pionera en Europa con el primer Sandbox Regulatorio de IA, gestionado por AESIA en colaboración con la AEPD. Este programa permite a empresas probar sus sistemas de IA en un entorno controlado y supervisado.

### ✅ Beneficios del Sandbox

* Asesoramiento directo de reguladores AESIA/AEPD * Protección temporal contra sanciones durante pruebas * Sello de confianza al completar exitosamente el programa * Ventaja competitiva en licitaciones públicas y clientes enterprise

### 📝 Requisitos de Aplicación

* Prototipo funcional del sistema de IA * Documentación técnica completa * Plan de pruebas con métricas claras * Compromiso de reporte mensual a AESIA

### 🎯 Sectores Prioritarios para Sandbox 2025

Salud: Diagnóstico asistido, triaje, medicina personalizada Fintech: Scoring crediticio, detección fraude, asesoramiento financiero RRHH: Selección de personal, evaluación de desempeño

#💰 Comparativa de Costos: Cumplimiento Manual vs. RegulaAI

| Servicio | Consultoría Manual | RegulaAI | Ahorro | |----------|-------------------|----------|---------| | Evaluación inicial de riesgo | €2,500 - €5,000 | GRATIS | 100% | | Informe básico de cumplimiento | €3,000 - €6,000 | €14.99 | 99.5% | | Auditoría AEPD completa + documentación | €15,000 - €25,000 | €199.99/año | 98.7% | | Asesoramiento continuo anual | €8,000 - €15,000/año | €699.99 lifetime | 95.3% | | TOTAL (Primer Año) | €28,500 - €51,000 | €199.99 - €699.99 | ~98% |

#⏰ Calendario de Cumplimiento: Hoja de Ruta hasta Agosto 2026

Enero - Marzo 2025 (AHORA): * Realiza evaluación de riesgo de tu sistema de IA * Identifica qué datos personales procesas * Revisa contratos con proveedores de APIs (OpenAI, Anthropic, etc.) * Nombra DPO si procesas datos a gran escala

Abril - Junio 2025: * Completa EIPD-IA si tu sistema es alto riesgo * Implementa logging automático de decisiones * Diseña interfaz de supervisión humana * Ejecuta primeras pruebas de sesgo

Julio - Septiembre 2025: * Documenta tu System Card completamente * Actualiza Política de Privacidad con sección de IA * Entrena a supervisores humanos en uso del sistema * Considera aplicar al Sandbox AESIA si aplica

Octubre 2025 - Febrero 2026: * Auditoría interna completa de todos los controles AEPD * Remedia cualquier brecha de cumplimiento identificada * Simula inspección AEPD/AESIA (fire drill) * Prepara dossier completo de evidencia

Marzo - Agosto 2026: * Auditoría externa (opcional pero recomendado) * Monitoreo continuo de cambios regulatorios * Ajustes finales basados en guías actualizadas AEPD * 2 Agosto 2026: COMPLIANCE TOTAL

#❓ Preguntas Frecuentes (FAQ) - Empresas Españolas

¿Mi chatbot de atención al cliente es de alto riesgo?

Depende. Si solo responde preguntas simples (FAQ), probablemente sea riesgo mínimo. PERO si toma decisiones sobre aprobación/rechazo de solicitudes, clasificación de clientes para ofertas diferenciadas, o evaluación de solvencia crediticia, entonces SÍ es alto riesgo y requiere cumplimiento AEPD completo.

¿Usar OpenAI/Anthropic me exime de responsabilidad AEPD?

NO. Bajo el Reglamento de IA, OpenAI es el "Provider" pero TÚ eres el "Deployer". La AEPD te hará responsable a TI de asegurar que no se filtren datos personales a la API, validar que las respuestas no sean discriminatorias, implementar guardrails de seguridad, y mantener registros de auditoría.

¿Cuánto tiempo tengo para reportar un incidente de IA a la AEPD?

72 horas. Si tu sistema de IA causa violación de datos personales, discriminación probada, o daño físico o económico significativo, debes notificar a la AEPD (y potencialmente AESIA) dentro de 72 horas.

¿Qué pasa si mi competidor NO cumple y yo sí?

El cumplimiento es una ventaja competitiva. Clientes enterprise SOLO contratan proveedores RGPD/AI Act compliant, licitaciones públicas requieren certificados de cumplimiento, bancos/seguros exigen auditorías de terceros, e inversores VCs verifican compliance antes de invertir.

#🚀 ¿Listo para Cumplir con la AEPD?

No esperes a recibir una inspección. Empieza tu auditoría hoy y evita multas millonarias.

Empieza tu auditoría gratis →

✓ Sin tarjeta de crédito ✓ Resultados en 3 minutos ✓ Basado en directrices AEPD oficiales

#📚 Recursos Oficiales AEPD/AESIA

* [Portal oficial AEPD](https://www.aepd.es) - Guías de IA y protección de datos * [LOPDGDD - Ley Orgánica 3/2018](https://www.boe.es/buscar/act.php?id=BOE-A-2018-16673) * [Reglamento de IA de la UE (2024/1689)](https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689) - Texto oficial en español * Portal AESIA Sandbox (próximamente - previsto Q1 2025)

Compartir Artículo

Evita multas de la IA.

La Ley de IA de la UE es real. Tu cumplimiento debería serlo también. Obtén tu auditoría inicial en minutos.