La Ley de IA europea es la primera regulación global completa sobre inteligencia artificial. Con entrada en vigor progresiva desde agosto de 2024, impone obligaciones estrictas a las empresas que utilizan o implementan sistemas de IA en la UE. Esto es lo que debe saber para cumplir.
La Unión Europea ha tomado la delantera a nivel mundial en la regulación de la IA. La Ley de IA establece un marco legal basado en riesgos que afecta a todas las empresas, no solo a los gigantes tecnológicos. Ya sea que utilice ChatGPT para sus correos electrónicos o desarrolle sus propios modelos, usted está afectado.
Los 4 Niveles de Riesgo de la Ley de IA
La Ley de IA clasifica los sistemas de IA en 4 categorías según su nivel de riesgo. Cuanto mayor sea el riesgo, más estrictas serán las obligaciones.
| Nivel | Ejemplos | Obligaciones |
|---|---|---|
| Riesgo inaceptable | Puntuación social, manipulación subliminal | PROHIBIDO |
| Riesgo elevado | RRHH, scoring crediticio, salud, justicia | Cumplimiento estricto obligatorio |
| Riesgo limitado | Chatbots, deepfakes | Transparencia obligatoria |
| Riesgo mínimo | Filtros de spam, videojuegos | Ninguna obligación específica |
Clasificación de riesgos según la Ley de IA
¿Qué sistemas tienen un riesgo elevado?
- Reclutamiento y RRHH: Cribado de CV, evaluación de candidatos, decisiones de contratación
- Crédito y seguros: Scoring crediticio, evaluación de riesgos
- Educación: Calificación automática, orientación de estudiantes
- Salud: Diagnóstico asistido, priorización de cuidados
- Justicia: Análisis de riesgo de reincidencia, decisiones administrativas
- Infraestructuras críticas: Transporte, energía, telecomunicaciones
Calendario de Entrada en Vigor
| Fecha | Obligación |
|---|---|
| Febrero 2025 | Prohibición de prácticas inaceptables |
| Agosto 2025 | Obligaciones para modelos GPAI (ChatGPT, Claude...) |
| Agosto 2026 | Todas las demás obligaciones (riesgo elevado...) |
| Agosto 2027 | Obligaciones para sistemas integrados |
Calendario de cumplimiento de la Ley de IA
Obligaciones para Sistemas de Alto Riesgo
Los sistemas clasificados como de alto riesgo deben cumplir obligaciones estrictas antes de su comercialización:
- Gestión de riesgos: Evaluación y mitigación de riesgos documentadas
- Calidad de los datos: Datos de entrenamiento trazados y no discriminatorios
- Documentación técnica: Especificaciones, rendimiento, limitaciones documentadas
- Registro: Registros de operaciones para auditoría
- Transparencia: Información clara a los usuarios
- Supervisión humana: Control humano obligatorio sobre las decisiones
- Robustez: Pruebas de seguridad y fiabilidad
¿Cómo Cumplir?
Paso 1: Inventario de sus sistemas de IA
Comience por listar todos los sistemas de IA utilizados en su empresa, incluidos el software en línea y los servicios externos como ChatGPT, Claude o herramientas empresariales específicas.
Paso 2: Clasificación de riesgos
Para cada sistema, determine su categoría de riesgo. Atención: el uso determina el riesgo, no la herramienta. ChatGPT para redactar correos electrónicos = riesgo mínimo. ChatGPT para clasificar CV = riesgo elevado.
Paso 3: Cumplimiento
Para los sistemas de alto riesgo, prepare la documentación requerida, implemente los controles y capacite a sus equipos. Herramientas dedicadas como eyreACT pueden automatizar parte de este proceso.
Sanciones en Caso de Incumplimiento
Las multas previstas por la Ley de IA son significativas y proporcionales a la facturación:
- Prácticas prohibidas: Hasta 35 millones de EUR o el 7% de la facturación mundial
- Incumplimiento de sistemas de alto riesgo: Hasta 15 millones de EUR o el 3% de la facturación mundial
- Declaraciones falsas: Hasta 7,5 millones de EUR o el 1% de la facturación mundial
Impacto en los Proveedores de IA ([OpenAI](/es/empresas/openai), [Anthropic](/es/empresas/anthropic), [Google](/es/empresas/google)...)
Los proveedores de modelos fundacionales (GPAI) como ChatGPT, Claude y Gemini tienen obligaciones específicas desde agosto de 2025:
- Documentación técnica completa del modelo
- Respeto de los derechos de autor sobre los datos de entrenamiento
- Evaluación y mitigación de riesgos sistémicos
- Pruebas de seguridad (red-teaming)
Preguntas Frecuentes sobre la Ley de IA
Recursos y Herramientas
Vigilancia regulatoria de IA
Siga la evolución de la Ley de IA y las regulaciones de IA europeas.
Sin spam. Cancela en 1 clic.


