El AI Act es el Reglamento de la Unión Europea que establece el primer marco jurídico integral para regular el desarrollo, comercialización y uso de sistemas de inteligencia artificial dentro del mercado europeo.
Su objetivo es garantizar que la IA sea:
- Segura
- Transparente
- Supervisada por humanos
- No discriminatoria
- Respetuosa con los derechos fundamentales
Fue aprobado formalmente en 2024 y su aplicación será progresiva hasta 2026.
🔎 Enfoque basado en niveles de riesgo
El AI Act clasifica los sistemas de IA en cuatro categorías:
1️⃣ Riesgo Inaceptable (Prohibidos)
Incluye sistemas que vulneran derechos fundamentales, por ejemplo:
- Sistemas de puntuación social por parte de gobiernos
- Manipulación subliminal que altere el comportamiento
- Identificación biométrica masiva en tiempo real en espacios públicos (salvo excepciones muy concretas)
Estos sistemas quedan prohibidos en la UE.
2️⃣ Alto Riesgo
Incluye sistemas que pueden afectar significativamente a personas o derechos.
Ejemplos:
- IA en selección de personal
- Evaluación crediticia
- Sistemas sanitarios con IA
- Infraestructuras críticas
- Educación y evaluación académica
Obligaciones clave:
- Evaluación de riesgos
- Gobernanza de datos
- Documentación técnica exhaustiva
- Registro en base de datos europea
- Supervisión humana
- Sistemas de gestión de calidad
- Marcado CE
3️⃣ Riesgo Limitado
Sistemas que requieren transparencia.
Ejemplos:
- Chatbots
- Sistemas de generación de contenido (deepfakes)
Obligación: informar claramente al usuario de que está interactuando con una IA.
4️⃣ Riesgo Mínimo
La mayoría de sistemas (ej. filtros de spam, recomendadores simples).
No tienen obligaciones específicas adicionales.
🧠 Modelos de IA Generativa y Fundacionales
El AI Act incluye obligaciones específicas para modelos fundacionales (como LLMs):
- Documentar entrenamiento y datasets utilizados
- Cumplir normativa de copyright
- Mitigar riesgos sistémicos si el modelo es considerado de “impacto sistémico”
- Evaluaciones de seguridad
🏢 ¿A quién afecta?
- Empresas que desarrollan IA
- Empresas que comercializan IA
- Empresas que usan IA en procesos críticos
- Proveedores fuera de la UE que operen en el mercado europeo
Incluso si la empresa está fuera de Europa, debe cumplir si su sistema impacta a ciudadanos de la UE.
📅 Calendario aproximado de aplicación
- 2024: Entrada en vigor formal
- 2025: Prohibiciones comienzan a aplicarse
- 2026: Obligaciones de alto riesgo plenamente exigibles
⚖️ Sanciones
Las multas pueden alcanzar:
- Hasta 35 millones €
o - Hasta el 7% de la facturación global anual
🎯 Impacto estratégico para empresas tecnológicas
Para empresas que desarrollan o implementan IA:
- Necesidad de auditoría interna de sistemas
- Clasificación de riesgo
- Diseño de gobernanza de datos
- Implementación de supervisión humana
- Revisión contractual con proveedores
El AI Act no prohíbe la innovación, pero obliga a profesionalizarla.