01 Qué dice exactamente el Art. 9
El artículo 9 obliga a los proveedores de sistemas de IA de alto riesgo a establecer un sistema de gestión de riesgos que sea un proceso continuo, no un documento puntual. Tres palabras clave que definen todo el enfoque:
Continuo — no termina cuando despliegas. Tiene que seguir activo mientras el sistema está en producción. Iterativo — cada vez que actualizas el modelo, cambias el caso de uso o detectas un incidente, el proceso se reinicia. Documentado — todo tiene que quedar por escrito y disponible para inspección.
Lo que exige concretamente el Art. 9:
Identificación de riesgos conocidos y previsibles
Todos los riesgos que el sistema puede generar durante su uso previsto y usos razonablemente previsibles, incluyendo usos incorrectos previsibles.
Art. 9.2.a
Estimación y evaluación de riesgos
Análisis de los riesgos que puedan surgir durante el uso previsto y en condiciones de mal uso razonablemente previsible.
Art. 9.2.b
Evaluación de riesgos de datos de entrenamiento
Análisis específico de los riesgos derivados de los datos utilizados para entrenar el sistema, incluyendo sesgos y calidad de datos.
Art. 9.2.c
Medidas de gestión de riesgos
Adopción de medidas apropiadas de gestión de riesgos para eliminar o reducir los riesgos identificados a un nivel aceptable.
Art. 9.4
Pruebas y validación
Realización de pruebas del sistema de IA para identificar las medidas más apropiadas de gestión de riesgos. Las pruebas deben realizarse antes del lanzamiento al mercado.
Art. 9.6 y 9.7
02 La plantilla de registro de riesgos
El reglamento no especifica el formato exacto, pero sí los campos mínimos que debe contener. Esta es la estructura que cubre todos los requisitos del Art. 9:
ID de riesgo
Identificador único. Ej: RISK-001. Necesario para referenciar en el historial de cambios.
Descripción
Qué puede salir mal, en qué contexto y para quién. Máximo 2-3 frases concretas.
Tipo
conocido / previsible / residual
Probabilidad
baja / media / alta — con justificación técnica o estadística si existe.
Impacto
bajo / medio / alto — medido en términos de daño a personas o a derechos fundamentales.
Nivel de riesgo
Resultado de probabilidad × impacto. Ver matriz en sección 03.
Medida de mitigación
Qué se ha implementado para reducir el riesgo. Concreta y verificable.
Riesgo residual
Nivel de riesgo después de aplicar las medidas. Debe ser aceptable según el uso previsto.
Responsable
Nombre o rol de la persona responsable del seguimiento de este riesgo.
Fecha de revisión
Próxima fecha de reevaluación. Mínimo trimestral para sistemas en producción.
03 La matriz de riesgos que exige el Art. 9
No puedes decir simplemente "este riesgo es alto". Tienes que poder demostrarlo con una metodología reproducible. La matriz probabilidad × impacto es el estándar que los auditores van a buscar:
Prob. alta
MEDIO
ALTO
CRÍTICO
Prob. media
BAJO
MEDIO
ALTO
Prob. baja
MÍNIMO
BAJO
MEDIO
Los riesgos clasificados como ALTO o CRÍTICO requieren medidas de mitigación obligatorias antes del despliegue. Los riesgos MEDIO requieren plan de mitigación documentado. Los riesgos BAJO y MÍNIMO requieren seguimiento pero no bloquean el despliegue.
04 Los riesgos que siempre tienes que cubrir
Independientemente del sector, hay cinco categorías de riesgo que el Art. 9 considera universalmente relevantes para sistemas de IA de alto riesgo:
Riesgos para la salud, seguridad o derechos fundamentales de personas
Cualquier daño directo o indirecto que el sistema pueda causar a usuarios finales o terceros afectados por sus decisiones.
Riesgos derivados de sesgos en datos de entrenamiento
Discriminación por género, etnia, edad u otras características protegidas derivada de datos históricos sesgados.
Riesgos de mal uso previsible
Usos del sistema distintos al previsto que un operador razonable podría anticipar, aunque no estén en el manual de uso.
Riesgos de degradación del rendimiento
Deterioro de la precisión o fiabilidad del sistema a lo largo del tiempo por deriva del modelo o cambios en la distribución de datos.
Riesgos de ciberseguridad
Vulnerabilidades que puedan permitir manipular el comportamiento del sistema mediante ataques adversariales, envenenamiento de datos o acceso no autorizado.
05 El proceso de revisión continua
Lo que más falla en las implementaciones reales no es el registro inicial — es el mantenimiento. El Art. 9 exige que el sistema sea continuo. En la práctica esto significa:
📅
Trimestral: Revisión formal del registro completo. Actualizar probabilidades y medidas de mitigación basándose en los datos de producción de los últimos 90 días.
Inmediata: Actualización obligatoria cuando se detecte un incidente en producción, cuando se modifique el modelo o cuando aparezca un nuevo caso de uso no previsto originalmente.
TrustLayer automatiza este ciclo conectando con tu agente en producción y actualizando el perfil de riesgo en tiempo real basándose en el comportamiento observado — sin que tengas que rellenar formularios manualmente cada trimestre.
También te puede interesar
TrustLayer automatiza el Art. 9.
Conecta tu agente y generamos el registro de riesgos, la matriz y el historial de revisiones automáticamente. Los primeros 5 slots de la beta son gratis.
Certificar mi agente →
5 slots gratuitos. Datos en Europa. Sin tarjeta.
⚠ Este artículo ha sido elaborado con asistencia de IA. Las referencias legales corresponden al Reglamento (UE) 2024/1689. No constituye asesoramiento jurídico.