¿Cómo identificar sistemas de IA de bajo riesgo según el nuevo Reglamento de la UE?
La entrada en vigor del Reglamento Europeo de Inteligencia Artificial (Reglamento (UE) 2024/1689) marca un antes y un después en la regulación tecnológica. Basado en un enfoque de gestión por niveles de riesgo, el marco legal europeo establece categorías claras para sistemas de IA: prohibidos, de alto riesgo y de propósito general. Sin embargo, una pregunta sigue generando dudas entre organizaciones que adoptan IA: ¿cómo saber si un sistema es de riesgo bajo si la ley no lo contempla de forma explícita?
En esta entrada abordamos cómo interpretar esta clasificación implícita y qué puede hacer tu empresa para actuar con seguridad y responsabilidad.
¿Qué se entiende por “IA de bajo riesgo”?
Aunque el Reglamento no define la categoría como tal, se considera de bajo riesgo a aquellos sistemas que:
-
No figuran en el listado de sistemas de alto riesgo del Anexo III.
-
No están prohibidos por el Artículo 5 (manipulación, puntuación social, scraping facial, etc.).
-
No se clasifican como IA de propósito general reutilizable en contextos sensibles sin control.
En resumen, se trata de sistemas con una finalidad acotada, sin impacto significativo en derechos fundamentales y con un uso transparente.
¿Cómo saber si mi sistema es de bajo riesgo?
Recomendamos realizar una autoevaluación basada en criterios como:
-
Finalidad del sistema: ¿tiene un impacto potencial en decisiones relevantes para personas?
-
Tipo de datos tratados: ¿incluye datos sensibles?
-
Nivel de autonomía del sistema: ¿toma decisiones sin supervisión humana?
-
Contexto de uso: ¿afecta a derechos fundamentales como salud, empleo, educación o seguridad?
Una buena práctica es apoyarse en modelos existentes como:
-
La Evaluación de Impacto en Derechos Fundamentales (EIDF), desarrollada por la Autoridad Catalana de Protección de Datos.
-
Las Directrices Éticas para una IA Confiable publicadas por la Comisión Europea.
Usar una herramienta como: Verificador del cumplimiento de la Ley de IA de la UE
Desarrollo de las normativas nacionales
¿Y si el sistema no está regulado?
Aunque los sistemas de bajo riesgo no están sometidos a requisitos legales específicos, es recomendable adoptar buenas prácticas éticas y de transparencia. Esto refuerza la confianza de clientes y usuarios, y anticipa futuras exigencias regulatorias. Incorporar principios como explicabilidad, equidad o gobernanza del ciclo de vida puede marcar la diferencia.
La clave para gestionar correctamente la IA en tu organización está en evaluar el riesgo desde el diseño. Incluso si tu sistema no entra en las categorías más reguladas, el compromiso con la ética y la transparencia tecnológica es hoy una ventaja competitiva y un deber reputacional.
Comentarios