- Nueva Serie de Blogs: Descifrando la Ley de IA de la UE
- Descifrando la Ley de Inteligencia Artificial de la UE, Parte 2 – Un Análisis en Profundidad del Artículo 2
- Descifrando la Ley de IA de la UE Parte 3 – Alfabetización en IA Artículo 4
- Descifrando la Ley de IA de la UE Parte 4 – Prácticas prohibidas Artículo 5
- Descifrando la Ley de IA de la UE Parte 5 -Código de Prácticas sobre IA de Propósito General de la UE: Capítulo sobre Derechos de Autor
- Descifrando la Ley de IA de la UE, Parte 6 – Obligaciones para Proveedores de GPAI con Riesgo Sistémico
¡Bienvenido a la Parte 4 de nuestra serie de blogs “Descifrando la Ley de IA de la UE”! En el centro de esta legislación se encuentra el Artículo 5, que identifica y prohíbe ciertas prácticas de inteligencia artificial consideradas como un “riesgo inaceptable” para los derechos fundamentales, la seguridad y los valores democráticos.
Con la publicación de las Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas el 4 de febrero de 2025, ahora contamos con una mayor claridad sobre cómo debe interpretarse y aplicarse el Artículo 5. Esta entrada de blog analiza el marco jurídico del Artículo 5, clasifica las prácticas de IA prohibidas y explora algunas implicaciones para desarrolladores, implementadores y usuarios de sistemas de IA en la UE y más allá.
¿Qué es el Artículo 5 de la Ley de IA de la UE?
El Artículo 5 de la Ley de IA de la UE define un conjunto limitado de prácticas de IA que están completamente prohibidas en toda la Unión. Estos sistemas están prohibidos porque representan un “riesgo inaceptable” que no puede mitigarse adecuadamente mediante medidas técnicas u organizativas.
Las prohibiciones se aplican independientemente de si el proveedor se encuentra dentro o fuera de la UE, siempre que el sistema de IA se comercialice, se ponga en servicio o se utilice dentro de la Unión.
Categorías de Prácticas de IA Prohibidas
1. Técnicas subliminales que distorsionan el comportamiento (Art. 5(1)(a))
Se prohíben los sistemas de IA que utilizan métodos subliminales—es decir, por debajo del umbral de la consciencia—para distorsionar materialmente el comportamiento y causar o probablemente causar daño físico o psicológico.
2. Explotación de vulnerabilidades (Art. 5(1)(b))
Está prohibido explotar las vulnerabilidades de grupos como niños, personas mayores o individuos en situación económica desfavorecida para manipular su comportamiento y causarles daño.
Ejemplo: IA que dirige ofertas abusivas a personas financieramente vulnerables.
3. Puntuación social (Art. 5(1)(c))
Se prohíben los sistemas de IA que evalúan o clasifican la confiabilidad de las personas según su comportamiento social o características personales reales o previstas, cuando dichas evaluaciones conducen a:
- (i) Trato perjudicial o desfavorable en contextos no relacionados con la recogida de los datos, o
- (ii) Trato perjudicial o desfavorable injustificado o desproporcionado.
Esta prohibición aplica tanto a actores públicos como privados. Las Directrices de la Comisión (Sec. 4.2, punto 154) citan como ejemplo problemático un sistema de puntuación de solvencia crediticia impulsado por IA.
4. Identificación biométrica remota en tiempo real en espacios públicos (Art. 5(1)(d))
El texto legal establece: ‘la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad‘.
Las Directrices explican que las condiciones son acumulativas y que la práctica de IA debe ser a) «comercialización», b) «puesta en servicio para este fin específico» o c) «utilización» de un sistema de IA. Posteriormente, el sistema de IA debe predecir la comisión de un delito, y dicha predicción se basa únicamente en (a) la elaboración de perfiles de una persona física o (b) la evaluación de sus rasgos y características de personalidad. Por el contrario, si el sistema de IA funciona en apoyo de la evaluación humana, no se encuentra sujeto a esta disposición.
Ejemplo ilustrativo:
- Ejemplo prohibido: Un sistema de IA predice que una persona cometerá un robo basándose en su origen socioeconómico y rasgos de personalidad (ej., introversión o impulsividad), y las autoridades actúan sobre esa base sin pruebas objetivas.
- Uso permitido: Un sistema de IA que analiza pruebas objetivas (como grabaciones de CCTV o registros digitales) para ayudar en la investigación de un robo específico.
5. Rastreo no dirigido para bases de datos de reconocimiento facial (Art. 5(1)(e))
El texto legal establece: ‘la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión‘
Es importante destacar que la legislación solo menciona el rastreo ‘no selectiva”, por lo que si se busca a una persona concreta, no se aplica esta prohibición.
6. Reconocimiento emocional en lugares de trabajo y centros educativos (Art. 5(1)(f))
Se prohíbe el uso de IA para inferir emociones en empleados o estudiantes, a fin de proteger su dignidad y autonomía.
- Ejemplo: Monitoreo emocional de empleados con IA para influir en sus evaluaciones de desempeño.
Nota: La prohibición no se refiere a “sistemas de reconocimiento emocional” sino específicamente a aquellos que “infieren emociones”.
7. Clasificación biométrica basada en atributos sensibles (Art. 5(1)(g))
Se prohíben los sistemas de IA que clasifican a las personas según atributos sensibles como raza, religión u orientación sexual, para evitar tratamientos discriminatorios.
- Ejemplo: Un servicio solo se ofrece porque se considera que una persona pertenece a una determinada raza.
8. Identificación biométrica remota en tiempo real en espacios públicos por fuerzas del orden (Art. 5(1)(h))
Esta disposición solo se refiere a quienes despliegan sistemas de Identificación Biométrica Remota en espacios públicos con fines de aplicación de la ley, no al desarrollo o uso con otros fines.
Mirando al Futuro: Cumplimiento y Diseño Ético de la IA
Aunque las prácticas prohibidas del Artículo 5 representan un conjunto relativamente limitado de casos de uso de IA, establecen límites clave para un desarrollo ético y legalmente conforme. Las empresas que trabajan con IA deben integrar siempre principios de cumplimiento desde el diseño, incluyendo:
- Evaluaciones de impacto en los derechos fundamentales (FRIAs).
- Mecanismos de supervisión humana para detectar manipulaciones o perfilados.
- Transparencia y explicabilidad.
A medida que entramos en la fase de implementación de la Ley de IA, los despachos de abogados, los responsables de cumplimiento y las empresas tecnológicas deben mantenerse alerta. El Artículo 5 no es solo una lista de prohibiciones – es un reflejo de los valores fundamentales de la UE en la era de la inteligencia artificial.