El Reglamento de la Inteligencia Artificial 2024 aprobado por la Unión Europea, y publicado el 12 de julio en el Diario Oficial de la UE, establece un nuevo marco normativo para garantizar que el desarrollo y uso de sistemas de IA en Europa se realice de forma ética, segura y centrada en el respeto a los derechos fundamentales.
Esta nueva normativa introduce obligaciones específicas según el nivel de riesgo de la IA, y tendrá un fuerte impacto en áreas como el empleo, la privacidad, la salud o la seguridad.
¿Qué busca el nuevo reglamento de la inteligencia artificial?
El Reglamento de la Inteligencia Artificial 2024 tiene como objetivo principal establecer un equilibrio entre el desarrollo tecnológico y la protección de los ciudadanos. Entre sus finalidades destacan:
- Proteger la salud, la seguridad y los derechos fundamentales.
- Mejorar el funcionamiento del mercado interior de la UE.
- Fomentar el uso confiable, transparente y ético de los sistemas de IA.
- Apoyar la innovación responsable en inteligencia artificial.
Fechas clave del reglamento
- Entrada en vigor: 20 días después de su publicación oficial.
- Aplicación general: A partir del 2 de agosto de 2026.
- Aplicación parcial anticipada:
-
Capítulos I y II: desde el 2 de febrero de 2025.
-
Algunos capítulos técnicos y sancionadores: desde el 2 de agosto de 2025.
-
Artículo 6.1 (clasificación de sistemas de alto riesgo): desde el 2 de agosto de 2027.
-
Aplicación en el ámbito laboral
El reglamento afecta especialmente a las empresas que emplean inteligencia artificial en la gestión de recursos humanos, evaluación de personal o selección de candidatos.
Entre los requisitos laborales más relevantes se incluyen:
- Transparencia en la IA usada para selección de personal: las herramientas de IA que evalúan o filtran candidatos deben ser auditables, explicables y libres de sesgos.
- Prohibición del reconocimiento emocional en entornos laborales o educativos (excepto en casos médicos o de seguridad justificados).
- Protección de la privacidad de los trabajadores: las empresas deberán justificar el uso de cualquier sistema de IA que pueda afectar a la vida laboral de sus empleados.
Obligaciones para las empresas y desarrolladores
Todas las entidades que desarrollen, comercialicen o utilicen sistemas de IA en la UE deberán cumplir con obligaciones estrictas como:
- Evaluación de riesgos según el nivel de criticidad del sistema de IA.
- Documentación técnica detallada del sistema utilizado.
- Registro y conservación de logs de funcionamiento.
- Diseño por defecto orientado a la protección de derechos fundamentales.
- Supervisión humana en sistemas automatizados de alto riesgo.
Además, las multas por incumplimiento podrán alcanzar hasta los 35 millones de euros o el 7% del volumen de negocio global.
Preparación y cumplimiento: ¿qué deben hacer las empresas?
Desde ahora hasta 2026, las organizaciones deberán:
- Revisar el uso de sistemas de IA en todas sus áreas de negocio.
- Clasificar sus herramientas de IA según los niveles de riesgo.
- Implementar mecanismos de cumplimiento normativo (compliance).
- Diseñar protocolos de transparencia y revisión humana en decisiones automatizadas.
Conclusión: una nueva era para la inteligencia artificial responsable
La entrada en vigor del Reglamento de la Inteligencia Artificial 2024 marca el inicio de una regulación pionera a nivel mundial. Europa se convierte en referente de un uso responsable, transparente y ético de la IA, especialmente en entornos laborales y empresariales.
Desde RSBiz, ayudamos a las empresas a evaluar su grado de exposición a esta normativa, adaptarse a los nuevos requisitos y asegurar el cumplimiento antes de las fechas clave. ¿Usas IA en procesos de selección o gestión interna? Es el momento de prepararte.