El Reglamento de la Inteligencia Artificial 2024 aprobado por la Unión Europea, y publicado el 12 de julio en el Diario Oficial de la UE, establece un nuevo marco normativo para garantizar que el desarrollo y uso de sistemas de IA en Europa se realice de forma ética, segura y centrada en el respeto a los derechos fundamentales.

Esta nueva normativa introduce obligaciones específicas según el nivel de riesgo de la IA, y tendrá un fuerte impacto en áreas como el empleo, la privacidad, la salud o la seguridad.

¿Qué busca el nuevo reglamento de la inteligencia artificial?

El Reglamento de la Inteligencia Artificial 2024 tiene como objetivo principal establecer un equilibrio entre el desarrollo tecnológico y la protección de los ciudadanos. Entre sus finalidades destacan:

  • Proteger la salud, la seguridad y los derechos fundamentales.
  • Mejorar el funcionamiento del mercado interior de la UE.
  • Fomentar el uso confiable, transparente y ético de los sistemas de IA.
  • Apoyar la innovación responsable en inteligencia artificial.

Fechas clave del reglamento

  • Entrada en vigor: 20 días después de su publicación oficial.
  • Aplicación general: A partir del 2 de agosto de 2026.
  • Aplicación parcial anticipada:
    • Capítulos I y II: desde el 2 de febrero de 2025.

    • Algunos capítulos técnicos y sancionadores: desde el 2 de agosto de 2025.

    • Artículo 6.1 (clasificación de sistemas de alto riesgo): desde el 2 de agosto de 2027.

Aplicación en el ámbito laboral

El reglamento afecta especialmente a las empresas que emplean inteligencia artificial en la gestión de recursos humanos, evaluación de personal o selección de candidatos.

Entre los requisitos laborales más relevantes se incluyen:

  • Transparencia en la IA usada para selección de personal: las herramientas de IA que evalúan o filtran candidatos deben ser auditables, explicables y libres de sesgos.
  • Prohibición del reconocimiento emocional en entornos laborales o educativos (excepto en casos médicos o de seguridad justificados).
  • Protección de la privacidad de los trabajadores: las empresas deberán justificar el uso de cualquier sistema de IA que pueda afectar a la vida laboral de sus empleados.

Obligaciones para las empresas y desarrolladores

Todas las entidades que desarrollen, comercialicen o utilicen sistemas de IA en la UE deberán cumplir con obligaciones estrictas como:

  • Evaluación de riesgos según el nivel de criticidad del sistema de IA.
  • Documentación técnica detallada del sistema utilizado.
  • Registro y conservación de logs de funcionamiento.
  • Diseño por defecto orientado a la protección de derechos fundamentales.
  • Supervisión humana en sistemas automatizados de alto riesgo.

Además, las multas por incumplimiento podrán alcanzar hasta los 35 millones de euros o el 7% del volumen de negocio global.

Preparación y cumplimiento: ¿qué deben hacer las empresas?

Desde ahora hasta 2026, las organizaciones deberán:

  • Revisar el uso de sistemas de IA en todas sus áreas de negocio.
  • Clasificar sus herramientas de IA según los niveles de riesgo.
  • Implementar mecanismos de cumplimiento normativo (compliance).
  • Diseñar protocolos de transparencia y revisión humana en decisiones automatizadas.

Conclusión: una nueva era para la inteligencia artificial responsable

La entrada en vigor del Reglamento de la Inteligencia Artificial 2024 marca el inicio de una regulación pionera a nivel mundial. Europa se convierte en referente de un uso responsable, transparente y ético de la IA, especialmente en entornos laborales y empresariales.

Desde RSBiz, ayudamos a las empresas a evaluar su grado de exposición a esta normativa, adaptarse a los nuevos requisitos y asegurar el cumplimiento antes de las fechas clave. ¿Usas IA en procesos de selección o gestión interna? Es el momento de prepararte.

Estamos aquí para ayudarte

© 2025 RSBiz. Todos los derechos reservados.