Reglamento Europeo de la IA: Clave para el futuro de la inteligencia artificial

Objetivos fundamentales del Reglamento Europeo de la IA: Ética, transparencia y seguridad

IA

Fecha

Noviembre de 2025

Tiempo de lectura

Aproximadamente 11 minutos


Silvia Núñez

Responsable Sistemas de Iberdrola España

Pablo Salas

Abogado de los Servicios Jurídicos Globales Regulación, Recursos y Servicios de Iberdrola

El Reglamento Europeo de Inteligencia Artificial es la primera gran normativa a nivel mundial que busca establecer un marco legal común para el desarrollo, la comercialización y el uso de esta tecnología. Esta regulación pionera combina el impulso a la innovación con la garantía de que la inteligencia artificial (IA) se aplique de forma segura, ética y respetuosa con los derechos fundamentales. Analizamos sus objetivos, la clasificación de riesgos que establece, los plazos de implementación y el compromiso de Iberdrola con un uso responsable de la IA.

El Reglamento Europeo de Inteligencia Artificial, conocido popularmente como Ley de IA (AI Act en inglés) y oficialmente como Reglamento (UE) 2024/1689, es el primer marco legal integral sobre IA a nivel mundial y constituye un hito en la forma de abordar esta tecnología. Su propósito es doble: impulsar el potencial de la inteligencia artificial en Europa y, al mismo tiempo, garantizar que su desarrollo y aplicación se lleven a cabo con seguridad, transparencia y pleno respeto a los derechos fundamentales. Por lo tanto, la normativa impulsa el desarrollo de una IA segura y confiable, favoreciendo al mismo tiempo un entorno de innovación y de creación de políticas públicas que estimulen la inversión en nuevos proyectos. Para ello, establece un sistema de categorización de niveles de riesgo de cada uso, desde los más cotidianos hasta aquellos con un impacto crítico en la vida de las personas.

Además de esta gran regulación, existen otras líneas de trabajo enfocadas a mejorar la gobernanza en los usos de la IA, ya sea a través de principios o códigos de conducta. Algunas organizaciones que llevan a cabo estas iniciativas son la Organización de las Naciones Unidas (ONU) Enlace externo, se abre en ventana nueva. , la Organización para la Cooperación y el Desarrollo Económico (OCDE) Enlace externo, se abre en ventana nueva.  y el G7. Enlace externo, se abre en ventana nueva. 

¿Por qué era necesaria una regulación de la IA?

La Comisión Europea resume la necesidad de esta regulación en una idea clave: que “los europeos puedan confiar en lo que la IA tiene para ofrecer”. Y es que, aunque la mayoría de los sistemas de inteligencia artificial son seguros y beneficiosos, otros pueden entrañar riesgos relevantes. No siempre es posible comprender por qué un algoritmo toma una determinada decisión, lo que abre la puerta a situaciones injustas, como la generación de sesgos o situaciones discriminatorias. La normativa vigente no era suficiente para dar respuesta a estos desafíos, de ahí la creación de este nuevo marco, concebido para aportar confianza, orden y transparencia en un ámbito que evoluciona a gran velocidad.

Además, la Ley de IA se integra en una estrategia más amplia de la Unión Europea para consolidar un ecosistema de innovación sólido y responsable. Junto al paquete de innovación en IA, las fábricas de IA y el plan coordinado sobre IA, esta regulación busca fomentar la inversión, atraer talento y situar a Europa como referente internacional en el desarrollo de una inteligencia artificial fiable, ética y centrada en las personas.

Clasificación de riesgos según el Reglamento Europeo de la IA: Un enfoque basado en el impacto

La Ley de IA establece cuatro niveles de riesgo para los sistemas de IA:

  • 1 Riesgo mínimo o nulo
  • 2 Riesgo limitado
  • 3 Alto riesgo
  • 4 Riesgo inaceptable
1

Riesgo mínimo o nulo

Icono de una persona junto a un edificio con líneas que representan un entorno urbano

Tipos de usos

Aplicaciones comunes de la IA sin efectos significativos en los derechos de las personas.

Implicaciones legales

Sin requisitos específicos más allá de la normativa general.

Ejemplo

Filtros de spam en el correo, sistemas de predicción meteorológica, plataformas de recomendación de contenidos en plataformas de streaming o videojuegos que empleen IA.

2

Riesgo limitado

Icono de un cerebro con líneas que simulan un circuito electrónico

Tipos de usos

Sistemas que pueden generar confusión si no se informa al usuario de que está interactuando con una IA.

Implicaciones legales

Obligación de transparencia para garantizar que el usuario esté informado, sepa claramente que está interactuando con una máquina y encuentre contenidos generados por IA etiquetados de manera clara y visible.

Ejemplo

Chatbots, asistentes virtuales o generadores de imágenes y texto.

3

Alto riesgo

Icono de dos cápsulas o píldoras cruzadas

Tipos de usos

Sistemas de IA que pueden causar riesgos graves para la salud, la seguridad o los derechos fundamentales de las personas.

Implicaciones legales

Sujetos a estrictos requisitos de transparencia, supervisión humana, precisión, solidez y ciberseguridad, entre otros.

Ejemplo

Sistemas de IA biométricos para el reconocimiento de emociones, o, sistemas para la contratación o la selección de personas físicas, en particular, para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos.

4

Riesgo inaceptable

Icono de una persona junto a un edificio con líneas que representan un entorno urbano

Tipos de usos

Sistemas de IA considerados una amenaza evidente para la salud, la seguridad y los derechos fundamentales de las personas.

Implicaciones legales

Prohibidos en la Unión Europea.

Ejemplo

El uso de IA mediante técnicas subliminales o manipuladoras para alterar el comportamiento de las personas o la aplicación de sistemas de IA para evaluar o clasificar personas atendiendo a su comportamiento de forma que la puntuación ciudadana provoque un trato perjudicial o desfavorable.

Fuente: Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, Comisión Europea ‘El Reglamento de Inteligencia Artificial entra en vigor

Cronograma del Reglamento Europeo de la IA: Fechas clave y plazos para su implementación

La aplicación del Reglamento Europeo de la IA se ha diseñado con un calendario progresivo para dar margen de adaptación a las empresas, administraciones y desarrolladores. Desde su publicación en el Diario Oficial de la Unión Europea en julio de 2024, la norma establece distintos plazos en los que entran en vigor sus disposiciones, comenzando por la prohibición de usos de alto riesgo inaceptable y culminando con la aplicación general a partir de 2026. 

Este cronograma permite combinar seguridad jurídica con tiempo suficiente para la transición hacia un ecosistema de inteligencia artificial responsable. Repasamos algunas de las fechas clave de esta regulación:

  • 2023
  • 9 de diciembre de 2023
  • 2024
  • 21 de mayo de 2024
  • 12 de julio de 2024
  • 1 de agosto de 2024
  • 2025
  • 2 de febrero de 2025
  • 2 de mayo de 2025
  • 2 de agosto de 2025
  • 2026
  • 2 de febrero de 2026
  • 2 de agosto de 2026
  • 2027
  • 2 de agosto de 2027
  • 2028
  • En adelante
Ilustración de un hombre con traje verde escribiendo sobre un documento

9 de diciembre de 2023

Acuerdo provisional

El Parlamento Europeo y el Consejo alcanzan un acuerdo provisional sobre la Ley de AI. Se establece el texto base.

Ilustración de un robot conversando con una persona

21 de mayo de 2024

El Consejo Europeo adopta formalmente la Ley de AI de la UE

Paso previo a la entrada en vigor oficial.

Ilustración de una persona revisando un documento grande

12 de julio de 2024

Publicación en el Diario Oficial de la Unión Europea

La norma se hace pública con todos sus artículos.

Ilustración de dos personas sosteniendo globos y una bandera de la Unión Europea

1 de agosto de 2024

Entrada en vigor del Reglamento Europeo de la IA

A partir de ese día la ley aplica oficialmente, aunque de forma gradual.

Ilustración de una mujer sentada leyendo un documento

2 de febrero de 2025

Comienzo de aplicación de ciertas prohibiciones y obligaciones tempranas

Aplican las disposiciones generales y la prohibición de IA con riesgos inaceptables (prácticas de IA prohibidas); obligaciones de alfabetización en IA (formación, concienciación).

Ilustración de un robot y una persona trabajando frente a una pantalla

2 de mayo de 2025

Código(s) de buenas prácticas para contribuir a la correcta aplicación de la Ley de IA

La Comisión finaliza los códigos de buenas prácticas y adoptará las medidas necesarias, lo que incluye invitar a los proveedores de modelos de IA de uso general a adherirse.

Ilustración de un apretón de manos entre dos personas

2 de agosto de 2025

Inicio de aplicación de varias disposiciones

Entra en vigor: autoridades notificantes y organismos notificados, modelos de IA de uso general, gobernanza a escala de la UE y nacional (designación de autoridades competentes), régimen sancionador (a excepción de multas a proveedores de modelos de IA de uso general) y obligaciones de confidencialidad.

Ilustración de una persona y un robot analizando información en una pantalla

2 de febrero de 2026

La Comisión Europea proporciona directrices sobre sistemas de IA alto riesgo

La Comisión Europea proporcionará directrices para la aplicación práctica de las reglas de clasificación de los sistemas de IA de alto riesgo, junto con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no sean de alto riesgo.

Ilustración de una mujer hablando desde un atril junto a una bandera azul

2 de agosto de 2026

Aplicación general de la Ley de IA

La Ley de IA entra en aplicación general, a excepción de una disposición relativa a la clasificación de los sistemas de IA de alto riesgo.

Ilustración de una mujer de pie sobre libros grandes

2 de agosto de 2027

Cumplimiento de ciertas obligaciones específicas, relacionadas con la clasificación de sistemas de IA de alto riesgo

Aplicación de ciertas obligaciones relacionadas con la clasificación de sistemas de alto riesgo, en particular para proveedores de modelos IA de uso general.

Ilustración de tres personas sentadas en una mesa

En adelante

Evaluación de la aplicación de la Ley y adopción de actos delegados, entre otros

La Comisión evaluará la aplicación de la Ley de IA, así como el funcionamiento de las autoridades, y podrá adoptar actos delegados.

Fuente: Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, Consejo Europeo, Parlamento Europeo [PDF].

Compromiso de Iberdrola con el Reglamento Europeo de la IA: ética, transparencia y cumplimiento normativo

En Iberdrola mantenemos un firme compromiso por alinearnos con los principios de la regulación europea en materia de inteligencia artificial. De esta forma, no solo buscamos cumplir con los nuevos requisitos normativos de la conocida como Ley de IA, sino adelantarnos a ellos y a los procesos de certificación mediante la mejora continua de nuestros sistemas y procesos internos. Así, hemos sido pioneros en algunos hitos clave que han marcado el camino para un uso responsable, ético y transparente de la IA.

Certificación AENOR de Iberdrola: un paso pionero en la gestión ética de la IA

Iberdrola Clientes e Iberdrola Energía España, sociedades que forman parte de Iberdrola España, lograron en septiembre de 2025 un importante hito al convertirse en las primeras empresas en certificar su ‘Sistema de Gestión de la Inteligencia Artificial’ (SGIA) conforme al estándar internacional ISO/IEC 42001 con AENOR. Este hito acredita que sus sistemas de IA, además de mejorar la eficiencia de los procesos, se gestionan de forma responsable, segura y ética.

Ver noticia
Pacto IA

Iberdrola y el Pacto de la IA de la UE: un compromiso con una IA segura y responsable

En septiembre de 2024, Iberdrola se convirtió en la primera empresa energética europea en adherirse al Pacto Europeo por la IA (AI Pact), una iniciativa voluntaria impulsada por la Comisión Europea. Con esta adhesión, nos comprometimos voluntariamente con la aplicación de algunas disposiciones del Reglamento Europeo de IA antes de su entrada en vigor completa, como la transparencia, la gobernanza responsable y el mapeo de riesgos, y nos situamos a la vanguardia en el establecimiento de un marco sólido de confianza y responsabilidad.

Objetivos del Pacto de la IA

Impulsar una estrategia de gobernanza en IA que favorezca su adopción en la organización y permita avanzar hacia el cumplimiento de la futura Ley de IA.

Identificar y mapear los sistemas de IA que puedan ser clasificados como de alto riesgo en el marco de dicha normativa.

Fomentar la sensibilización y la alfabetización en IA entre el personal, promoviendo un uso ético, responsable y alineado con los valores de la organización.

Transparencia y ética en los sistemas de IA de Iberdrola: una política alineada con la normativa europea

En Iberdrola contamos con una Política de desarrollo y uso responsable de la inteligencia artificial aprobada por el Consejo de Administración de Iberdrola, S.A. inicialmente el 10 de mayo de 2022 y modificada por última vez el 25 de marzo de 2025. Esta política establece los principios básicos de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial, entre los que se encuentran el de igualdad de oportunidades y no discriminación, transparencia, seguridad y resiliencia, privacidad o cultura innovadora.

Iberdrola y la IA para un nuevo modelo energético: liderando el camino hacia un futuro sostenible y ético

En Iberdrola llevamos utilizando la IA desde hace más de una década para realizar predicciones, optimizar procesos y detectar patrones aplicables a nuestras operaciones diarias. Ya contamos con más de 150 casos de uso en todo el Grupo, según anunciamos en el Digital Summit celebrado en 2025. Entre los ámbitos en los que está aplicando esta tecnología destacan las renovables o las redes eléctricas.

Energías limpias

La IA aporta nos permite aprovechar al máximo el viento y el sol en la generación de electricidad. Permite, además, aplicarse en todas las fases del proceso: desde el diseño de una instalación, con modelos que identifican la ubicación más adecuada para un aerogenerador, hasta la operación y el mantenimiento, mediante algoritmos capaces de anticipar fallos antes de que ocurran gracias al análisis de millones de datos. Además, la IA facilita la predicción precisa de la producción eólica y solar en cada hora del día y para cada aerogenerador o placa solar de nuestras plantas en todo el mundo.

Redes eléctricas

En Iberdrola utilizamos la inteligencia artificial para mejorar la experiencia de nuestros clientes y anticipar necesidades operativas. Gracias a un algoritmo, es posible ofrecer una estimación precisa del tiempo de restablecimiento del suministro en caso de incidencia. Además, la IA permite a los equipos de la compañía planificar con antelación qué redes o centros de transformación requerirán una renovación parcial, apoyándose en el análisis de un centenar de variables y en más de seis años de datos históricos que ayudan a predecir posibles fallos.

Protección de la biodiversidad

La IA también se aplica a la protección de la avifauna, con sistemas que detectan aves en un radio de hasta cinco kilómetros alrededor de los parques eólicos y detienen de forma automática los aerogeneradores necesarios para evitar cualquier riesgo.

Baterías de apoyo

Desde Iberdrola estamos explorando nuevas aplicaciones de la IA, como la optimización de la ubicación de baterías de respaldo para reforzar la red frente a posibles incidencias.

Además, desde 2023 contamos con un Centro Tecnológico de IA que reúne el conocimiento especializado necesario para impulsar este tipo de iniciativas, ofreciendo apoyo a las áreas de negocio en el desarrollo y la puesta en marcha de casos de uso.

También participamos en el ámbito educativo a través de colaboraciones público-privadas con una serie de talleres multiactor bajo el paraguas de la Cátedra Iberdrola para los Objetivos de Desarrollo Sostenible External link, opens in new window. , impulsada por el Centro de Innovación en Tecnología para el Desarrollo Humano de la Universidad Politécnica de Madrid (itdUPM) e Iberdrola. Este proyecto busca analizar de manera crítica y colaborativa el uso de estas tecnologías en servicios de atención al cliente. A través de sesiones con empresas, administración y academia, se exploran tanto los beneficios como los riesgos de la IA generativa, fomentando mecanismos de gobernanza, transparencia y supervisión humana que garanticen un desarrollo ético y responsable de la inteligencia artificial.

Más sobre inteligencia artificial