Política de desarrollo y uso responsable de herramientas de inteligencia artificial
Iberdrola garantiza el uso responsable, transparente, seguro y fiable de los sistemas de inteligencia artificial y de los algoritmos


Política de desarrollo y uso responsable de herramientas de inteligencia artificial
16 de diciembre de 2025
El Consejo de Administración de IBERDROLA, S.A. (la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de gobernanza y sostenibilidad de la Sociedad y, específicamente, de aprobar y actualizar las políticas, las cuales contienen las pautas que rigen la actuación de la Sociedad y, además, en lo que sea de aplicación, informan las políticas que, en ejercicio de su autonomía de la voluntad, decidan aprobar las sociedades integradas en el grupo cuya entidad dominante es, en el sentido establecido por la ley, la Sociedad (el “Grupo”).
En el ejercicio de estas competencias y en el marco de la normativa legal, de los Estatutos Sociales y del Propósito y Valores del Grupo Iberdrola, el Consejo de Administración aprueba esta Política de desarrollo y uso responsable de herramientas de inteligencia artificial (la “Política”) que respeta, desarrolla y adapta, en relación con la Sociedad, los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola.
El diseño y aplicación de las herramientas de inteligencia artificial es un elemento esencial para la creación de valor sostenible, así como para la estrategia de innovación y de transformación digital del Grupo. Por ello, la Sociedad reconoce la importancia de promover su uso responsable, acorde con su ideario corporativo y los principios que informan su cultura corporativa, basada en la ética y en el compromiso con la sostenibilidad.
Esta Política está alineada con la Recomendación del Consejo de la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre inteligencia artificial.
1. Ámbito de aplicación
Esta Política es de aplicación a la Sociedad. Sin perjuicio de lo cual, esta Política incluye principios básicos que complementan en materia de diseño y uso de herramientas de inteligencia artificial, los contenidos en los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola y, en esta medida, deben informar la actuación y los desarrollos normativos que, en el ejercicio de sus competencias y al amparo de su autonomía de la voluntad, lleven a cabo las demás sociedades del Grupo en esta materia.
En la medida en que formen parte del Grupo sociedades subholding cotizadas, ellas y sus filiales, al amparo de su propio marco especial de autonomía reforzada, podrán establecer principios y normas que deberán tener un contenido conforme a los principios de esta Política.
Estos principios deberán informar también, en lo que proceda, la actuación de las entidades de naturaleza fundacional vinculadas al Grupo.
La Sociedad promoverá, igualmente, en aquellas otras compañías en las que participe y que no formen parte del Grupo, así como en las joint ventures, uniones temporales de empresas y otras entidades en las que asuma la gestión, el alineamiento de su normativa con los principios básicos en materia de diseño y uso de herramientas de inteligencia artificial contenidos en esta Política.
2. Finalidad
La finalidad de esta Política es establecer los principios básicos de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial en la Sociedad, entendida como todo sistema automatizado configurado para funcionar con distintos niveles de autonomía y que puede, con objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones, que a su vez influyen en entornos físicos o virtuales.
También tiene como finalidad regular principios básicos de actuación que presidan un uso responsable en el ámbito profesional de estas herramientas en la Sociedad por parte de sus integrantes para cumplir con la legislación aplicable, con las directrices y recomendaciones de reconocimiento general, los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola, el Propósito y Valores del Grupo Iberdrola y con las demás normas que forman parte del Sistema de gobernanza y sostenibilidad de la Sociedad.
3. Principios básicos de actuación
La Sociedad asume y promueve los siguientes principios básicos de actuación que deben presidir sus actividades relativas al diseño, desarrollo y aplicación de las herramientas de inteligencia artificial, así como su uso responsable en la Sociedad.
a) Principio de respeto al ser humano y al bienestar social
Los sistemas de inteligencia artificial se desarrollarán y utilizarán como herramientas al servicio de las personas, con pleno respeto a la dignidad humana y al entorno, conforme al estado de la tecnología en cada momento y de manera que beneficien a todos los seres humanos.
La Sociedad prestará especial atención a que los sistemas de inteligencia artificial no perjudiquen a la salud y la seguridad, o puedan tener repercusiones negativas para los derechos fundamentales de las personas.
b) Principio de igualdad de oportunidades y no discriminación
La Sociedad procurará que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que promuevan la igualdad de acceso, la igualdad de oportunidades y la diversidad, y eviten, al mismo tiempo, los sesgos con efectos discriminatorios (por ninguna condición o característica tales como la raza, origen étnico, religión, orientación sexual o política y los prejuicios injustos).
c) Principio de cultura innovadora
La Sociedad velará por que el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial estén alineados con la estrategia de innovación, que persigue mantener a la Sociedad en la vanguardia de las nuevas tecnologías y los modelos de negocio disruptivos, fomentando una “cultura innovadora” que impregne toda la organización y promueva ambientes de trabajo motivadores que favorezcan y premien el talento y la generación de ideas y de prácticas innovadoras.
d) Principio de privacidad y respeto a la propiedad intelectual
La Sociedad velará por que los sistemas de inteligencia artificial se desarrollen y utilicen de conformidad con la normativa sobre privacidad y protección de datos y procesen datos que cumplan con los criterios establecidos de calidad e integridad, así como que respeten los derechos de propiedad intelectual.
e) Principio de transparencia
La Sociedad promoverá que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que permitan una trazabilidad y transparencia adecuadas, velando por que los usuarios sean conscientes de que se comunican o interactúan con un sistema de inteligencia artificial, a cuyo efecto informará debidamente a las personas afectadas sobre las capacidades y limitaciones de dicho sistema, así como sobre los derechos que les amparan.
Además, velará por que los sistemas de inteligencia artificial cumplan con las obligaciones de transparencia y documentación establecidas en la normativa aplicable y en las directrices y recomendaciones de reconocimiento general.
f) Principio de seguridad y resiliencia
La Sociedad procurará que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que se reduzcan al mínimo los daños involuntarios e inesperados y sean resilientes frente a intentos de acceso no autorizados, de alteración de su uso o rendimiento, y frente al uso ilícito por parte de terceros maliciosos, velando en todo momento por la continuidad en la prestación de los servicios.
La Sociedad dispondrá de sistemas y mecanismos de seguridad física, técnica y lógica para proteger y velar por el correcto funcionamiento de sus sistemas de inteligencia artificial, contra cualquier alteración, uso indebido o acceso no autorizado (ya sea físico o cibernético), así como para velar por la integridad de los datos almacenados o transmitidos a través de ellos.
Con carácter general, y sin perjuicio de las excepciones que pudieran establecerse por causas justificadas por la Dirección de IT (o por la dirección que, en cada momento, asuma sus facultades) no se desarrollarán o usarán aquellos sistemas de inteligencia artificial que sean clasificados, conforme a los criterios establecidos en cada momento, como de riesgo alto.
g) Principio de formación y sensibilización
La Sociedad velará por que los desarrolladores de las herramientas de inteligencia artificial reciban formación sobre los aspectos necesarios para entender los riesgos implícitos en el uso de estos sistemas, tales como consideraciones legales y éticas, aspectos conductuales y mejores prácticas de seguridad, de tal forma que se promueva que el usuario final de las herramientas de inteligencia artificial pueda hacer un uso seguro de las mismas.
h) Principio de uso adecuado y controlado
La Sociedad velará por un uso legal, ético y fiable de las herramientas de inteligencia artificial y, en particular, promoverá que su diseño y utilización pueda ser controlado y supervisado por las personas.
Las herramientas de inteligencia artificial de aplicación al entorno corporativo deberán usarse para uso profesional, en un dispositivo aprobado por la Sociedad y cumpliendo con lo previsto en la normativa legal, con las directrices y recomendaciones de reconocimiento general, el Sistema de gobernanza y sostenibilidad y los términos, condiciones y recomendaciones de uso aplicables a cada una de ellas, así como mostrando un estricto respeto de los derechos humanos.
La Sociedad podrá establecer procedimientos de evaluación continuos y de supervisión del uso de las herramientas de inteligencia artificial, a fin de garantizar un uso adecuado y controlado de estas herramientas y su trazabilidad.
i) Principio de proporcionalidad e inocuidad
La Sociedad velara por que el desarrollo y uso de las herramientas de inteligencia artificial se alineen con el propósito establecido, evitando excesos o riesgos innecesarios. Esto implica que las aplicaciones de inteligencia artificial deben permanecer dentro de límites razonables para alcanzar sus objetivos específicos, sin incurrir en usos excesivos o innecesarios que puedan exceder el propósito establecido.
j) Principio de responsabilidad y rendición de cuentas
La Sociedad implementará mecanismos de supervisión, evaluación del impacto, auditoría y diligencia debidas para asegurar la rendición de cuentas sobre los sistemas de inteligencia artificial durante su ciclo de vida, conforme a los niveles de riesgo definidos.
4. Coordinación a nivel de Grupo
La Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades), a través del Comité de Seguridad, Resiliencia y Tecnologías Digitales, actuará de forma coordinada con las direcciones correspondientes de las sociedades subholding o con sus respectivos comités de Seguridad, Resiliencia y Tecnologías Digitales y elaborará los procedimientos necesarios para asegurar el correcto uso de la inteligencia artificial y la gestión de los potenciales riesgos derivados de su uso.
5. Implementación y desarrollo
Para la implementación y seguimiento de lo previsto en esta Política, el Consejo de Administración cuenta con la Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades), a través del Comité de Seguridad, Resiliencia y Tecnologías Digitales, que desarrollará los procedimientos necesarios para ello e informará periódicamente a la Comisión de Auditoría y Supervisión del Riesgo.
La Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades) revisará esta Política al menos una vez al año a fin de garantizar que su contenido sea adecuado a los constantes avances, innovaciones, riesgos y cambios normativos que se producen en la materia.
* * *
Esta Política fue aprobada inicialmente por el Consejo de Administración el 10 de mayo de 2022 y modificada por última vez el 16 de diciembre de 2025.




