Política de desarrollo y uso responsable de herramientas de inteligencia artificial

Iberdrola garantiza el uso responsable, transparente, seguro y fiable de los sistemas de inteligencia artificial y de los algoritmos

Política de uso responsable de herramientas de inteligencia artificial y de algoritmos.

Gobierno corporativo.

Política de desarrollo y uso responsable de herramientas de inteligencia artificial

 

 

 

20 de febrero de 2024

El Consejo de Administración de IBERDROLA, S.A. (la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de gobernanza y sostenibilidad y, específicamente, de aprobar y actualizar las políticas corporativas, las cuales contienen las pautas que rigen la actuación de la Sociedad y de las sociedades integradas en el grupo cuya entidad dominante es, en el sentido establecido por la ley, la Sociedad (el “Grupo”).

Con arreglo a lo dispuesto en los Estatutos Sociales de la Sociedad y como parte de su compromiso con el dividendo social, la estrategia de innovación y de transformación digital del Grupo debe orientarse a la creación de valor sostenible, de conformidad con el Propósito y Valores del Grupo Iberdrola y con los compromisos asumidos en el Código ético

Consciente de la relevancia del desarrollo e implementación de las herramientas de inteligencia artificial para la aplicación de dicha estrategia, y de la importancia de garantizar su uso responsable, acorde con el ideario corporativo de la Sociedad y los principios que informan su cultura corporativa, basada en la ética y en el compromiso con el desarrollo sostenible, el Consejo de Administración aprueba esta Política de desarrollo y uso responsable de herramientas de inteligencia artificial (la “Política”), alineada con la Recomendación del Consejo de la OCDE sobre inteligencia artificial.

1. Finalidad

La finalidad de esta Política es establecer los principios y pautas comunes y generales de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial, entendida como todo sistema automatizado diseñado para funcionar con distintos niveles de autonomía y que puede, con objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones, que a su vez influyen en entornos físicos o virtuales. También tiene como finalidad regular un uso responsable de estas herramientas, garantizando el cumplimiento de la legislación aplicable, el Propósito y Valores del Grupo Iberdrola, el Código ético y las demás normas que forman parte del Sistema de gobernanza y sostenibilidad. 

En este sentido, esta Política establece los principios y las pautas para garantizar una utilización responsable, transparente, segura y fiable de los sistemas de inteligencia artificial por parte de las sociedades del Grupo Iberdrola. 

2. Ámbito de aplicación

Esta Política es de aplicación en todas las sociedades que integran el Grupo, así como en las sociedades participadas no integradas en el Grupo sobre las que la Sociedad tiene un control efectivo, dentro de los límites legalmente establecidos.

Sin perjuicio de lo dispuesto en el párrafo anterior, las sociedades subholding cotizadas y sus filiales, al amparo de su propio marco especial de autonomía reforzada, podrán establecer una política equivalente, que deberá ser conforme con los principios recogidos en esta Política y en las demás políticas medioambientales, sociales y de gobierno corporativo y cumplimiento normativo del Sistema de gobernanza y sostenibilidad.

En aquellas sociedades participadas en las que esta Política no sea de aplicación, la Sociedad promoverá, a través de sus representantes en sus órganos de administración, el alineamiento de sus políticas propias con las de la Sociedad.

Además, esta Política es también aplicable, en lo que proceda, a las joint ventures, uniones temporales de empresas y otras asociaciones equivalentes, cuando la Sociedad asuma su gestión.

Finalmente, los principios establecidos en esta Política, serán de aplicación, también, a los proveedores que desarrollen herramientas de inteligencia artificial para la Sociedad o las entidades sujetas a esta Política, en lo que proceda.

3. Principios básicos generales de uso actuación

Para cumplir con el compromiso señalado en el apartado 1 anterior, el diseño, desarrollo, aplicación y uso de herramientas de inteligencia artificial, por parte de las sociedades a las que resulte aplicable esta Política, deberán realizarse conforme a los siguientes principios básicos de actuación: 

a) Principio de respeto al ser humano y al bienestar social 

Los sistemas de inteligencia artificial se desarrollarán y utilizarán como herramientas al servicio de las personas, con pleno respeto a la dignidad humana y al entorno, conforme al estado de la tecnología en cada momento y de manera que beneficien a todos los seres humanos, procurando que su desarrollo contribuya al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS) aprobados por la Organización de las Naciones Unidas (ONU).

Velarán por asegurar el uso responsable de las herramientas de inteligencia artificial, en cumplimiento del compromiso del Grupo Iberdrola con los derechos humanos y con los principios que informan el Propósito y Valores del Grupo Iberdrola y el Código ético, facilitando que su diseño y utilización pueda ser  controlado y supervisado  por los seres humanos. En todo caso, se prestará especial atención a que los sistemas de inteligencia artificial no perjudiquen a la salud y la seguridad, o puedan tener repercusiones negativas para los derechos fundamentales de las personas.

b) Principio de diversidad, no discriminación y equidad  

Procurarán que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que promuevan la igualdad de acceso, la igualdad de género y la diversidad cultural, evitando al mismo tiempo los sesgos con efectos discriminatorios (por razón de raza, origen étnico, religión, sexo, orientación sexual, discapacidad o cualquier otra condición de las personas) y los prejuicios injustos. 

c) Principio de cultura innovadora

Velarán por que el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial estén alineados con la estrategia de innovación del Grupo, que persigue mantenerlo en la vanguardia de las nuevas tecnologías y los modelos de negocio disruptivos, fomentando una “cultura innovadora” que impregne toda la organización y promueva ambientes de trabajo motivadores que favorezcan y premien la generación de ideas y de prácticas innovadoras. 

d) Principio de privacidad

Garantizarán que los sistemas de inteligencia artificial se desarrollen y utilicen de conformidad con la legislación sobre privacidad y protección de datos, así como con el Sistema de gobernanza y Sostenibilidad, y además procesarán datos que cumplan con los criterios establecidos de calidad e integridad.

e) Principio de transparencia 

Los sistemas de inteligencia artificial se desarrollarán y utilizarán de forma que permitan una trazabilidad y transparencia adecuadas, garantizando que los usuarios sean conscientes de que se comunican o interactúan con un sistema de inteligencia artificial, a cuyo efecto informarán debidamente a las personas afectadas sobre las capacidades y limitaciones de dicho sistema, así como sobre los derechos que les amparan.

f) Principio de seguridad y resiliencia 

Procurarán que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que se reduzcan al mínimo los daños involuntarios e inesperados y sean resilientes frente a intentos de acceso no autorizados, de alteración de su uso o rendimiento, y frente al uso ilícito por parte de terceros maliciosos, asegurando en todo momento la continuidad en la prestación de los servicios.

Dispondrán de sistemas y mecanismos de seguridad física, técnica y lógica para proteger y velar por el correcto funcionamiento de sus sistemas de inteligencia artificial, contra cualquier alteración, uso indebido o acceso no autorizado (ya sea físico o cibernético), así como para garantizar la integridad de los datos almacenados o transmitidos a través de ellos.

Con carácter general, y sin perjuicio de las excepciones que pudieran establecerse por causas justificadas por la Dirección de Transformación digital (o a la dirección que, en cada momento, asuma sus funciones), no se desarrollarán o usarán aquellos sistemas de inteligencia artificial que sean clasificados, conforme a los criterios establecidos en cada momento, como de riesgo alto.

g) Principio de formación y sensibilización:

Velarán por que los desarrolladores de las herramientas de inteligencia artificial reciban formación sobre todos los aspectos necesarios para entender los riesgos implícitos en el uso de estos sistemas, tales como consideraciones legales y éticas, aspectos conductuales y mejores prácticas de seguridad, de tal forma que se asegure que el usuario final de las herramientas de inteligencia artificial pueda hacer un uso seguro de las mismas.

4. Instrumentos y coordinación de la transformación digital y el uso de la inteligencia artificial 

Para la consecución de los objetivos señalados, la Sociedad cuenta con la Dirección de Transformación Digital (o a la dirección que, en cada momento, asuma sus funciones), que podrá apoyarse en un Grupo de Coordinación Global de Inteligencia Artificial que se constituya al efecto y que actuará de forma coordinada con los grupos locales que, en su caso, se creen en las sociedades subholding, y elaborará los procedimientos necesarios para asegurar el correcto uso de la inteligencia artificial y la gestión de los potenciales riesgos derivados de su uso. 

5. Supervisión  

Corresponde a la Dirección de Transformación Digital (o a la dirección que, en cada momento, asuma sus funciones) supervisar el cumplimiento de lo dispuesto en esta Política e informar de ello periódicamente a la Comisión de Auditoría y Supervisión del Riesgo.

Del mismo modo, la Dirección de Transformación Digital (o la dirección que, en cada momento, asuma sus funciones), revisará esta Política al menos una vez al año a fin de garantizar que su contenido sea adecuado a los constantes avances, innovaciones, riesgos y cambios normativos que se producen en la materia.  
 

Esta Política fue aprobada inicialmente por el Consejo de Administración el 10 de mayo de 2022 y modificada por última vez el 20 de febrero de 2024.