Política de uso responsable de herramientas de inteligencia artificial y de algoritmos
Iberdrola garantiza el uso responsable, transparente, seguro y fiable de los sistemas de inteligencia artificial y de los algoritmos
Política de uso responsable de herramientas de inteligencia artificial y de algoritmos
20 de diciembre de 2022
El Consejo de Administración de IBERDROLA, S.A. (la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de gobernanza y sostenibilidad y, específicamente, de aprobar y actualizar las políticas corporativas, las cuales contienen las pautas que rigen la actuación de la Sociedad y de las sociedades integradas en el grupo cuya entidad dominante es, en el sentido establecido por la ley, la Sociedad (el “Grupo”).
Con arreglo a lo dispuesto en los Estatutos Sociales de la Sociedad y como parte de su compromiso con el dividendo social, la estrategia de innovación y de transformación digital del Grupo debe orientarse a la creación de valor sostenible, de conformidad con el Propósito y Valores del Grupo Iberdrola y con los compromisos asumidos en el Código ético.
Consciente de la relevancia de la inteligencia artificial y de los algoritmos en el desarrollo e implementación de dicha estrategia, y de la importancia de garantizar su uso responsable, acorde con el ideario corporativo de la Sociedad y los principios que informan su cultura corporativa, basada en la ética y en el compromiso con el desarrollo sostenible, el Consejo de Administración aprueba esta Política de uso responsable de herramientas de inteligencia artificial y de algoritmos (la “Política”), alineada con la Recomendación del Consejo de la OCDE sobre Inteligencia Artificial.
1. Finalidad
La finalidad de esta Política es establecer los principios y pautas comunes y generales de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial y de los algoritmos, garantizando, en todo caso, el cumplimiento de la legislación aplicable, el Propósito y Valores del Grupo Iberdrola, el Código ético y las demás normas que forman parte del Sistema de gobernanza y sostenibilidad.
En este sentido, esta Política establece las herramientas y las pautas para garantizar una utilización responsable, transparente, segura y fiable de los sistemas de inteligencia artificial y de los algoritmos por la Sociedad.
2. Ámbito de aplicación
Esta Política es de aplicación en todas las sociedades que integran el Grupo, así como en las sociedades participadas no integradas en el Grupo sobre las que la Sociedad tiene un control efectivo, dentro de los límites legalmente establecidos.
Sin perjuicio de lo dispuesto en el párrafo anterior, las sociedades subholding cotizadas y sus filiales, al amparo de su propio marco especial de autonomía reforzada, podrán establecer una política equivalente, que deberá ser conforme con los principios recogidos en esta Política y en las demás políticas medioambientales, sociales y de gobierno corporativo y cumplimiento normativo del Sistema de gobernanza y sostenibilidad.
En aquellas sociedades participadas en las que esta Política no sea de aplicación, la Sociedad promoverá, a través de sus representantes en sus órganos de administración, el alineamiento de sus políticas propias con las de la Sociedad.
Además, esta Política es también aplicable, en lo que proceda, a las joint ventures, uniones temporales de empresas y otras asociaciones equivalentes, cuando la Sociedad asuma su gestión.
Finalmente, los principios establecidos en esta Política, serán de aplicación, también, a los proveedores que desarrollen herramientas de inteligencia artificial para la Sociedad o las entidades sujetas a esta Política, en lo que proceda.
3. Principios básicos generales de uso responsable de herramientas de inteligencia artificial y de algoritmos
Los principios y pautas comunes y generales de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial y de los algoritmos para lograr la finalidad de esta Política son los que se detallan a continuación:
a) Principio de tangibilidad
Las herramientas que utilicen la inteligencia artificial o los algoritmos deberán estar al servicio de las personas, generando beneficios tangibles para la Sociedad y sus Grupos de interés y, en particular, se procurará que su desarrollo contribuya al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS) aprobados por la Organización de las Naciones Unidas (ONU).
b) Principio de respeto de los derechos humanos, del Propósito y Valores del Grupo Iberdrola y del Código ético
La Sociedad velará por asegurar el uso responsable de la inteligencia artificial y de los algoritmos, en cumplimiento del compromiso de la Sociedad con los derechos humanos y con los principios que informan el Propósito y Valores del Grupo Iberdrola y el Código ético, facilitando en sus diseños la posibilidad de intervención humana cuando sea necesario para asegurar el cumplimiento efectivo de dicho compromiso y de los principios recogidos en esta Política.
c) Principio de equidad
La Sociedad procurará que las herramientas de inteligencia artificial y los algoritmos que emplee en el desarrollo de sus actividades impulsen y promuevan el cumplimiento de los principios de igualdad de oportunidades, diversidad, promoción de la inclusión y sostenibilidad que presiden el Propósito y Valores del Grupo Iberdrola y el Código ético, procurando evitar sesgos e impactos injustificadamente discriminatorios (por razón de raza, origen étnico, religión, sexo, orientación sexual, discapacidad o cualquier otra condición de las personas) en su diseño, desarrollo o aplicación.
d) Principio de "cultura innovadora"
Con el objeto de disminuir el pensamiento de grupo y mitigar los sesgos inconscientes y las creencias limitantes, la Sociedad velará por que el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial y de los algoritmos estén alineados con la estrategia de innovación del Grupo, que persigue mantenerlo en la vanguardia de las nuevas tecnologías y los modelos de negocio disruptivos, fomentando una “cultura innovadora” que impregne toda la organización y promueva ambientes de trabajo motivadores que favorezcan y premien la generación de ideas y de prácticas innovadoras.
e) Principio de trazabilidad y de verificabilidad
La Sociedad procurará que los procesos automatizados en los que se emplee inteligencia artificial y/o algoritmos no contengan limitaciones de transparencia y/o trazabilidad que impidan su verificación objetiva mediante procesos de auditoría.
f) Principio de transparencia
Cuando sea necesario o aconsejable la Sociedad dará a conocer a los usuarios la categoría de los datos personales que, en su caso, utilice en sus herramientas de inteligencia artificial y en sus algoritmos, así como la finalidad o finalidades del tratamiento de los datos personales que traigan causa de su utilización, conforme a lo establecido en la legislación sobre protección de datos personales aplicable en cada caso.
g) Principio de privacidad
La Sociedad garantizará que las herramientas de inteligencia artificial y los algoritmos que utilice en el ejercicio de su actividad respeten lo establecido en la legislación sobre protección de datos personales aplicable en cada caso y los principios recogidos en la Política de protección de datos personales.
h) Principio de seguridad
La Sociedad dispondrá de sistemas y mecanismos de seguridad física y lógica para proteger sus sistemas de inteligencia artificial y sus algoritmos contra cualquier alteración, uso indebido o acceso no autorizado y garantizar la integridad de los datos almacenados o transmitidos a través de ellos.
i) Principio de autorregulación
La Sociedad adoptará medidas que permitan la autorregulación del uso responsable de las herramientas de inteligencia artificial y de los algoritmos. Entre ellas, proporcionará a los profesionales que hagan uso de estas herramientas, formación sobre la inteligencia artificial, su funcionamiento y las consecuencias que pueden derivarse de la utilización de algoritmos incompletos, sesgados o no transparentes y, en particular, sobre el impacto que puede tener en la Sociedad y en sus Grupos de interés.
4. Compromiso específico en los procesos automatizados en los que se emplee la inteligencia artificial y los algoritmos
La Sociedad procurará que los procesos automatizados en los que emplee la inteligencia artificial y los algoritmos respeten los principios básicos generales descritos en el apartado anterior, promuevan el cumplimiento de los principios que informan el Propósito y Valores del Grupo Iberdrola y el Código ético y, en particular, no adolezcan de sesgos que vulneren los principios de igualdad de oportunidades, diversidad y promoción de la inclusión, ni imposibiliten su verificación por limitaciones de transparencia y/o trazabilidad de los resultados.
5. Supervisión del uso responsable de las herramientas de inteligencia artificial y de algoritmos
La Sociedad dispondrá de mecanismos adecuados, razonables y eficaces para supervisar y controlar los datos que se utilicen para el desarrollo de las aplicaciones digitales y su diseño, así como el posible mal funcionamiento de las herramientas de inteligencia artificial y de los algoritmos.
La Dirección de Ciberseguridad de la Sociedad evaluará, al menos una vez al año, el cumplimiento de lo establecido en esta Política, y dará cuenta del resultado de su evaluación a la Comisión de Auditoría y Supervisión del Riesgo.
Esta Política fue aprobada inicialmente por el Consejo de Administración el 10 de mayo de 2022 y modificada por última vez el 20 de diciembre de 2022.