La ética en las estrategias nacionales de inteligencia artificial de los países de nuestro entorno

OdiseIA
OdiseIA
Published in
14 min readJan 14, 2021

Este análisis comparativo de las estrategias nacionales de IA de Alemania, Francia e Italia, junto con la estrategia nacional de datos de Reino Unido, pondera las principales cuestiones abordadas por cada uno de estos países en materia de ética, de cara a facilitar su contraste con estos mismos aspectos en la estrategia nacional de inteligencia artificial de España (ENIA).

Photo by Guillaume Périgois on Unsplash

INTRODUCCIÓN

En su comunicación de abril de 2018-Inteligencia Artificial para Europa- la Comisión Europea reconocía que Europa se encuentra muy rezagada respecto a Asia y Norteamérica en términos de inversión privada e implementación de soluciones en el ámbito de la IA. Dicha comunicación apuntaba que Europa, apalancándose sobre fortalezas como la excelencia académica y el vigor de su industria, debe mejorar su posición en este ámbito y garantizar de paso su soberanía digital. En este sentido en diciembre de ese mismo año se publicó un Plan Coordinado de IA para la UE que apuntaba la necesidad de establecer objetivos técnicos y económicos, pero que hace énfasis también en que estos objetivos no han de estar reñidos con mantener los derechos ciudadanos en el centro, diseñando y desarrollando soluciones basadas en IA que extiendan el progreso y al mismo tiempo minimicen potenciales riesgos para sus usuarios. En concreto, dicho plan se articulaba en torno a los siguientes ejes:

  • Mantener la excelencia en materia de investigación, y tratar de cerrar la brecha entre el ámbito académico y la empresa, reforzando instrumentos de colaboración público-privada que faciliten la transferencia de conocimiento y el desarrollo de la investigación aplicada.
  • Consolidar el mercado único de datos (tanto privados como públicos), pues estos suponen la materia prima con la que se entrenan y operan las soluciones basadas en IA.
  • Desarrollar guías éticas con perspectiva global y que garanticen además un marco jurídico favorable a la innovación.

Los Estados miembro de la UE adquirieron el compromiso en desarrollar sus propias estrategias nacionales -de hecho algunos de ellos habían publicado ya las suyas en esa fecha- y, una vez llegados a enero de 2021, podemos abordar este somero análisis comparativo centrado ante todo en los aspectos éticos en el desarrollo de la IA, con el objetivo de poder contrastarlos con el reflejo que dichos aspectos han tenido en la ENIA española.

ALEMANIA

La Estrategia de IA de Alemania se aprobó en noviembre de 2018. Destina 3.000M€ para el periodo T1 de 2019-T4 de 2025 (unos 500M€/año).

Se estructura en tres grandes bloques:

  1. Objetivos
  2. Diagnóstico de la situación actual
  3. Campos de acción (12)

Es en el punto 3.9.-Adaptación del marco regulatorio, donde indica lo siguiente:

“El Gobierno Federal propugna la utilización de un enfoque de ‘ética por, en y para el diseño’ en todas las etapas de desarrollo y el uso de la IA como elemento clave y distintivo de una estrategia de “IA hecha en Europa”. Esto incluye la realización de investigaciones sobre la IA, su desarrollo y producción, así como el despliegue, la gestión, la vigilancia y la gobernanza de las aplicaciones basadas en la IA.”

Pero, a continuación, reconoce que:

“Nuestro marco regulatorio actual ya proporciona una base sólida y normas elevadas para ello. El Gobierno Federal examinará si nuestro marco jurídico abarca todos los aspectos relacionados con las decisiones, los servicios y los productos basados en algoritmos y en la inteligencia artificial y, de ser necesario, lo adaptará para que sea posible verificar si existe alguna discriminación o sesgo indebido.

No obstante, señala:

“El Gobierno Federal evaluará la forma en que los sistemas de IA pueden hacerse transparentes, previsibles y verificables para prevenir eficazmente la distorsión, la discriminación, la manipulación y otras formas de uso indebido, en particular cuando se trate de utilizar pronósticos basados en algoritmos y aplicaciones para la adopción de decisiones.”

Como instrumento para esta verificación avanza:

“El Gobierno Federal examina la posibilidad de establecer y/o ampliar los organismos gubernamentales o las instituciones de auditoría del sector privado que verifican la toma de decisiones algorítmicas a fin de prevenir el uso indebido, la discriminación y los efectos negativos en la sociedad. Para ello, se introducirán normas de auditoría y se elaborarán normas de evaluación de los efectos. Debería ser posible exigir a las empresas que revelen todos los elementos del proceso de IA / toma de decisiones algorítmicas (ADM) a los órganos de vigilancia sin que estas empresas tengan que revelar ningún secreto comercial.”

Por otro lado, hace referencia a la educación digital como clave para aprovechar todas las oportunidades y evitar la exclusión (como usuarios, pero también en el plano laboral):

“También nos aseguraremos de que todos los sectores de la población tengan un nivel justificado de confianza en los productos y servicios basados en la inteligencia artificial, las aptitudes para utilizarlos y la posibilidad de utilizarlos de manera que se garantice la seguridad jurídica.”

Por último, dedica un apartado muy interesante -3.10- a la fijación de estándares, en el que reconoce que el sector privado ha de adoptar un rol preeminente:

“Los estándares ayudan a que las aplicaciones sean más fáciles de usar, proporcionan un alto nivel de calidad y seguridad de los productos y garantizan la comparabilidad e interoperabilidad. Por consiguiente, son la base de la confianza pública en los sistemas y procesos técnicos. Los estándares también contribuyen a garantizar un marco normativo adecuado y flexible. El Gobierno Federal considera que es su deber establecer el marco normativo nacional para las empresas y, por lo tanto, abogar por el desarrollo de normas a nivel nacional, europeo e internacional por parte de las organizaciones nacionales de normalización (DIN /DKE). Sin embargo, la elaboración de estándares depende principalmente del sector privado, no del Estado. Por lo tanto, los representantes de las empresas deben adoptar un papel más activo dentro de los organismos de normalización. Entre las cuestiones importantes figuran, en particular, la normalización de la terminología y las clasificaciones de la IA (grados de automatización, capacidad de autoaprendizaje, riesgos relacionados con la IA) y las normas éticas (‘ética por diseño’)”

La importancia del sector automovilístico alemán atrae la atención del gobierno sobre los dilemas que pueda plantear el desarrollo de los vehículos autónomos:

“El Gobierno Federal prestará especial atención a los aspectos éticos, en particular en la normalización de la tecnología de la IA que se utilizará en la maquinaria y los vehículos autónomos (‘ética por diseño’).

FRANCIA

La Estrategia de IA de Francia se publicó en marzo de 2018. Destina 1.500M€ para el periodo T2 de 2018-T4 de 2022 (unos 400M€/año).

Se estructura en 6 bloques:

  1. Construcción de una política económica centrada en los datos (focalizada en cuatro ámbitos estratégicos prioritarios para Francia: la salud, el transporte, el medio ambiente, y la seguridad y defensa)
  2. Promoción de la investigación y retención de talento
  3. Evaluación de los efectos de la IA y la automatización de procesos en el futuro del trabajo, y exploración de respuestas políticas adecuadas
  4. La inteligencia artificial al servicio de una economía más ecológica
  5. Consideraciones éticas de la IA
  6. IA inclusiva y diversa

Sintetizando lo que se apunta en el bloque 5: señala muy acertadamente que la ética ocupa el espacio entre lo que hoy en día es posible gracias a la IA y lo que permite la ley, con el fin de discutir lo que es apropiado. Respecto a la suficiencia del marco legal actual apunta: “parece que la legislación actual, que se centra en la protección del individuo, no es coherente con la lógica introducida por estos sistemas -es decir, el análisis de una cantidad considerable de información con el fin de identificar tendencias y comportamientos ocultos- y su efecto sobre los grupos de individuos. Para colmar esta brecha, es necesario crear derechos colectivos en relación con los datos (…) sería prudente crear un foro social de discusión genuinamente diverso e inclusivo, que nos permita determinar democráticamente qué formas de IA son apropiadas para nuestra sociedad”

Lo anterior sirve de preámbulo a las siguientes recomendaciones:

A) Abrir las cajas negras

  • Transparencia y explicabilidad algorítmica: “la responsabilidad y rendición de cuentas de esta tecnología es una de las condiciones para su aceptación social. En cuanto a ciertas cuestiones, es incluso una cuestión de principios: como sociedad, no podemos permitir que ciertas decisiones importantes se tomen sin explicación”
  • Equidad (lucha contra los sesgos y la discriminación): “El cumplimiento de estos requisitos requiere la elaboración de procedimientos, herramientas y métodos que nos permitan auditar estos sistemas para evaluar su conformidad con nuestros marcos jurídicos y éticos. Esto también es vital en caso de litigios entre diferentes partes que se oponen a las decisiones tomadas por los sistemas de IA.
  • Auditoría de la IA: ”creación de un grupo de expertos públicos certificados que puedan realizar auditorías de algoritmos y bases de datos y llevar a cabo pruebas utilizando cualquier método que se requiera”. Este grupo podría intervenir como perito judicial, o ser convocado por el defensor del pueblo en procesos y demandas que así lo reclamen.

B) Aplicar la ética desde la etapa de diseño

  • Inclusión de la ética como materia en la formación de los desarrolladores de IA (ingenieros, científicos de datos, gestores de proyectos, etc.)
  • Definición y aplicación de una Discrimination Impact Assessment: una valoración análoga a la Privacy Impact Assessment contemplada por la GDPR en materia de privacidad, pero centrada en valorar el riesgo de discriminación.

C) Considerar los derechos colectivos sobre los datos y sus aplicaciones

  • Más allá de GDPR: control de las aplicaciones y generalizaciones basadas en datos no personales

D) Mantener a los humanos al control de la IA

  • Énfasis en las aplicaciones bélicas y de seguridad: “hay problemas en llegar a un acuerdo internacional sobre un tema militar tan delicado como estratégico, la discusión se ha complicado por la cuestión de la definición de los límites de las armas autónomas, sobre todo porque hasta ahora estos sistemas militares no se han aplicado realmente… al menos no oficialmente. (…) Francia acepta que la humanidad es la responsable última del uso de la fuerza letal (…) y nuestro país debe seguir desempeñando un papel importante en la definición de las normas y guías de buenas prácticas que deben establecerse a nivel internacional.”. En concreto se propone el establecimiento de un observatorio para la no proliferación de armas autónomas.

E) Gobernanza específica de la ética en la inteligencia artificial

  • Creación de un comité asesor nacional de ética para la tecnología digital y la inteligencia artificial, dentro de un marco institucional abierto a la sociedad. Este organismo se encargaría de dirigir el debate público de manera transparente, y debería trabajar junto con comités sectoriales.

Respecto al último de los bloques, 6.-IA inclusiva y diversa:

  • Educación: se hace énfasis en cerrar la brecha de género en las carreras STEM, fijándose el objetivo de alcanzar al menos el 40% de estudiantes femeninas en 2025 mediante acciones como programas de mentorización que estimulen las vocaciones de las estudiantes de educación secundaria.
  • Mercado laboral: creación de una base de datos que cuantifique las brechas de género en términos de presencia en los distintos niveles corporativos y de salario. El proveer esta información podría hacerse obligatorio, aunque su publicación se haría sin identificar a las empresas. Se fomentarán también herramientas de transparencia en los procesos de reclutamiento.
  • Desarrollo de la mediación digital y fomento de la innovación social: punto centrado en la modernización de las AAPP y el desarrollo de sistemas de IA de ayuda al afrontar trámites administrativos, formación del funcionariado, automatización de procesos (asegurando la transparencia y considerando la mitigación de riesgos de discriminación). Impulso al desarrollo de robots asistenciales para personas dependientes.

ITALIA

La Estrategia de IA de Italia vio la luz en agosto de 2019. Apunta a una inversión de 1.000M€ para el periodo T4 de 2019-T4 de 2025 (unos 190M€/año).

Se articula en los siguientes 9 puntos:

  1. Aumentar la inversión, pública y privada, en la IA y tecnologías relacionadas
  2. Fortalecer el ecosistema de investigación e innovación de la IA
  3. Apoyar la adopción de tecnologías digitales basadas en la IA
  4. Fortalecer la oferta educativa a todos los niveles para llevar la IA al mercado laboral
  5. Aprovechar el potencial de la economía de datos, un verdadero combustible para la IA
  6. Consolidar el marco normativo y ético que rige el desarrollo de la IA
  7. Promover el conocimiento y la confianza en la IA entre los ciudadanos
  8. Revitalizar la administración pública y hacer más eficientes las políticas públicas
  9. Fomentar la cooperación europea e internacional para una IA responsable e inclusiva

En su desarrollo es el más escueto de todos los documentos analizados. Yendo directamente al punto 6 podemos destacar: “El Gobierno está interesado en experimentar con formas flexibles de regulación y está considerando la posibilidad de aplicar formas de corregulación, como los sandbox regulatorios para la experimentación en la esfera de la conducción autónoma (…) Desde el punto de vista ético, el Gobierno tiene la firme intención de impedir toda forma de IA que pueda exacerbar las desigualdades sociales y ser perjudicial para las categorías más desfavorecidas: a este respecto, se contempla la posibilidad de codificar, promover y supervisar nuevas formas de certificación que permitan verificar la plena adecuación de los sistemas de IA a los principios de equidad y justicia sancionados por las Directrices europeas sobre la IA ética. El Gobierno también se compromete a contribuir proactivamente a la actual fase piloto de experimentación de las Directrices Éticas Europeas, fomentando la participación de las grandes empresas, las PYME, las administraciones públicas y las asociaciones nacionales de la sociedad civil.”

REINO UNIDO

Gran Bretaña no ha publicado una estrategia nacional de IA bajo ese nombre, ni está obligada ya a este compromiso recogido en el Plan Coordinado de IA para la UE de 2018, a raíz de su salida de la Unión Europea. Sin embargo sí cuenta con la Estrategia de datos de Reino Unido -publicada en septiembre 2020 y actualmente en fase de consulta pública- que cubre muchos aspectos relacionados con la IA; esta estrategia no se acompaña de una cuantificación presupuestaria, aunque otro documento relevante es la AI Sector Deal de 2018, en el que se citan 950M£ (sin especificar período del gasto).

El primero de los documentos se sintetiza en este esquema:

Fuente: National Data Strategy of the United Kingdom

Las cuestiones de control de riesgos y ética están embebidas en el 4º pilar, Responsabilidad:

A) Privacidad: aunque GDPR ya no aplique a partir del Brexit, seguirá vigente la Data Protection Act de 2018, que básicamente es una decantación de GDPR (en tanto no se apruebe una nueva reglamentación)

B) Equidad y transparencia: citadas en el punto 7.1.2: “El uso de algoritmos tiene el potencial de mejorar la calidad y la velocidad de la toma de decisiones, pero también existen riesgos de sesgos introducidos por el ser humano, resultados discriminatorios o aplicaciones inseguras, que deben ser mitigados si queremos aprovechar sus beneficios.”A efectos prácticos son destacables las siguientes medidas concretas:

Respecto a las segundas directrices mencionadas, AI Sector Deal, estas establecen dos organismos relevantes:

El citado Centro de Ética e Innovación de Datos colaborará estrechamente con estos dos nuevos organismos a la hora de definir estándares, guías y procedimientos en colaboración activa con el sector privado (sirva como ejemplo este análisis sobre sesgos y equidad recientemente publicado).

CONCLUSIÓN

Las estrategias nacionales analizadas son heterogéneas en cuanto a su alcance y nivel de concreción. El eje vertebrador es la apuesta por la consolidación de una red de centros de excelencia que impulsen la investigación en IA y la transferencia del conocimiento adquirido al sector productivo, con el afán de recuperar el espacio perdido frente a regiones competidoras. Cada país decanta posteriormente esta apuesta en los sectores más relevantes para su economía, y hace además énfasis en la digitalización de las administraciones públicas. Otro factor común -y el eje de esta comparativa- es que todas ellas destacan además la importancia de conseguir este impulso sin renunciar a las garantías básicas en materia de protección de los derechos humanos. Coinciden también entre ellas en la identificación de los objetivos a alcanzar en materia de ética:

  • Transparencia algorítmica
  • Equidad y no discriminación
  • Salvaguarda de la autonomía humana
  • Compensación de los impactos en el mercado laboral

Sin embargo, a mi juicio, adolecen de un diagnóstico formal que permita ponderar los riesgos referidos, y desarrollar criterios y medidas orientadas a salvaguardar los derechos mencionados de manera proporcional al riesgo de cada aplicación, aunque es cierto que se destacan aquellas aplicaciones con efectos sobre la vida y la muerte (armas y vehículos autónomos) como las de mayor impacto potencial. Probablemente no sea tampoco el objetivo de un documento de estrategia nacional bajar a ese detalle, sino señalar como directriz que debe ponerse foco en diagnosticar adecuadamente dichos riesgos antes de decidir si es preciso modificar el marco regulatorio y de diseñar medidas de mitigación. Un aspecto positivo es el reconocimiento de que dichos criterios, estándares y herramientas deberán definirse e implementarse de manera colaborativa entre todos los agentes: gobiernos, ciudadanos y empresas.

Comentando caso a caso cada estrategia, la de más alto nivel es sin duda la italiana, que en sus apenas 18 páginas no avanza novedades significativas respecto a lo ya dicho en el Plan Coordinado de IA de la UE. La estrategia francesa es la más extensa de todas: abunda en la reflexión pero parte a menudo de referencias y ejemplos foráneos, lo cual implica reconocer que muchos de los riesgos que se señalan como premisas de partida no han sido aún verificados con la experiencia en Francia. La alemana indica la necesidad de alcanzar un mayor consenso a través del debate entre agentes para no precipitarse en acciones regulatorias, pues prudentemente reconoce que es aún pronto para determinar la suficiencia o insuficiencia del marco legal actual (al igual que hace la española). La británica es a mi modo de ver la más pragmática, no en vano hablamos de uno de los países más avanzados en el uso de datos y desarrollo de IA, cuenta con un tejido empresarial dinámico en este ámbito, de la mano de universidades bien posicionadas en materia de ciencias de la computación. El gobierno de Reino Unido se ha centrado por el momento no tanto en regular sino en conformar organismos consultivos que desarrollen guías prácticas y herramientas para ponerlas en manos de las administraciones públicas y empresas. En un ámbito tan novedoso, parece la aproximación más sensata.

Comparando la ENIA con todas ellas, podemos afirmar que la estrategia española alcanza un mayor nivel de concreción que la italiana, francesa y británica, ante todo a través de las 30 medidas que acompañan a sus 6 ejes estratégicos. Respecto al sexto de estos ejes -establecer un marco ético y normativo que refuerce la protección de los derechos individuales y colectivos, a efectos de garantizar la inclusión y el bienestar social- es interesante que nuestro país quiera ser vocal en estas cuestiones, pero debería reconocerse con humildad que somos preeminentemente usuarios de soluciones desarrolladas en el extranjero, y que si queremos fomentar un cambio en este sentido no se deberían crear unas condiciones de desarrollo más exigentes que las que se concreten en los países de nuestro entorno, ni crear diferencias entre jurisdicciones dentro de la Unión Europea. Más que nuevas regulaciones sobre las ya existentes, sería interesante apostar por la autorregulación, habilitándola mediante el desarrollo conjunto de guías, herramientas y compilación de ejemplos de buenas prácticas, y con ayudas a su puesta en común, todo ello en un contexto de colaboración público privada. Sería un buen modo de conseguir mitigar los riesgos éticos identificados sin perjudicar la innovación algorítmica.

Juan Murillo forma parte del equipo de Estrategia de Datos de BBVA, donde articula iniciativas en torno a Datos e Inteligencia Artificial en la intersección de varios ámbitos: regulación digital, public affairs, posicionamiento estratégico y comunicaciones.

Es Ingeniero de Caminos, Canales y Puertos por la UPM y tiene un Executive MBA por la EOI. También cuenta con una amplia experiencia como urbanista y director de proyectos en innovación tecnológica e iniciativas de ciudades inteligentes. Ha formado parte de un grupo de expertos que la Comisión Europea seleccionó para fomentar las transferencias de datos entre empresas y gobiernos.

--

--

OdiseIA
OdiseIA
Editor for

Observatorio del impacto social y ético de la Inteligencia Artificial