Principios en Inteligencia Artificial (Parte 1)

Michelle Díaz
AI Learners
Published in
11 min readJun 1, 2020

Este post es un resumen y análisis del reporte “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI” hecho por el centro de investigación Berkman Klein Center for Internet & Society de Harvard.

Desarrollar e implementar sistemas de Inteligencia Artificial (IA) ha tomado mayor fuerza durante los últimos 3 años en Latinoamérica. Considerando la escasez de programas académicos que ofrezcan las bases suficientes que se necesitan para poder concebir ciertos conceptos no sólo técnicos sino éticos de la Inteligencia Artificial, es fundamental analizar qué factores pueden afectar el desarrollo de estas tecnologías y qué guías, principios y/o normas— individualmente y en contexto — pueden ayudar a tener una buena implementación de la misma.

El Berkman Klein Center for Internet & Society nos comparte este informe con la premisa de que sea de utilidad para los formuladores y defensores de políticas, académicos y otros que trabajan en la primera línea para capturar los beneficios y reducir los daños de la tecnología de IA a medida que continúa desarrollándose y desplegándose en todo el mundo.

Este reporte examina el contenido de treinta y seis documentos destacados de principios de IA en el sector privado, gubernamental, organizaciones intergubernamentales, sociedad civil y otras partes interesadas (multistakeholders). Como presenta la siguiente imagen, los documentos examinados varían en su audiencia prevista, composición, alcance y profundidad:

A pesar del rango de variación en numerosos ejes, el estudio de principios de IA revela temas comunes entre los documentos examinados:

  • Privacidad
  • Responsabilidad
  • Seguridad y protección
  • Transparencia y explicabilidad
  • Justicia y no discriminación
  • Control humano de la tecnología
  • Responsabilidad profesional
  • Promoción de los valores humanos.

Los documentos más recientes estudiados en el reporte tienden a cubrir los ocho temas, lo que sugiere que la conversación sobre IA basada en principios está comenzando a converger.

Sin embargo, hay que tener en cuenta que los principios pueden variar en su contexto cultural, lingüístico, geográfico y organizacional, y algunos temas serán más relevantes para un contexto y audiencia particular que otros. Además, los principios son un punto de partida para la gobernanza, no un fin.

Es probable que su impacto dependa de cómo se integra en un ecosistema de gobernanza más amplio que incluye, por ejemplo, políticas relevantes (planes nacionales de IA), leyes, regulaciones, pero también prácticas y rutinas profesionales diarias.

En esta primer parte vamos a analizar los 3 primeros principios, explicaremos a qué nos referimos con Privacidad y Responsabilidad y qué acciones se tienen que seguir para lograr un Sistema de Inteligencia Artificial con principios fundamentales.

Para poder explicar cada tema con sus respectivos principios, antes analicemos el siguiente diagrama…

¿Cómo leer el diagrama?

Dentro de la rueda hay nueve anillos, que representan los ocho temas y la medida en que cada documento hace referencia a los derechos humanos. En los anillos temáticos, el punto en la intersección con cada radio indica el porcentaje de principios incluidos en el tema que aborda el documento: cuanto más grande es el punto, más amplia es la cobertura.

En el anillo de los derechos humanos, un diamante indica que el documento hace referencia a los derechos humanos o instrumentos internacionales relacionados, y una estrella indica que el documento utiliza el derecho internacional de los derechos humanos como marco general.

Imagen por el Berkman Klein Center
Diseñado por Berkman Klein Center (Arushi Singh and Melissa Axelrod)

Definiciones

¿Qué es la Inteligencia Artificial?

La definición de Inteligencia Artificial ha sido ampliamente debatida a lo largo de los años, en parte porque la definición cambia a medida que avanza la tecnología.

El Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea ofrece un buen lugar para comenzar:

“Los sistemas de Inteligencia Artificial son sistemas de software (y posiblemente también de hardware) diseñados por humanos que, con un objetivo complejo, actúan en la dimensión física o digital al percibir su entorno a través de la adquisición de datos, interpretar los datos estructurados o no estructurados recopilados, razonamiento sobre el conocimiento, o el procesamiento de la información, derivada de estos datos y decidir las mejores acciones a tomar para lograr el objetivo dado. Los sistemas de inteligencia artificial pueden usar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento al analizar cómo el medio ambiente se ve afectado por sus acciones anteriores “.

¿Qué son los principios?

Los principios son declaraciones normativas (en el sentido en que los abogados usan este término) acerca de cómo la IA generalmente debe desarrollarse, desplegarse y gobernarse.

Hablemos de estos principios:

PRIVACIDAD

Los principios de este tema representan la idea de que los sistemas de IA deben respetar la privacidad de las personas, tanto en el uso de datos para el desarrollo de sistemas tecnológicos como al proporcionar a las personas afectadas un organismo que intervenga sobre sus datos y las decisiones tomadas con ellos.

Imagen por el Berkman Klein Center, traducida al español por AI Learners

La privacidad no es sólo que nuestros datos sean privados a terceros, sino también que se pueda tener el control sobre ellos.

Que se informe sobre qué riesgos, beneficios y alternativas tiene alguien respecto a la manipulación de los datos, ya sea para tomar decisiones como consentir el uso de ellos, restringir o limitar su procesamiento y/o manipulación, hasta tener el derecho de rectificar y borrarlos.

Pocas organizaciones que están implementando sistemas de IA siguen estos principios. El indicador más claro es que de los documentos analizados sólo el 17% contempla la “Privacidad por Diseño”, también conocido como “Protección de Datos por Diseño” el cual se refiere a la obligación que tienen los desarrolladores y operadores de IA de implementar medidas técnicas y organizativas apropiadas en la construcción de un sistema de inteligencia artificial durante la etapa de diseño e implementación del procesamiento de datos y su ciclo de vida general de estos para proteger los derechos de los interesados.

Al final del día, todas las partes implicadas son responsables de cumplir con este tema, desde desarrolladores hasta tomadores de decisiones y cualquier otro agente en la participación de la creación de los sistemas de IA.

RESPONSABILIDAD

Las tecnologías emergentes de IA pueden colocar mayor distancia entre el resultado de una acción y el actor que la causó, lo que plantea preguntas sobre quién debe ser considerado responsable y bajo qué circunstancias.

A primera vista, el término “Inteligencia Artificial” sugiere una equivalencia con la inteligencia humana. No obstante, las preocupaciones sobre quién será responsable de las decisiones que ya no son tomadas por los humanos sino por sistemas de IA, así como el impacto de esta tecnología en el mundo natural y social son todavía objeto de debate.

A medida que la Inteligencia Artificial se implementa en contextos cada vez más críticos, sus decisiones tendrán consecuencias serias, por ello, las alternativas para remediar todo tipo de situaciones causadas por estas tecnologías deben estar disponibles tal como lo están para las consecuencias de las acciones humanas.

Imagen por el Berkman Klein Center, traducida al español por AI Learners

Algunos documentos sugieren que un sistema de IA sólo debe usarse después de evaluar su “propósito y objetivos, así como sus beneficios y sus riesgos”.

Desarrollar un Sistema de IA desde un enfoque responsable implica proporcionar detalles suficientes sobre el modo en el que opera y que esto pueda ser validado, permitir la posibilidad de que una persona que es objeto de una decisión tomada por una IA pueda impugnar esa decisión y garantizar que las personas o entidades culpables de los daños causados ​​por un sistema de IA puedan rendir cuentas.

Pensemos en diferentes situaciones que puedan presentar conflicto de responsabilidad:

En el caso de un auto o un avión autónomo que usa IA

Si el sistema de automatización del automóvil o el piloto automático del avión causan un accidente, ¿quién es el responsable?

¿Los desarrolladores del software?, ¿la compañía que produjo el automóvil o avión?, ¿el conductor o piloto?, ¿el usuario?, ¿el peatón?, ¿el regulador? (organismo que otorgó el permiso para poder operar).

En el caso de detección de enfermedades y diagnóstico automatizado

Si el sistema de detección de enfermedades le da un diagnóstico erróneo al paciente, ¿quién es el responsable?

¿Los desarrolladores de software?, ¿el doctor que ayudó a diseñar el sistema de detección?, ¿la compañía que fabricó el dispositivo para facilitar la detección? ¿el paciente?, ¿el sistema de salud que permitió su implementación?

“Los efectos de las decisiones o acciones basadas en la Inteligencia Artificial a menudo son el resultado de innumerables interacciones entre muchos actores, incluidos diseñadores, desarrolladores, usuarios, software y hardware … Con un organismo mediador distribuido viene la responsabilidad distribuida” (Taddeo y Floridi 2018, 751).

Por ejemplo, el COVID-19 vino a mostrarnos la importancia de saber estadística básica para poder interpretar los datos que este virus nos proveía a medida que se iba propagando por el mundo.

Como podía esperarse, muchos entusiastas de Machine Learning y Ciencia de Datos empezaban a compartir modelos predictivos sobre el progreso de la pandemia e incluso modelos para detectar si una persona tiene COVID-19.

Esto nos plantea diferentes problemáticas:

Imaginemos que se utiliza un sistema de IA para determinar si una persona tiene alto riesgo de tener COVID-19. En ese caso, un falso negativo, es decir, el sistema determina que NO tiene COVID-19 cuando en realidad SI lo tiene, podría tener potenciales implicaciones como incremento en los contagios, reportes erróneos, proyecciones no fiables y mayor número de muertes.

En este caso, ¿quién es el responsable?
¿Los desarrolladores de software?, ¿los facilitadores de conjuntos de datos?, ¿el organismo que usa el software?

Como podemos ver, son repercusiones serias las que se generan si no se tiene responsabilidad en los sistemas de IA. Por ello, es vital entender, afinar y validar los modelos de IA periódicamente para atender los cambios en los datos y/o modelos a lo largo del tiempo.

Un tema que casi no se considera en los documentos estudiados es el de Responsabilidad Ambiental que corresponde a un 17% de estos. Por ejemplo, ¿sabías que entrenar un sólo modelo de IA puede tener una huella de carbono equivalente a cinco autos en sus vidas?

La responsabilidad incita a reconocer que la IA, como parte de nuestro futuro humano, necesariamente interactuará con las preocupaciones ambientales y sociales, y que aquellos que construyen e implementan IA deben ser responsables de sus impactos ecológicos.

En términos generales, lo que podemos resaltar de estos principios en el tema de responsabilidad es que incentivan a garantizar que los sistemas de IA “no infrinjan los derechos humanos, las libertades, la dignidad y la privacidad”.

Para ser responsable de algo, el agente necesita saber qué está haciendo; para saber lo que el agente está haciendo, quien crea el agente necesita saber qué está haciendo.

SEGURIDAD Y PROTECCIÓN

El principio de protección generalmente se refiere al funcionamiento interno adecuado de un sistema de IA y a evitar daños no deseados. Por el contrario, la seguridad aborda las amenazas externas a un sistema de IA. No obstante, ambos están estrechamente entrelazados.

Imagen por el Berkman Klein Center, traducida al español por AI Learners

El principio de protección requiere que un sistema de IA sea confiable y que “el sistema haga lo que se supone que debe hacer sin dañar a los seres vivos o su ambiente a lo largo de su vida útil operativa”.

Construir sistemas de manera segura significa evitar “riesgos de daños” mediante la evaluación de riesgos de seguridad, incluidas posibles violaciones de los derechos humanos.

Los procedimientos de prueba no sólo deben aplicarse a escenarios probables, sino que también establecen que un sistema “responde con seguridad a situaciones imprevistas y no evoluciona de manera inesperada”.

El principio de seguridad se refiere a la capacidad de un sistema de IA para resistir amenazas externas. Por ejemplo, los Principios de Política de IA del ITI sugieren que la seguridad de los datos podría lograrse mediante el anonimato, la desidentificación o la agregación, y exhortan a los gobiernos a “evitar exigir a las compañías que transfieran o proporcionen acceso a tecnología, código fuente, algoritmos o claves de cifrado como condiciones para hacer negocios” .

El principio de seguridad por diseño, como su nombre lo indica, está relacionado con el desarrollo de sistemas de IA seguros. Esto significa contemplar un esfuerzo grande desde las etapas tempranas del desarrollo de sistemas de AI, así como el diseño de un plan alternativo en el que, en caso de un problema, un sistema cambiaría su protocolo de toma de decisiones “estadística a base de reglas” o requeriría la intervención de un humano antes de continuar.

Por ejemplo, en México hay un gran ecosistema de empresas que se dedican al desarrollo de agentes conversacionales o “chatbots” que ofrecen servicios a terceros. Por experiencia, he identificado que los clientes únicamente se preocupan por la experiencia de enganche en los usuarios y dejan de lado el tratamiento de los datos, olvidando que la protección a los datos sensibles de los usuarios es parte fundamental para una buena experiencia de usuario.

En el caso de predictibilidad, para que un sistema sea predecible, el resultado del proceso de planificación debe ser coherente con la entrada.

Como lo expresa la estrategia alemana de IA, los sistemas de IA “transparentes, predecibles y verificables” pueden “prevenir efectivamente la distorsión, la discriminación, la manipulación y otras formas de uso indebido”.

Conclusión de la primera parte del resumen y análisis

En esta primera parte abarcamos 3 de los 8 principios que abordan los 36 documentos de estudio por el Berkman Klein Center. Con esto podemos resaltar algunos puntos importantes:

  • Es importante poder asignar responsabilidad cuando algo sale mal con la IA
  • Los desarrolladores de sistemas de IA no siempre pueden predecir con precisión los riesgos que se puedan presentar, pero si pueden crear planes alternativos en caso de alguna contingencia
  • Es importante delimitar de forma clara y responsable posibles fallas entre desarrolladores, fabricantes de productos, proveedores de servicios y usuarios finales
  • La predictibilidad generalmente nos es útil como mecanismo clave para garantizar que los sistemas de IA no hayan sido comprometidos por actores externos
  • Es necesario probar la resistencia de los sistemas de IA; para compartir información sobre vulnerabilidades y ataques cibernéticos; y para proteger la privacidad y “la integridad y confidencialidad de los datos personales”
  • Las pruebas y el monitoreo de los sistemas de IA deben continuar después del despliegue, teniendo en cuenta que es probable que el sistema evolucione después de la implementación a medida que continúa recibiendo información

¿Tú qué opinas?

¿Cómo se puede garantizar que la Inteligencia Artificial se use y desarrolle de manera que cumpla con los 3 principios analizados aquí (privacidad, responsabilidad, seguridad y protección)?

Nos vemos en la segunda parte de este resumen y análisis del reporte ✌️

--

--

Michelle Díaz
AI Learners

I am a different person everyday, so why describe myself if I am constantly changing?