Hackeando sesgos con inteligencia artificial

OdiseIA
OdiseIA
Published in
6 min readJul 2, 2020

Hablamos de cómo influyen los sesgos en la aplicación de algoritmos de inteligencia artificial, de cómo se producen y de cómo evitar o mitigar sus efectos.

Según el MIT Technology Review, hay tres momentos en los que se puede generar sesgo: cuando uno define el modelo para resolver un problema; cuando se produce la recolección de los datos; y cuando se preparan los datos en sí para dar un resultado final. Es un tema complicado de solucionar. Para Cristina Aranda, el primer paso para intentar prevenir este triple problema reside en las personas: en intentar buscar un equipo diverso, desde la edad, género, procedencia, orientación sexual, y capacidades físico-psíquicas. Una vez se tiene la formación en sensibilización para la diversidad, el segundo paso es el conjunto de herramientas, como el AI fairness, que permite analizar cuán sesgados están los datos.

Mónica Villas señala que la formación, dirigida también niños y niñas, es clave ya que estas mismas personas, en su temprana edad, poseen sesgos y que, el hecho de hacerles formación, les hace ser conscientes de sus propios sesgos. Incluir el humanismo en las tecnologías es un camino que allana y democratiza el uso de la inteligencia artificial, ya que permite entender el impacto de ésta en la sociedad. Esto es también esencial porque hasta ahora las humanidades y las ciencias se entendían como estancos separados. A esto añade Cristina Aranda que es importante conjugar estos dos campos para crear especialistas en asuntos tan concretos como tecnologías del habla o, como comenta Mónica Villas, para optimizar las actividades de ciertos sectores, como la abogacía mediante el procesamiento de lenguaje natural.

La inteligencia artificial no es una cuestión puramente técnica, sino también de las personas –tanto las que lo desarrollan como de quienes se benefician de los resultados de este sistema. Hackear sesgos también es integrar el pensamiento computacional en todas las etapas educativas –desde las más tempranas hasta las post-obligatorias-, con el fin de que el alumnado entienda que el componente lógico a la hora de operar es una habilidad que se debe pensar y usar de forma crítica. La diversidad y la inclusión que son necesarias para crear mejores productos de inteligencia artificial, sino para hacer que esos productos sean más justos socialmente. Mónica Villas menciona que las mujeres están infrarrepresentadas y esto puede deberse al camino inicial: el de las primeras fases de la educación en la escuela. Es por ello que es importante que la tecnología se enseñe de una forma divertida y ágil.

¿CÓMO INFLUYE EL SER HUMANO AL CREAR UN ALGORITMO?

Mónica Villas apunta que la inteligencia artificial, sobre todo el aprendizaje automático, se basa en datos. Los sesgos pueden estar al principio, durante el proceso, o en el resultado final. El problema radica en que las consideraciones humanas –qué es mejor, qué es adecuado- varían, y esto afecta en la inserción de datos en el proceso inicial de creación, ya que viene acompañado de toda una serie de sesgos socioculturales y de trayectorias de vida distintas.

Tal y como Cristina Aranda indica, se calcula que el 80% de los datos son desestructurados, que van desde e-mails hasta llamadas de call centers. Ese 80% de datos son de naturaleza lingüística. Las personas tenemos sesgos, que son aquellos juicios de valor irracionales que no sabemos justificar por los que nos basamos a la hora de tomar decisiones. Si nos basamos en toda esa documentación, los equipos de IA deben trabajar con bases masivas de datos –Big Data- que contienen, bien datos históricos, bien datos acumulados instantáneamente de sectores como el energético. En datos, tener en cuenta el contenido de los datos es tan importante como la fuente o la calidad de los mismos. La inteligencia artificial se ha convertido en un activo estratégico.

¿DÓNDE ES MÁS FÁCIL REDUCIR LOS SESGOS: EN LAS MÁQUINAS O EN LAS PERSONAS?

Cristina Aranda señala que es una pregunta difícil de responder porque es complicado ser capaz de despegarse de los sesgos que una persona en sí misma tiene. Nuestro aparato cognitivo emite juicios de valor de los que es complejo desarraigarse porque están lexicadizados e interiorizados de forma importante. Exige por parte de las personas una continua revisión. El Data Ethics Canvas, de Open Data Institute, que guía a las personas a tomar en cuenta las diferentes áreas éticas de gobernanza del dato, sus impactos sociales y posibles recomendaciones.

Mónica Villas considera que es mucho más complicado resolver esta cuestión en las personas. Las máquinas pueden ser adaptadas para reducir los sesgos, sólo si las personas previamente identifican y reducen estos juicios. En 2015, Google identificó el algoritmo que detectaba a una pareja afroamericana con gorilas. Hace un año, IBM anunciaba un conjunto de datos de 1 millón de caras diversas para hacer un reconocimiento facial más preciso y sin sesgos. Recientemente, IBM ha declarado que va a dejar de desarrollar sistemas de reconocimiento facial para la policía, porque se necesita un diálogo nacional –e internacional. Esta noticia es importante porque, pese a todo, reconoce al mismo tiempo que es difícil saber si ese millón de caras no contiene un sesgo. Las empresas deben tener un Código Ético. En el caso de IBM, existen tres principios éticos: la IA debe ser aumentada –no se trata de quitarle el puesto a nadie, sino de optimizar el trabajo humano mediante máquinas-; los datos son de sus creadores -el Reglamento General de Protección de Datos de la Unión Europea ha resuelto este tema que había suscitado polémica-; y hay que ser capaces de explicar cómo funcionan los datos –para ofrecer mejor transparencia sobre asuntos, como la denegación de hipotecas por el resultado algorítmico que se ha utilizado.

La Estrategia Española de I+D+i de inteligencia artificial prioriza en su Punto 6 la inclusión de ética en el código. Como menciona Cristina Aranda, evitar sesgos no consiste solamente en dar una definición apropiada, sino en construirla con una ronda previa de debates y negociaciones entre todos los actores involucrados, desde el sector público hasta el privado, pasando por la academia y el Tercer Sector.

Mónica Villas valora cómo las grandes empresas tecnológicas están empezando a fomentar la concienciación sobre este asunto, ya que está en manos de todos los grupos formar parte de este esfuerzo. Un ejemplo de ello es la restricción del reconocimiento facial por parte de algunas empresas. Que las grandes empresas tecnológicas tengan un Departamento de Investigación potente, con elevado presupuesto y expertise, para desarrollar productos más óptimos y justos socialmente, es un factor significativo. La responsabilidad social corporativa está creciendo, primero, por justicia social, y segundo, porque las estadísticas demuestran que aquellas empresas que invierten en ello obtienen mayores beneficios –materiales y simbólicos- en el largo plazo.

DILEMAS SOBRE CÓMO SUPERAR LOS SESGOS

Se comenta la idea de que hay que diferenciar entre sesgo y preferencia. El sesgo es un error sistemático en que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras. El comportamiento ético incluye preferencia: consiste en preferir el bien al mal.

Se plantea también la pregunta de qué sesgos se escogen y cuáles no ya que, si se quieren eliminar los sesgos, podría existir un escenario de miles de millones de opciones. Cristina Aranda apunta que hay que reunir a todos los grupos del mundo tecnológico, así como a humanistas y personas de otros sectores. Esto permitiría definir cuáles son los impactos de cada sesgo, y qué principios se pueden usar para revertirlos cuando producen daños. Mónica Villas indica que, ante la dificultad de eliminar todos los sesgos, se deben fomentar recursos comunes como ha hecho recientemente la Unión Europea.

Ante la pregunta de los sesgos inconscientes, se plantea cómo podemos distinguir lo irracional de lo subconsciente. Esto se dificulta todavía más en la toma de decisiones que debe hacerse rápidamente en el día a día, según Mónica Villas. Una barrera a superar es nuestra tendencia natural a categorizar los objetos desde una temprana edad, como dice Cristina Aranda. Este nivel básico se va convirtiendo en algo complejo con los años, ya que a estas categorizaciones se suman connotaciones personales y sociológicas. En esa categorización existe un grado consciente y otro grado inconsciente.

Vuelve a ver el webinario entero:

https://www.youtube.com/embed/o4t5ZMlpVAM

Mónica Villas es Directora de Formación de OdiseIA. Mónica es cofundadora de OdiseIA y es directora de formación. Es ingeniera y ex-ejecutiva de IBM. Líder de conocimiento de IA en el IMMUNE Institute y docente en distintas escuelas de negocio. Con ellas hablamos de sesgos en Inteligencia artificial.

Cristina Aranda es Directora de desarrollo de negocio para Europa en Taiger. Cristina Aranda cuenta con más de 18 años de experiencia en marketing, innovación y transformación digital trabaja en Taiger, empresa de Inteligencia Artificial especializada en el procesamiento del lenguaje natural para la digitalización y automatización de procesos, asistentes virtuales y buscadores especializados.

--

--

OdiseIA
OdiseIA
Editor for

Observatorio del impacto social y ético de la Inteligencia Artificial