Lo artificial es la falta de sesgos

Mauro Kopeika
Pensando El Futuro
Published in
5 min readNov 27, 2020

Los sesgos son algo inevitable en nuestra vida, son el resultado de las necesariamente limitadas visiones del mundo que podemos lograr. Convivimos con estos sesgos, sabemos que son debido a nuestra experiencia finita en el mundo y aceptamos que es, a pesar de ellos, que construimos conocimiento sobre el mundo. Sin embargo, recientemente, ha llegado otra forma de establecer realidades: la inteligencia artificial. Ésta novedosa herramienta parecería que al fin nos sacaría de todas las limitaciones humanas, pero no nos olvidemos que los algoritmos no son más que otra creación sesgada de la humanidad. ¿Estamos programando prejuicios?

En una crecida vertiginosa de las capacidades de nuestras computadoras, los avances parecen ir mucho más rápido que las discusiones éticas y morales del uso. El miedo popular es que nos conquisten, se rebelen y otras diez películas que podrían estrenarse esta semana. Sin embargo, nadie teme a ese terror silencioso que son los sesgos y las discriminaciones que aprenden de nosotros nuestras creaciones. ¿Nos superaran en inteligencia y en racismo?

Un primer enfoque importante es entender de dónde vienen estos sesgos que atentan contra la supuesta objetividad de los algoritmos. Podemos dividirlos en tres secciones: la data, el algoritmo y la humana.

Muchos datos, poca representatividad

El lugar más obvio para buscar respuestas es la cantidad de datos con las que entrenamos la inteligencia artificial. Para el lector menos comprometido con la causa, la historia sencilla es que los algoritmos “aprenden” de grandes sets de data para buscar generalizar conocimiento. Los datasets disponibles reflejan la subjetividad humana y los sesgos preexistentes. La inteligencia artificial no puede distinguirlos, le estamos dando una supuesta visión general del mundo que no lo es. Las fotografías disponibles online son en su mayoría de hombres blancos, enfermeras mujeres, enseñamos idiomas basándonos en el inglés, entre otras.

Se suele pensar que es tan simple como sacar la información sobre raza, edad o sexo. Sin embargo la data suele tener muchos más componentes no tan claros: el barrio donde se nace, los intereses, la forma de vestirse. Hay nociones estadísticas que son ciertas: la mayoría de las maestras son mujeres, pero no podemos afirmar que toda maestra lo es. Sin embargo, Google Translate traduce lenguajes neutros según estos sesgos.

Imagen de traducción del turco, el cual es neutro en género.

Podríamos argumentar que son nimiedades, sin embargo son formas que tenemos de construir subjetividades. A su vez, la inteligencia artificial se usa para controles policiales, préstamos bancarios o decisiones de salud. Al generalizar con data sesgada incurrimos en conocidos casos: a la gente de tez oscura se la considera más peligrosa por estos algoritmos o tienen dificultades de salud ya que los algoritmos utilizados por hospitales son entrenados con pacientes blancos.

Eliminar los sesgos, aun manteniendo cantidades de datos adecuada, no es tarea fácil. Hay que decidir sobre lo que le mandamos a nuestros algoritmos o, inclusive, decidir que no hay datos suficientes para poder generalizar.

Una foto pixelada de Obama reconocida por una IA como un hombre blanco (Cortesía : @elGatoYLaCaja en Twitter)

Los algoritmos, ese monstruo

Los algoritmos en sí no pueden crear sesgos cuando no hay ninguno, pero pueden amplificar los que le demos desde la data. El objetivo de los algoritmos es maximizar su precisión, usarán todos los recursos disponibles para lograrlos. Es entonces que si la mayoría de las personas en cocinas son mujeres, convenga generalizarlo, aun considerando que hay hombres en algunas imágenes de la data de entrenamiento.

Otro sesgo de algoritmos en particular es cuando éstos se aferran a cosas que no son realmente significativas para el trabajo generando malos resultados. Si fuéramos al caso de los hospitales, hay algunos donde habrá mayor porcentaje de fractura. El algoritmo podría aprender que son las máquinas de rayos X de ese hospital (que generan una especie de marca de agua en la imagen) son equivalentes a fracturas. En ese caso, jamás se estaría fijando, por ejemplo, en características del hueso.

Para reconocer y mejorar estas situaciones, hay que asegurarse de testear el algoritmo en situaciones donde van a ser usados, lejos de sus datos de entrenamiento.

Nosotros, los humanos

Acá llegamos a la tercera causa: el sesgo humano. Los desarrolladores son en su mayoría hombres blancos, con cierta educación, sin discapacidades. Esto contrasta con la población heterogénea que hay en el mundo.

Población de Silicon Valley (Cortesía : @elGatoYLaCaja en Twitter)

El tema es que la gente que se encarga de desarrollar inteligencia artificial está centrada en lograr un objetivo en particular, sin necesariamente pensar en un panorama más amplio. Acá expertos en sesgos y ética podrían dar una mano, si sirvieran para entrenar y programar algoritmos. Se piensa poco si cierta tarea debería existir en primer lugar, quién la crea, para qué población será usada, quién es dueño de la data y cómo se usará.

Los problemas de la inteligencia artificial entonces parecen ser menos tecnológicos y más sociales. No podemos cerrar los ojos a la realidad y asumir que todo se vale pues es en pos del progreso o la ciencia. Son los científicos que deben alejarse de la ilusión de objetividad. La ciencia debe situarse en tratar de entender las dinámicas sociales del mundo porque es allí donde sucede el verdadero cambio.

Conclusiones

Ojalá fuera tan simple como decir “la tecnología es mala”. Sin embargo, el mismo software que dice que los negros son criminales es el que logra que se encuentren niños perdidos. Cerrarle la puerta a la inteligencia artificial no es el camino para realmente solucionar o entender los sesgos con los que vivimos. Demonizar la herramienta antes que repensar en sus responsables no nos lleva a un entendimiento o mejora humana.

Necesitamos cambiar la forma en la que nos educamos sobre ciencia y tecnología, olvidarnos de esa visión objetiva de la realidad y sumar más interdisciplina con otras áreas. De esa manera poder actuar y opinar cuando organizaciones gubernamentales usan algoritmos para decidir sobre la población.

Ya hay empresas que están haciendo lo suyo: Amazon prohibió que su sistema de reconocimiento se use con fines policiales. Nos queda a nosotros ahora comprender que un humano sin sesgos es imposible. De esa manera creer que lograremos una inteligencia artificial sin ellos no debería ser una creencia, sino una utopía con la que seguir mejorando nuestras prácticas y usos.

--

--