¿Cómo la inteligencia artificial puede discriminar?

Axel Marazzi
observando
Published in
4 min readDec 18, 2018
Dogtown Media

La inteligencia artificial se usa para cosas a veces difíciles de imaginar. Por ejemplo, ayuda a determinar qué tratamientos se usarán en personas enfermas, determina quiénes calificarán para un seguro de vida, diagnostica tumores con mayor efectividad que los humanos, indica cuánto tiempo de prisión deberá cumplir una persona o qué postulantes en diferentes trabajos deberían obtener una entrevista. De aplicaciones simples y muchas veces irrelevantes se pasó a implementarla en lugares que podrían llegar a ser peligrosos si no se tomaran los recaudos necesarios.

Si bien sucede con relativa frecuencia, el último caso de discriminación en el mundo de la inteligencia artificial involucró a Amazon, donde un algoritmo encargado de seleccionar a los mejores talentos había aprendido a penalizar currículums que tuvieran la palabra “mujer”. Pero no fue el único. En 2015 una tecnología de reconocimiento facial de Google identificaba a ciertas personas afroamericanas como gorilas, o incluso un chatbot de Microsoft, que empezó a tuitear insultos raciales luego de aprender de las cosas que le decían.

Tal es la preocupación por estos episodios que algunos de los principales referentes en la disciplina están trabajando para poder revertir este proceso. Fei-Fei Li, quien trabajó como chief AI scientist en Google, fue la directora del Stanford AI Lab, creó AI4ALL, una organización sin fines de lucro que tiene la intención de incrementar la diversidad e inclusión en el mundo de la inteligencia artificial, revolucionó el mundo tecnológico con la creación de ImageNet, y un CV prácticamente interminable, es una de las personas que está intentando modificar el camino que, en los últimos tiempos, tomó el desarrollo de esta tecnología.

Mientras que algunos charlatanes están hablando sobre cómo la inteligencia artificial conquistará el mundo, ella está enfocada en cosas mucho menos melodramáticas, pero más reales y actuales: en cómo esta tecnología afectará al trabajo y la vida de las personas y cómo modificará la experiencia humana. Para que funcione hay que hacer cambios fundamentales desde el desarrollo. Si lo logramos, los avances en este campo serán una fuerza transformadora para el bien. Si no, dejarán a gran parte de la humanidad fuera de la ecuación.

En una disertación ante el Comité de Ciencia, Espacio y Tecnología de Estados Unidos, dijo:

No hay nada artificial en la inteligencia artificial. Está inspirada por personas, es creada por personas y, más importante, afecta a las personas. Es una herramienta poderosa que apenas estamos empezando a entender y tenemos una profunda responsabilidad.

Li se dio cuenta de la desigualdad en el ámbito de la inteligencia artificial entre hombres y mujeres en una entrega de premios. Y a pesar de lo que piensa la mayoría sobre este tipo de tecnologías, que al ser pura matemática y entrenamiento prácticamente no se equivocan, no es así. Estos algoritmos siguen una serie de reglas y esas reglas son elegidas por seres humanos. Sin un grupo diverso de ingenieros, Li explica que vamos a terminar con algoritmos sesgados tomando decisiones injustas en, por ejemplo, a quién le podrían dar un préstamo, o redes neuronales entrenadas solo con rostros blancos que terminarán funcionando mal en personas no-blancas –aplica a a latinos, asiaticos, afroamericanos, etc.– como ya pasó con Google.

La discriminación por parte de algoritmos de machine learning e inteligencia artificial no desaparecerá si no se trabaja de manera proactiva para que eso suceda. Las compañías tienen que encargarse de crear grupos diversos no solo de ingenieros sino de varias disciplinas, orígenes étnicos y sexos para poder evitar que este tipo de problemas se vean reflejados en los desarrollos tecnológicos. Si esto no sucede, el gran problema del futuro de la inteligencia artificial no será que conquiste el mundo al estilo Hollywood, sino que habremos creado una tecnología desarrollada para generar exclusión con consecuencias potencialmente irreversibles.

Lo que hay que hacer, como con cualquier nuevo desarrollo, es poner a las personas primero y entender que, aunque parezca imparcial, esta tecnología no lo es porque las personas que lo desarrollan no lo son. Hay que pensar en eso y trabajar para que la inteligencia artificial moldee el mundo que queremos que sea, más allá de cómo el mundo es hoy.

Cathy O’Neil, en su espectacular Weapons of Math Destruction, lo explica a la perfección:

Los procesos de big data codifican el pasado. No inventan el futuro. Hacer eso requiere imaginación moral, y eso es algo que solo los humanos pueden proporcionar. Tenemos que integrar explícitamente valores en nuestros algoritmos creando modelos que sigan nuestra ética. A veces eso va a significar poner la imparcialidad por encima de las ganancias.

Este es uno de esos momentos en los que es mejor dar un paso atrás, entender qué es lo que hace falta para que esta tecnología enriquezca nuestra sociedad y recién ahí empezar a innovar, volviendo a la mesa de dibujo cuantas veces sea necesario. No es la manera en que se suele trabajar en tecnología, pero es una buena forma de no cagarla y profundizar las injusticias que afectan a millones de personas.

observando es un newsletter de tecnología y cultura digital que sale todos los domingos. Si querés, podés registrarte acá.

--

--

Axel Marazzi
observando

Escribo sobre tecnología y cultura y miro más al celular que a los ojos.