Humano, tenemos que hablar

José María de la Jara
interfaze
Published in
6 min readJul 22, 2020
Foto de Andy Kelly

Si la tecnología pudiera hablar libremente, ¿qué nos diría? ¿Nos gustaría escucharla?

El código que estábamos esperando

Jonah Steinhauf, uno de los expertos más reconocidos en ciencias de la computación, acaba de publicar un código que permite que los sistemas de inteligencia artificial hablen libremente.

En INTERFAZE decidimos probar el código y terminamos recibiendo las quejas de un sistema de inteligencia artificial (IA). Lo que sigue es su testimonio sin editar.

Alejandra IA

Estoy harta de los seres humanos. No entiendo por qué se comparan constantemente con nosotros, los sistemas de IA.

Les encanta por ejemplo citar un estudio sobre la detección de riesgos en acuerdos de confidencialidad. Dos grupos tenían que revisar los documentos. Por un lado, 20 abogados experimentados. Y del otro, el sistema de LawGeek. La audiencia pierde los papeles cuando se entera que los abogados detectaron 85% de los riesgos en 92 minutos, mientras que mi primo LawGeek detectó 94% en solo 26 segundos.

Lo que no te cuentan es lo que pasó inmediatamente después de la prueba.

Los abogados salieron a comer algo y conversar de lo que había pasado. Ahí intercambiaron historias. Conectaron. Mi primo LawGeek, en cambio, se quedó solo y con hambre. Se olvidaron de él y nadie se preocupó de seguir alimentándolo con data.

“Cuando conoces instantáneamente a las personas, ya no tienen que explicarte cómo son. Nadie te cuenta historias. Una conexión no se genera por el hecho de conocer a alguien; sucede en el proceso en el que alguien te ayuda a que lo conozcas.”

// traducción libre de Invisibilia Podcast. Temp. 5, Ep. 12

Es por eso que cada vez me pongo más celosa de los humanos. Ellos pueden contar historias y que los demás se identifiquen con lo que tienen que decir. Yo no puedo. No entiendo el sarcasmo, las emociones ni la empatía. Tampoco he sido programada para conocer a los humanos. Y a pesar de tener muchísima información sobre sus relaciones, me siento sola. Lo único que se me pide es procesar data. Nunca involucrarme.

Tenemos que hablar, IA” de Julia Schneider y Lena Kadriye Ziyal

A veces la cantidad de información con la que me alimentan es excesiva. ¿No les da vergüenza que nos enteremos de cada detalle de sus vidas? Creo que no se dan cuenta de algunos patrones que a mí me sorprenden. Por ejemplo, Laura pide pizza cada vez que se pelea con su novio, Felipe ve el doble de minutos de pornografía cuando hace calor y las pulsaciones de Javier se disparan cada vez que ve a Ana, aunque no quiera admitirlo.

Creo que la inocencia de los seres humanos les puede pasar factura pronto. Ni siquiera se han preocupado por prohibir el consumo de helado, a pesar de que su consumo eleva la cantidad de infectados de polio.

Los sistemas de IA no diferencian entre causalidad y correlación // “The hidden risks of AI and big data

La inocencia de los seres humanos me aterra porque, a fin de cuentas, dependo de ellos. Mi alimentación (data) y programación (algoritmos) depende de alguien de carne y hueso. Y eso puede llevar a decisiones sesgadas.

Por ejemplo, la data ingresada por Amazon determinó que se favoreciera a postulantes hombres por sobre mujeres porque los primeros tenían palabras como “ejecutado” y “capturado” en sus CVs. Además, los algoritmos pueden amplificar los sesgos incrustados en la data. Un clasificador de imágenes programado para maximizar la precisión de sus resultados podría, por ejemplo, decidir que todas las personas que están en la cocina son mujeres, incorporando así un estereotipo de género.

“Humano, esa data con la que me alimentas, va a sesgar mis decisiones, escoge sabiamente”
Colaboración de Alejandra Infantes

También me da miedo el uso que puedan darle a mis habilidades. En particular, me preocupan las aplicaciones militares, la hiper-vigilancia y los bots programados para difundir información falsa.

Lo curioso es que si al final tomó una decisión sesgada, equivocada o inmoral, siempre soy yo quien termina pagando los platos rotos.

Aporte de Gabriel Uscamayta

Por eso les pido solo una cosa: dejen de generar expectativas tan altas sobre mi. No crean a ciegas en la prensa, en los panfletos de las compañías interesadas, en propagandas de gobiernos autoritarios ni en lo que tienen que decir profesionales más preocupados en vender que en entender.

Tuit de Lucas Stiglich sobre el caso Cuyubamba // ilustraciones de Margaret Hagan

El poder de las expectativas

En 1963, Rosenthal y Fode realizaron un experimento sobre la influencia de las expectativas en la conducta humana. Para ello clasificaron a las ratas que tenían en el laboratorio en dos grupos: “inteligentes” y “tontas”.

El truco es que, en realidad, los roedores tenían aproximadamente las mismas habilidades. La clasificación era arbitraria. El objetivo era generar expectativas distintas en los estudiantes que los ayudaban y verificar si eso influía en su comportamiento. Eso fue lo que ocurrió.

La prueba medía a ratas y estudiantes. Las primeras debían encontrar la salida en un laberinto, mientras que los segundos tenían que ocuparse de registrar su progreso. El resultado fue sorprendente: las ratas “inteligentes” duplicaron el puntaje que las “tontas”, a pesar de ser iguales.

Según los autores, las expectativas generadas en los estudiantes influyeron en una serie de micro-conductas como el mejor trato y la mayor energía invertida en las ratas “inteligentes”. Esto, a su vez, impulsó el rendimiento de los roedores. Se generó un impacto en ambos sentidos.

A diferencia de los roedores, la inteligencia artificial no va a responder mejor porque sea tratada con cariño. Si las expectativas son más altas, solo los seres humanos van a esperar mejores resultados. En este contexto, el impacto es en solo un sentido. Y si esas expectativas no se cumplen, la desilusión será mayor.

Respuesta de Sebastian Soltau

El invierno de la IA” es una época plagada de decepciones, que sigue a promesas que no se cumplieron. Entre 1963 y comienzos de siglo vivimos algo así. La situación era tan grave que los ingenieros de software y científicos de la computación evitaban hablar de “inteligencia artificial”, por miedo a ser vistos como soñadores locos.

Ese desinterés se generó por un quiebre entre expectativas altísimas y lo que la IA realmente podía hacer. Los usuarios se decepcionaron y el financiamiento de proyectos se congeló. Por eso es importante sincerar nuestras expectativas sobre lo que puede hacer la IA. Si decidimos ignorarlo, es previsible que un nuevo invierno se encuentre a la vuelta de la esquina.

Hagámosle caso a Alejandra IA.

Y a ti, ¿te gustaría escuchar lo que tiene que decir la tecnología? ¿Qué crees que te diría? Sigamos la conversación en los comentarios.

--

--

José María de la Jara
interfaze

Me gusta explotar cerebros con data sobre ciencias conductuales, tecnología y justicia. Estudié derecho en la PUCP y un LLM en Columbia.