Pastilla azul o pastilla roja

¿La elección es nuestra o las máquinas son las que deciden por nosotros?

“Esta es tu última oportunidad, después ya no podrás echarte atrás.
Si tomas la pastilla azul, fin de la historia. Despertarás en tu cama y creerás lo que quieras creerte.
Si tomas la roja te quedarás en el país de las maravillas, y yo te enseñaré llegar a la madriguera de conejos.
Recuerda, lo único que te ofrezco es la verdad, nada más”. The Matrix, Warner Bross 1999.

Este fragmento corresponde a una de las escenas más recordadas de la famosa película The Matrix de las hermanas Wachowski. En ella se nos presenta una decisión que, como veremos en las sucesivas películas, será de gran importancia. Neo se decanta por una de las dos pastillas que le oferta Morfeo.

Aunque a primera vista esta elección parece tomada de forma premeditada por el protagonista, al terminar la trilogía nos damos cuenta que no es del todo así. Esta toma de decisión se encuentra controlada y coaccionada ya que todo forma parte de una estratagema realizada por el Arquitecto, inteligencia artificial creadora del programa Matrix.

Podríamos pensar que esta situación, en la que una inteligencia artificial influye en nuestra toma de decisiones y en nuestro modo de actuar, es una cuestión de películas de ciencia ficción o de mundos de ficción pero nos equivocaríamos. Esta situación es más habitual de lo que creemos. ¿Queréis descubrir qué se cuece en este mundo que no es tan lejano a Matrix?

En el post que sigue, se detallan algunas de mis conclusiones sobre la investigación “Cómo las máquinas influyen en las decisiones” en el marco de las prácticas realizadas en Biko para Bikolabs.

Nuestra navegación en webs y apps revela más de lo que creemos

Vivimos en un mundo en el que la explotación de la información personal se ha convertido en una industria de gran relevancia. Esta información se obtiene mediante el análisis y la evaluación de los comportamientos e interacciones que realizamos en el uso de Internet y de las redes sociales.

Nuestra forma de navegar, los sitios que visitamos o las cosas que compartimos revelan mucho de nuestra identidad, más de lo que podemos llegar a creer. Se ha demostrado que mediante algo tan simple como los likes de Facebook se puede predecir la orientación sexual, la personalidad, la visión política o la felicidad, entre otros. Estos datos sirven para identificar, clasificar y evaluar a los consumidores. ¿Cuál es el fin de esta recopilación de datos? Existen muchas opciones posibles y una de ellas puede ser influir en el comportamiento de los usuarios.

Hasta hace no mucho, el uso de esta información estaba vinculado exclusivamente a la publicidad en línea aunque paulatinamente, esto ha ido extendiéndose a otros sectores como puede ser la comunicación política o la calificación crediticia.

Ejemplo de esto es un caso que en las últimas semanas ha tenido gran repercusión: Cambridge Analytica, empresa dedicada a crear perfiles de votantes. Esta clase de empresas dedicadas a crear perfiles de usuarios son denominadas como “data brokers” o vendedores de datos. Estos recopilan datos de los consumidores y los venden a terceros a los que le interese obtener dicha información.

La razón por la que esta empresa ha sido noticia es que utilizó datos personales recopilados en Facebook con el propósito de influir en el comportamiento de los votantes estadounidenses, esto sin que los usuarios supieran que sus datos estaban siendo recolectados.

Aunque en este caso la participación de Facebook parece ser indirecta, pues no tenía conocimiento de que los datos estaban siendo utilizados con ese fin, no es la primera vez que la esta red social se ve envuelta en la utilización de datos para influenciar a sus usuarios.

En el año 2014 el equipo de expertos de la compañía publicó los resultados de un experimento que pretendía medir la capacidad que tenía la red social para influir en el estado de ánimo de sus usuarios. El experimento consistía en alterar el número de publicaciones según su contenido, mostrando a casi 700.000 personas un número muy bajo de publicaciones con contenido negativo o positivo. Concluyeron el experimento afirmando que podían alterar el estado de ánimo de los usuarios mediante un proceso de “contagio emocional”.

¿Es que nadie va a pensar en los usuarios?

Hay un aspecto que preocupa en gran medida a los investigadores de este campo: la privacidad el usuario. Los datos mediante los que se extrapola la información personal son de muy fácil acceso. Un “me gusta”, una publicación o la visita a una página web concreta son datos muy fáciles de obtener y de los que se puede extrapolar gran cantidad de datos personales.

Esta facilidad de acceso puede significar una vulnerabilidad de la privacidad de los usuarios pues se puede recopilar su información personal e influir en sus comportamientos sin su consentimiento o conocimiento. Los casos anteriormente mencionados son ejemplo de ello, en ninguno de estos los usuarios eran conscientes de que sus datos estaban siendo utilizados ni que se tenía la pretensión de influir en sus comportamientos.

Es por esto por lo que gran parte de los artículos que he leído señalaban la privacidad como ámbito por lo que preocuparse. La utilización de la información que dejamos mediante nuestra huella digital está a la orden del día, eso está claro. No hay nada más que fijarse en que cada vez más empresas utilizan esta huella para el “control” de sus usuarios, trabajadores o posibles trabajadores.

Ya no es raro escuchar que alguien no ha sido contratado por el contenido de sus publicaciones en las redes sociales. Incluso entidades bancarias utilizan estos datos para calcular el puntaje de crédito de sus usuarios. Esto implica que la información obtenida pueda afectar a las opciones disponibles para las personas sin ser conscientes de ello.

“Fabricamos máquinas para que nos ayuden a pensar, y ahora las máquinas piensan por nosotros”- Ken Liu,El zoo de papel, 2016.

Uno de los aspectos que se pretendía conocer con la investigación “Cómo las máquinas influyen en las decisiones” era que nos lleva a otorgarle credibilidad a una máquina. ¿Qué nos lleva a confiar en una máquina? ¿Por qué nos llegamos a plantear que es un error no seguir las indicaciones o recomendaciones que no puede dar? ¿Qué es lo que nos hace tener fe ciega en sus resultados?

Después de las sucesivas lecturas realizadas, una conclusión a la que podríamos llegar es de que una parte importante de nuestra confianza en las máquinas se basa en los valores que les otorgamos. Generalmente las caracterizamos como “objetivas” o “neutrales” y eso es lo que nos lleva a que les otorguemos fiabilidad.

Un experimento que deja ver lo anteriormente dicho es el realizado por el psicólogo Alan G. Sanfey en el año 2003. El experimento se basa en el llamado “juego del ultimátum” que consiste en que un jugador reparta una cantidad de dinero (10 €) con otro jugador haciéndole una oferta, si el segundo jugador acepta la oferta ambos se quedaran con la cantidad de dinero repartida pero si no lo hace, ninguno se quedara con el dinero. Sanfey decidió llevar este juego más allá y crear una versión modificada, sustituyendo al primer jugador por un ordenador.

Amañando las ofertas que se iban a proponer, decidió llevar a cabo las dos versiones del juego y comparar los resultados obtenidos. Lo que se detectó con esta comparación es que cuando una persona realizaba un reparto injusto del dinero la oferta era rechazada inmediatamente y se percibía como una ofensa, mientras que la reacción era completamente opuesta si la oferta injusta era realizada por un ordenador. De forma automática se asumía que la oferta realizada por el ordenador era un mero cálculo objetivo, que no estaba condicionado, lo que hacía que los sujetos aceptaran sin ningún problema.

Con este ejemplo se puede observar como no se duda de la objetividad de los resultados producidos por una máquina y cómo esto puede afectar tanto a nuestra toma de decisiones como a nuestra forma de actuar.

A pesar de la concepción de imparcialidad de las máquinas, hay que ser conscientes de un aspecto importante que parece no tenerse en cuenta, y es que las máquinas, al igual que cualquier producto, contienen parte del creador. Las máquinas, los algoritmos, las tecnologías…puede que esto suene a un mundo frío y aséptico pero no tenemos que olvidar que “los “no-humanos” adoptan las actitudes de los que los han instalado” (Latour, 2017), por lo que puede que las máquinas no sean tan objetivas como pensamos.

Conclusión

Los ejemplos señalados sugieren que las máquinas pueden influir en nuestra toma de decisiones, forma de actuar o, incluso, en nuestro estado de ánimo. Esto es un tema que está suscitando mucha investigación, y no es de extrañar teniendo en cuenta en el contexto en el que nos encontramos.

Dado el auge de la explotación de datos personales, existe una preocupación por el uso ético de esta información, teniendo en cuenta los efectos que podrían producir si su empleo ilícito. Por lo tanto, debería de hacerse un esfuerzo porque la obtención y utilización de esos datos se realice de una forma ética.