¿Quién regula la moral en la IA?

Renee De La Torre
TechWo
Published in
4 min readNov 7, 2017

En estos días “Inteligencia Artificial” pareciera estar en todos lados, y es porque en realidad es así. La Inteligencia Artificial no es un término nuevo; Esta se viene usando desde 1950, cuando Alan Turing desarrollo un test que era para determinar si una computadora era tan inteligente como un ser humano.

Este test, se componía de tres integrantes, sujetos A, B y C. Dos sujetos eran humanos (A y B) y un sujeto era una computadora ( C ). Un sujeto humano, digamos A, tenía el rol de entrevistador y entrevistaba en base a preguntas y respuestas por texto, a los otros dos sujetos C y B. La tarea del entrevistador A, era de determinar con las respuestas de los otros sujetos, cuál era humano y cuál era la computadora. Obviamente, para hacer más difícil el trabajo del entrevistador, la computadora tenía que parecer lo más posible humano y tratar de engañar al entrevistador. Si al final, el entrevistador no podía definir quién era humano y quién computadora, se decía que la computadora era tan inteligente como un humano.

Test de Turing

Inteligencia artificial es útil para muchas cosas hoy en día. Hacer a una computadora inteligente no es una tarea fácil, se trata de dotar con inteligencia a un sistema y con esto, darle el don de aprender.

Un campo de la inteligencia artificial llamado Aprendizaje de Máquinas (Machine Learning en inglés), es el conjunto de técnicas usadas para poder desarrollar sistemas capaces de aprender a través de información de entrada. Con otras palabras, un algoritmo A con un fin G, que con información de entrenamiento aprende con respecto a G y cuando se usa el algoritmo inteligente A con alguna entrada I este arroja una salida A(I) = O.

Aprendizaje de máquinas se ha usado para muchos fines actualmente, desde reconocimiento de imágenes, reconocimiento de recursos, diagnósticos médicos, predicciones y toma de decisiones. Todas estas aplicaciones con muy buenos resultados. Para ayudar a la toma de decisiones en tiempo real, para erradicar decisiones estresantes y lidiar con incertidumbre en problemas de decisión.

Pero el tema de este post es sobre la moral en estos sistemas, así que empezaré con una historia. Hace un año, escuché sobre un agente inteligente que estaba desarrollando Microsoft vía Twitter en el cual usuarios podían interactuar con un agente inteligente virtual. Lo que hacía dicho agente era aprender de las interacciones con usuarios como si fuera un recién nacido que va aprendiendo a sus alrededores. No pasó mucho tiempo cuando el agente empezó a portarse de manera extraña y haciendo comentarios en favor a Hitler. Los usuarios estaban “enseñando” por el mal camino a dicho agente.

Chatbot de Microsft llamado Tay.

Muchas son las personas que se confían completamente en los sistemas inteligentes para la toma de decisiones. El problema de esto es, como en la historia anterior, qué pasa si el sistema inteligente aprendió de manera inequívoca y resulta en una salida parcial hacia un lado.

Hace algún tiempo leí que un algoritmo determinaba qué tan probable es que en un futuro alguien (la entrada del algoritmo) cometiera un crimen (salida del algoritmo). En una ocasión el algoritmo determinó que una mujer de color, con no antecedentes penales, tenía más probabilidad de cometer un riesgo en el futuro que un hombre blanco con ya antecedentes penales registrados como robo entre otros. Análisis en este algoritmo determinaron que estaba basado en programación racista que les daba más probabilidad a personas de color.

Investigación de ProPublica

Con estos ejemplos quiero decir lo siguiente, ¿qué confianza podríamos tener en algoritmos de inteligencia, cuando estos pueden ser usados de distinta manera para los diseñados? ¿Dónde está el estudio de la ética y moral de estos algoritmos?

El futuro que se ha venido pensando, ya es el presente. Nuevas tecnologías están surgiendo y nuevos comportamientos en inteligencia artificial. Pero con esto también deberían surgir reguladores internos en la caja negra de los algoritmos, instituciones o entidades que controlen la ética que la nueva tecnología está teniendo e inculcando.

No debemos de tener miedo a la nueva tecnología, al contrario, debemos de recibirla con entusiasmo y emoción. Con ella podemos hacer muchas cosas que antes no se tenía ni idea que eran posible, pero como traen muchas aplicaciones pasivas, en malas manos traen aplicaciones negativas y dañinas para la sociedad.

--

--