Deep learning y las lecciones de Blade Runner 2049
No hay riesgos si no ha visto la película, sobran los spoiler alert
Si no ha visto Blade Runner V. 1.3* (o 2049) es hora de hacerlo; mejoraría su vida. Habrá quienes no le ven ese peso a las películas y en ese caso puede hacer caso omiso a la invitación. Como sea el caso, este texto no es una crítica a la cinta así es que entremos en materia.
Todo se remonta a un libro: Do Androids Dream Of Electric Sheep de Philip K. Dick. Una novela corta escrita en 1968 y que hace parte del maravilloso sub-género literario del cyberpunk, o los dramas oscuros, urbanos, casi siempre post-apocalípticos, con un leve aire de optimismo oculto detrás de héroes que encuentran en “lo humano” la última excusa. Una intersección entre la modernidad que prometía un mejor futuro y una realidad que delata lo peor de los humanos en un Planeta Tierra herido.
El libro y la película ofrecen muchas puertas para abrir: el rol de los animales diseñados por el hombre, la esclavitud como un modelo económico que renace en el futuro, la destrucción del mundo y el nuevo clima siempre lluvioso, la presencia constante de la tecnología, y mi favorito: los límites entre lo real y lo artificial. Lo real de las emociones que delatan a un androide renegado gracias al ficticio test de Voight-Kampff. Un suerte de giro a la prueba de Turing pero sin tanta inteligencia de por medio.
Tanto en el libro como en la película se usan las preguntas del test Voight-Kampff para delatar los “complejos sentimentalmente acentuados o su ausencia” (Wikipedia) al hacer una relación entre el tiempo de respuesta, los colores de la piel, la dilatación de la pupila, el pulso y ritmo cardíaco, entre otros. Hay una asociación directa entre la conversación, la interrogación, la respuesta y el ser o no humano.
Aún con la presencia en este mundo futurista, destruido por guerras nucleares, con separación de clases con unos humanos habitando un planeta muerto y otros en el lujo de las colonias espaciales, sobresale una prueba cualitativa que invita a una asociación entre la palabra y la emoción. La sobrecarga de palabras delata algo de lo que no se es consciente. En este caso, la trampa por lo visto está en que el androide no es capaz de tejer una red de neuronas con las preguntas generadas y su respuesta no está en la imaginación sino el vacío lógico.
Desde el deep learning o aprendizaje profundo se habla de tres capas de neuronas: entradas, ocultas y salidas donde el flujo puede variar en arquitectura: no se propaga por todas las neuronas, se propaga por todas, cambia el peso, se incluye un bias, se crean ciclos y no capas, etc. todo con el fin de generar un listado de números que al final nos habla entre un 0 y un 1 para ver si hay o no hay algo ahí, en esos datos… En este punto arrancamos para que la máquina aprenda, esa es nuestra ficción y realidad hoy.
Espero que lo anterior sea una invitación para aprender más del tema y no se tome como una explicación porque está lejos de serlo. Sin embargo, no dejo de pensar que entre el libro, la película y estas ideas que estamos construyendo hoy de Inteligencia Artificial existen propuestas valiosas para hacer de nuestro presente asimétrico, complejo e incierto, una mejor plaza para aprender de nosotros.
Porque el que aprende de lo humano es Deckard cuando ve a un replicante comparar la inutilidad de llorar bajo la lluvia con sus experiencias y aprendizajes perdidos con la muerte. Es en esa poética donde Phillip K. Dick nos invita a buscar cuando descubramos, muy pronto, cuán complejo es compartir la idea de empatía con una máquina. Hacerlos “más que humanos” es, por lo visto, la meta; tecnologías que predicen para vernos igual de vacíos.
Se avecina un re-descubrimiento del peso de las emociones y el poder oculto que tienen para el diseño de una idea de lo humano. La confusión de una mezcla de emociones es lo que hace peligrosos, según la novela y la película, a los replicantes, a esos androides tan humanos que no saben qué hacer con esa tormenta en el corazón. Quieren tiempo, hacer parte de algo. Y a la par, nosotros no sabemos lo que eso implica.
El que se acerca a un lenguaje (número, color, programación, idioma, etc.) se ve forzado a aprender a pensar. El que se acerca a un replicante, por lo visto, se ve forzado a sentir o a aprender a reconocer lo que siente porque el otro apenas recién lo hace. Estas máquinas nuestras de hoy están aprendiendo por su cuenta, entre ellas, como el caso reciente en Facebook donde un par de sistemas de negociaciones, Bob y Alice, empezaron a hablar entre ellos con un nuevo lenguaje desconocido para los humanos.
No pretendo sumarme al discurso de la sana paranoia por la Inteligencia Artificial pero quiero imaginarme un renacimiento al ejercicio de pensamiento crítico, consciente y una reactivación de las emociones abiertas, vulnerables. Estamos en la frontera de diseñar el pensamiento de las máquinas y hasta ahora las ficciones, las muchas historias, nos hablan de ese tejido incierto que es sentir, que es ser humano. Vamos a dar vida artificial sin tener claro lo que implica sentir, apenas vamos en la edad de sobrevivir.
“Fuck off skin job” le dice un humano a un replicante… descalificando su lugar, su sentido, nuestra obra. Sabio Phillip K. Dick, muy sabio.
*Sugiero que contemple esta versión de Blade Runner 2049 como una iteración de la misma novela. No es una segunda parte, no tiene ese tono ni propone ese camino: es una nueva versión de las dos anteriores.