La responsabilidad de la predicción

¿Qué es el Machine Learning?

A día de hoy, son pocos los que no han oído hablar de Machine Learning. En mayor o menor medida, o con mayor o menor grado de especialización, este concepto lleva en boca de muchos desde hace ya algún tiempo.

El Machine Learning surge en el ámbito de la IA (Inteligencia Artificial). Antes de dar por sentado determinados conceptos para tratar de aterrizar mejor en nuestras cabezas todos los recovecos de este mundo, nos gustaría plantear no lo que es, sino dar algunas pistas sobre cómo funciona este alucinante universo. Vayamos directos al cómo para poder plantearnos mejor el qué, y especialmente, lo que no es.

En estos momentos, una de las técnicas más utilizadas dentro del Machine Learning es el aprendizaje supervisado mediante redes neuronales, que nos permite construir programas de computadora que mejoran automáticamente adquiriendo experiencia. Esto quiere decir que el programa que se crea con Machine Learning no necesita que el programador indique explícitamente las reglas que debe seguir para lograr su tarea, sino que este mejora de manera automática.

En el aprendizaje supervisado disponemos de un conjunto de datos estructurados donde necesitamos asociar una etiqueta (label) que identifique el elemento. Es lo que denominamos “supervisión”. Un ejemplo típico sería el de un conjunto de fotos de animales donde su nombre -animales- sería la etiqueta o label.

En Machine Learning las redes neuronales se han consolidado como una de las mejores soluciones para este “aprendizaje”. Frameworks específicos como Tensorflow o Keras nos facilitan la tarea de poder crear y “entrenar” esas redes neuronales con un conjunto de datos.

Sigamos con el ejemplo anterior. Pensemos que queremos crear un servicio web donde al subir una foto, nos indique qué animal es. Para ello usaremos ese conjunto de fotos etiquetadas previamente. Ahora, separamos el conjunto de datos en dos partes: una parte para entrenamiento (80%) y la otra para la evaluación (20%). La primera parte de los datos (el 80%) nos servirá para realizar el entrenamiento de la red neuronal. Un conjunto de iteraciones sobre esta red neuronal irá ajustando la experiencia adquirida (o como se dice en esta jerga, “irá aprendiendo”) y esto nos permitirá crear un modelo que usaremos para nuestro servicio.

Con el otro conjunto de datos (20%) realizaremos una evaluación de nuestro modelo. Al tener la certeza de que los datos usados para el entrenamiento y evaluación son ciertos, podemos conocer el grado de precisión del mismo.

Hay que tener en cuenta que este ejemplo es una simplificación, ya que este artículo no profundiza en cuestiones técnicas. Además, la realidad siempre es más compleja. Sin embargo, esta descripción básica puede ayudarnos a entender que al final del proceso tendremos un modelo que usaremos para tareas predictivas, un patrón, ya sea detectando una sonrisa en una foto, un perro o el valor de una vivienda.

Una de las cualidades del Machine Learning es que el mismo sistema puede ser usado con datos diferentes. Por ejemplo, las redes neuronales convolucionales son el mecanismo más usado para detectar elementos en imágenes y clasificarlos, pero la misma red también vale para clasificar texto. Ese proceso iterativo de adquisición de experiencia, vale tanto para datos de una imagen (pixels, color), como para los datos de un texto (caracteres, palabras).

En este artículo hemos mencionado un tipo de aprendizaje y modelo, pero existen diferentes tipos de modelos: clasificación binaria, multiclase, regresión… Y además del aprendizaje supervisado, existe el aprendizaje profundo y el reforzado, que responden a propósitos diferentes. El Machine Learning es un campo complejo, amplio y en perpetuo cambio. Pero es importante entender su dimensión para contemplar sus posibles desafíos. Si te has quedado con ganas de saber más, el canal de youtube Dot CVS podría ser un buen punto de partida para profundizar en estos temas.

La responsabilidad de la predicción

En Biko y más especialmente en Bikolabs llevamos tiempo reflexionando y trabajando sobre Machine Learning, una disciplina de la que es difícil quedarse al margen por las implicaciones que tiene. La madurez en Bigdata, la accesibilidad de entornos en la nube específicos y la consolidación de herramientas para estos campos han convertido el 2018 en un año muy prolífico para el Machine Learning.

En Bikolabs nos gusta acercarnos a las tendencias desde sus periferias y en el caso del Machine Learning, nuestro punto de entrada ha sido la periferia creativa. Hace dos años creamos el Receteitor, un proyecto que realizamos para la Conferencia Internacional de Gastronomía “Diálogos de Cocina”. Este proyecto fue una primera exploración al uso de este tipo de tecnología para exagerar las posibilidades que nos ofrece, algo que bordea lo grotesco. De la misma manera que un teclado del móvil nos anticipa la siguiente palabra, nuestro Receteitor nos da la siguiente receta. El modelo de Machine Learning (RNN) tiene la particularidad de predecir la siguiente serie usando el conjunto de datos con el que lo has entrenado. En nuestro caso lo hicimos con un libro de 900 recetas de cocina. Todo era una provocación para preguntarle a los y las cocineros: ¿podrá una máquina crear recetas de cocina?

El resultado:

Bueno, el resultado puede ser algo indigesto:

El mundo del arte tiene la particularidad de no restringirse a necesidades funcionales, lo que le permite ahondar en cuestiones morales, estéticas o políticas en los ámbitos donde actúa. El Machine Learning ha sido un lugar poderoso para muchos artistas durante estos últimos años. Proyectos como “The Next Rembrandt” de Microsoft o “Magenta Make music and Art using Machine Learning” de Google son ejemplos conocidos y que en Bikolabs usamos como inspiración.

Pero incluso en el arte, la Inteligencia Artificial tiene un reverso oculto: el pasado octubre la casa de subastas Christie’s vendió la primera obra creada por una Inteligencia Artificial (como literalmente se describía). La venta de la obra por cuatrocientos mil euros al colectivo Obvious se vio envuelta en una polémica con implicaciones profundas que fue recogida en el gran artículo de Jason Bailey “The AI Art At Christie’s Is Not What You Think”. En una primera parte del artículo, se repasan los principales artistas y pioneros que usan Inteligencia Artificial y Machine Learning para sus obras; y en la segunda profundiza sobre agencia y creatividad y señala cómo estamos otorgando entidad propia a estas máquinas, algo cuanto menos delicado. En definitiva: el artículo pone en cuestión la autoría de la obra por parte de una Inteligencia Artificial y lo hace describiendo estos cuatro puntos:

Un humano eligió el conjunto de datos.

Un humano diseñó la red.

Un humano entrenó la red.

Un humano curó los resultados resultantes.

Ahora parémonos un momento. Esto, que ya resulta complicado por lo subjetivo del arte, ¿cómo afectaría a una organización?.

Darle el rango de creativo o de inteligente a una creación artificial tiene impacto mediático, pero igual no tiene el efecto que esperábamos. Como cuando Microsoft publicó su bot y ese mismo día lo retiraba por su contenido xenófobo, o como cuando recientemente saltó la noticia de que el sistema de ayuda a la contratación de Amazon tenía un claro sesgo machista.

Puede que hayamos subestimado la capacidad de estas herramientas, del mismo modo que puede que les hayamos otorgado capacidades creativas como para crear cuadros a pesar de la intervención humana.

Los resultados que ofrecen las soluciones basadas en Inteligencia Artificial y más concretamente el Machine Learning son muy llamativos. Pero tenemos que tener cuidado con no confundir certeza con predicción. Recientemente Jesse Engel, investigador de Google Brain, comentó:

“Comencé a reemplazar mentalmente los términos de moda como ‘Inteligencia Artificial’, ‘Red neuronal’ y otros del estilo por ‘Modelos Predictivos’. Elimina una falsa sensación de agencia y refleja mejor la realidad y reduce el factor de exageración en un 300%”.

Como en el caso de la obra de Christie’s en los sistemas predictivos, cuando se habla de Inteligencia Artificial, especialmente de Machine Learning, de lo que estamos hablando es de crear máquinas predictivas donde la mediación humana es clara, pero da la sensación de que preferimos creer en la magia.

En muchos casos, estas máquinas mejoran las predicciones con respecto a métodos anteriores, incluso en algunos de ellos los resultados son espectaculares. Que un asistente de voz nos entienda y nos hable nos parece impresionante, pero también nos deja una sensación extraña. Una sensación que se puede percibir en el documental AlphaGo, cuando la máquina gana al hombre. Viéndolo, al menos en nuestro caso, nos asalta una profunda duda: ¿Tenemos seguridad sobre estas predicciones? ¿Sabemos el margen de error de esa predicción?

En el aprendizaje automático las reglas están definidas, pero el propio diseño de las redes neuronales hace muy complicado dar con respuestas claras sobre cómo se ha llegado a esa predicción. Esto no parece problemático cuando la predicción juega a nuestro favor; pero qué pasará cuando la predicción vaya en contra de uno mismo y se den situaciones en las que necesitemos preguntar a la máquina:

“¿Por qué no me das la Hipoteca?”

“¿Por qué se salió el coche autónomo?”

“¿Por qué este diagnostico médico?”

Lerner (1980) propone que los individuos necesitamos creer que el mundo es un lugar justo para enfrentar su ambiente físico y social como algo ordenado y controlado (“Creencia en el mundo justo”). Entonces, ¿cómo lidiar con esta necesidad psicológica humana cuando no sea posible obtener respuesta de la máquina a esas preguntas?

En el artículo La caja negra, la metáfora del Machine Learningadvierte:

“En general, todo el sistema de Machine Learning está abierto a inspección. Además, está completamente compuesto de componentes simples que se entienden fácilmente de forma aislada. Sin embargo, incluso si conocemos el propósito del sistema en general, no hay necesariamente una explicación sencilla que podamos ofrecer acerca de cómo funciona el sistema, aparte del hecho de que cada componente individual opera de acuerdo con sus propias reglas, en respuesta a la información de entrada.

En otras palabras, el cómo del sistema es completamente transparente, pero el por qué es potencialmente incomprensible.”

Por otro lado, sabemos que predecir el futuro es imposible, pero constantemente nos dicen que una Inteligencia Artificial o herramientas basadas en Machine Learning lo han logrado; y lo hacen con titulares como Los algoritmos también podrían detectar ansiedad y depresión en niños” o, “Según expertos, la Inteligencia Artificial podría detectar amenazas cibernéticas invisibles para los humanos .

Como decía Umberto Eco, “Cuando la tecnología no se entiende la podemos confundir con la magia” .

Pero esto no es magia. Esto son modelos predictivos que pueden condicionar nuestras vidas como rescatamos en el párrafo (traducido) del artículo “Don’t Believe Every AI You See”:

“Ali Rahimi, un destacado investigador científico de Google, desató una polémica durante su discurso de aceptación después de recibir el premio ‘Test of Time’. Rahimi propuso de manera provocativa que ‘el aprendizaje automático se ha convertido en alquimia’. Argumentó que, aunque la alquimia ‘funcionaba’, se basaba en teorías no verificables, muchas de las cuales resultaron ser falsas, como la curación de enfermedades con lixiviados o la transmutación del metal en oro. El paralelismo se halla en que muchos modelos actuales de aprendizaje automático, especialmente aquellos que involucran el uso de redes neuronales o el aprendizaje profundo, son poco comprendidos y subteorizados. Parece que funcionan, y eso es suficiente. Aunque esto puede no importar en todos los casos, enfatizó Rahimi, es crucial cuando se trata de sistemas que cumplen funciones sociales importantes en campos como la atención médica y la justicia penal, o en tareas como la determinación de la solvencia crediticia y la curación de noticias. Y concluyó: ‘Me gustaría vivir en un mundo cuyos sistemas se basan en conocimientos rigurosos, fiables y verificables, y no en la alquimia.’”

En Bikolabs estamos trabajando y explorando lo que aporta la Inteligencia Artificial y el Machine Learning. Somos conscientes del impacto que está teniendo tanto para las organizaciones como para la vida cotidiana, por lo que estamos dedicando un esfuerzo importante a este estudio. El pasado 2018 presentamos dos proyectos (donde quedamos finalistas) sobre este ámbito: uno para la Fundación Cotec con el proyecto “Cuando las máquinas decidan por nosotros” y otro para la Fundación Mozilla con el proyecto “Migrants vs I.A.”. También hemos realizado un primer proyecto con la Asociación Española Contra el Cáncer donde trabajamos en la relación entre gestión de contenidos y Machine Learning. Hemos integrado Drupal con un sistema de procesamiento del lenguaje natural (PNL), una red neuronal convolucional (CNN) que nos permite la clasificación de texto.

Como venimos diciendo, predecir es una cosa y la certeza es otra. Pero en el momento en el que las mezclamos estamos más cerca de la magia que de la ciencia.

Nosotros no tenemos respuestas, pero pensamos que la ética y el pensamiento crítico es fundamental para abordar proyectos con Machine Learning. Y ese es nuestro camino, el de la búsqueda de la mejor manera para hacerlos.

La certeza y la magia deberían quedar en el arte.