Logros de Google Brain en el 2017

Omar Sanseviero
AI Learners
Published in
5 min readJan 21, 2018

Google Brain es uno de los centros de investigación de AI más prestigiosos del mundo. En los últimos años, cientos de proyectos de alto impacto han tanto en el mundo académico como en la industria han surgido ahí. En este post hablaremos de los siete mayores logros que tuvo Google Brain en el 2017.

AutoML

Para enfrentar nuevos problemas de Machine Learning, se suelen necesitar equipos de ingenieros y científicos para diseñar soluciones customizadas al problema en específico. Cuando se trata de redes neuronales, hay miles de variables que pueden afectar su comportamiento, por ejemplo.

Para facilitar y hacer asequible el diseño y desarrollo de redes neuronales, AutoML fue creado con el objetivo de automatizar el desarrollo de modelos de Machine Learning sin tener que ser supervisados para cada nuevo problema. AutoML usa una red neuronal “controladora” que propone nuevas arquitecturas dada las especificaciones de un problema. Esta técnica logró resultados muy prometedores en diferentes áreas como detección de objetos y fclasificación de imágenes. Esto llevó a que hace pocos días se lanzara Cloud AutoML, una herramienta de Google Cloud que te permite construir modelos eficientes para tus problemas específicos con facilidad en la nube.

AutoML propone nuevas arquitecturas de redes neuronales

Detección de cáncer

Aunque se habla mucho de cómo las máquinas quitarán trabajos, no se habla tanto de cómo la Inteligencia Artificial puede ser una herramienta asistiva extremadamente útil. En este caso, Google Brain logró crear un modelo que asiste a los patologistas a detectar cáncer. Ciertos tipos de cáncer son especialmente difícil de detectar aunque se tenga mucha experiencia.

Este algoritmo marca las diferentes zonas de la imagen según su probabilidad de tener cáncer

Los intentos iniciales lograron reducir el error humano en un 85%. En cuanto a un puntaje de ubicación de tumor, lograron una precisión de 89% (mientras que un patologista logró 73% sin límite de tiempo). El modelo logró generalizar y funcionar bien para imágenes de diferentes lugares.

Redes de cápsula

Probablemente uno de los logros que más ha movido a la comunidad académica, las redes de cápsula tienen el potencial de cambiar el desarrollo de redes neuronales cuando se trata de imágenes. Las redes de cápsula tienen la capacidad de entender las imágenes en un nivel bajo (posición, orientación, tamaño). Geoffrey Hinton, el que escribió este paper y uno de los padres de Deep Learning, lleva décadas pensando en esta propuesta.

Lo interesante de esta propuesta es que permite a las redes neuronales analizar las imágenes de una manera más parecida a la del cerebro humano. Nosotros podemos identificar un objeto desde diferentes ángulos. Las redes neuronales anteriores han tenido problemas cuando pasa esto. Las redes de cápsula eliminan este problema. Si quieres aprender más del tema, puedes checar esta serie de artículos.

Sin importar el ángulo o los contrastes, las cápsulas logran entender que se trata de lo mismo.

Robots que aprenden de ver a humanos

Aunque se ha hecho mucho trabajo en que los robots aprendan de experiencia o de ambientes simulados, este proyecto es interesante porque se han desarrollado algoritmos de aprendizaje que pueden aprender a partir de observar las demostraciones humanas. Programar robots para hacer movimientos puede ser un proceso muy complicado, lo que hace este proyecto es prometedor porque permite hacerlo muy rápido y sin programación explícita.

¿Cómo funciona? Se utiliza un modelo de aprendizaje no supervisado. Se muestra un video con la acción que se quiere imitar (abrir la puerta, servir un vaso de agua, etc) y el robot va aprendiendo mientras más iteraciones ve. El aprendizaje no supervisado es un área con muchos retos en sí, por lo que este proyecto tiene aún más crédito.

Datasets

Aunque los algoritmos y técnicas de AI son extremadamente interesantes, estos no serían nada sin datos. Google contribuye mucho a la comunidad científica con datasets abiertos para promover la investigación de Machine Learning. Algunos de estos son:

  • YouTube 8M — Más de 7 millones de videos anotados con casi 5mil clases.
  • YouTube BoundingBoxes — 5 millones de cajas que siguen a objetos a través de los videos (más de 200mil).
  • Open Images — 9 millones de imágenes con más de 6mil clases.
Open Images clasifica partes de la imagen según sus clases

Deeplearn.js

Aunque gran parte de la investigación se enfoca en impulsar el conocimiento, también se hace mucha investigación para rediseñar nuestra relación con ML y hacerlo asequible. Con esto en mente, Deeplearn.js fue lanzado: una librería de ML que corre completamente en el browser sin tener que hacer nada más. Esto da lugar a explicaciones interactivas, prototipado, visualizaciones y mucho más.

En la página hay ejemplos interesantes como Teachable Machine, un modelo de visión por computadora (CV) que se entrena con la cámara, y Performance RNN, una red neuronal que compone en tiempo real. Dentro de poco, tú podrás entrenar tus modelos con TensorFlow y lanzarlos en tu página con Deeplearn.js!

Enseñar a máquinas a dibujar

Para cerrar, uno de los proyectos más conocidos, Google publicó una red neuronal generativa capaz de hacer dibujos de objetos comunes. ¡Pruébalo tú mismo!

Este proyecto es interesante por enfocarse en representaciones abstractas y más sencillas de los objetos. Esta red neuronal tiene muchas aplicaciones diferentes: desde una herramienta para asistir a gente que necesita hacer dibujos sencillos rápidamente, hasta para entender las claves diferenciadoras entre diferentes objetos.

A partir de dibujos humanos, esta red neuronal es capaz de aprender a reconstruirlas.

Esperamos que este post te haya gustado. Si quieres aprender más, únete a nuestro Meetup y síguenos en Facebook y Twitter.

--

--