Newsletter febrero 2020

Image for post
Image for post

2020

El nuevo año ha empezado con fuerza. ¡Hasta tenemos Gobierno!

Ha sido, como decía, un intenso comienzo de año que me ha despistado un poco, y la newsletter no ha salido, como debería, el primer domingo de febrero, pero ya está aquí.

Además centrada en algo que me habéis pedido muchos de vosotros: la Inteligencia Artificial. En qué punto está, qué pienso de ella, cómo funciona…

Quizás me he extendido un poco más de lo habitual, pero el tema así lo requiere.

Y, como siempre, termino con unas recomendaciones de libros que me he leído estas semanas.

Gracias una vez más por seguir ahí, bienvenidos los nuevos suscriptores. Ah! y gracias también por seguir añadiendo temas a la playlist de Spotify.

Espero que os resulte interesante y aquí me tenéis para todo aquello que queráis sugerir.

¿Qué os cuento?

Pues que no hay duda en afirmar que la Inteligencia Artificial ofrece muchas ventajas a las organizaciones haciendo que estás sean mejores y más eficientes, mejora los servicios de atención al cliente con la IAconversacional, es capaz de reducir una amplia variedad de riesgos en diferentes sectores, detectar enfermedades antes que los humanos, poner patas arriba el sector financiero y asegurador… e incluso ser los mejores broker de Wall Street.

Todo esto salta a la vista, y eso que estamos sólo en el comienzo de la revolución de la IA. Está aquí para quedarse y tendrá un profundo efecto en nuestras vidas, tanto positivo como negativo.

Se estima que el impacto financiero de la IA en la economía mundial alcanzará los 15,7 trillones de dólares en 2030, y se prevé que el 40% del empleo que existen tal y cómo lo conocemos hoy, se perderá debido a la Inteligencia Artificial, dando lugar a otros totalmente diferentes, y la inversión mundial de capital de riesgo en IA aumentó creciendo hasta superar los 27.000 millones de dólares en 2018 y 2019, a falta de datos definitivos, ha crecido mucho más. Estas estimaciones del potencial de la IA se relacionan directamente con una mayor comprensión de su naturaleza y aplicabilidad.

El rápido desarrollo de la IA
La IA consistirá eventualmente en formas de inteligencia totalmente novedosas e irreconocibles, y podemos ver las primeras señales de esto en los rápidos desarrollos que están teniendo lugar.

Como ya hablamos en la newsletter de hace un par de meses, en 2017, Deepmind de Google desarrolló AlphaGo Zero, una Inteligencia Artificial que aprendió el juego de mesa de estrategia abstracta Go con un rango de movimientos mucho más amplio que el del ajedrez. En tres días, al jugar miles de partidas contra sí mismo, y sin el requisito de grandes volúmenes de datos, que normalmente se requerirían en el desarrollo de una Inteligencia Artificial, la IA venció al AlphaGo original, un algoritmo que había vencido al 18 veces campeón del mundo Lee Sedol.

A finales de 2018, Deepmind fue aún más lejos al crear AlphaStar. Este sistema de IA jugó contra dos jugadores del gran maestro StarCraft II y ganó. En una serie de pruebas, nuestro jugardo artificial ganó 5–0. Gracias a una profunda red neuronal, entrenada directamente a partir de los datos brutos del juego mediante un aprendizaje supervisado y de refuerzo, fue capaz de asegurar la victoria. Superó rápidamente a los jugadores profesionales gracias a su capacidad para combinar objetivos a corto y largo plazo, responder adecuadamente a las situaciones, incluso después de recibir información no real al 100%, y adaptarse a los acontecimientos inesperados

En noviembre de 2018, la agencia de noticias estatal china Xinhua desarrolló un presentador virtual con IA para presentar el telediario, simulando la voz, los movimientos faciales y los gestos de los presentadores humanos.l

A principios de 2019, OpenAI, la ahora organización de investigación de la IA con fines de lucro fundada originalmente por Elon Musk, creó el GPT2. El sistema de IA es tan eficiente en la escritura de un texto basado en sólo unas pocas líneas de entrada que OpenAI decidió no dar a conocer la investigación exhaustiva al público, por temor a un mal uso. Desde entonces, han salido varios proyectos similares.

Unos meses más tarde, en abril de 2019, OpenAI entrenó a cinco redes neuronales para vencer a un equipo campeón mundial de deportes electrónicos en el juego Dota 2, un complejo juego de estrategia que requiere que los jugadores colaboren para ganar. Los cinco bots habían aprendido el juego jugando contra sí mismo a un ritmo de unos asombrosos 180 años por día.

En septiembre de 2019, los investigadores de OpenAI entrenaron a dos IA opuestas para jugar al juego del escondite. Después de casi 500 millones de partidas, los dos jugadores artificiales fueron capaces de desarrollar complejas estrategias de ocultación y búsqueda que implicaban el uso de herramientas y la colaboración.

Image for post
Image for post

La IA también se está moviendo rápidamente fuera del ámbito de la investigación. La mayoría de nosotros empleamos con total naturalidad los sistemas de recomendación de Netflix, Spotify o Amazon; asistentes virtuales como Siri, Alexa o Google Home, o en terrenos más técnicos, los ‘abogados’ como ROSS, sistemas ‘médicos’ como IBM Watson o sistemas instalados en los coches autónomos desarrollados por Tesla, sin querer olvidarme del reconocimiento facial desarrollado por numerosas empresas y que tan poco me gusta como ya sabéis. Ya véis, la Inteligencia Artificial está aquí y lista para cambiar nuestra sociedad.

El rápido desarrollo de la IA deberían inquietarnos e interesarnos
¿Por qué?, porque aunque la IA se está desarrollando a un ritmo tan rápido, todavía está lejos de ser perfecta porque, para empezar, está sesgada, y esto es un problema serio y que plantea un serio desafío, ya que la Inteligencia Artificial es entrenada usando datos sesgados y desarrollada por humanos sesgados.

Esto ha dado como resultado muchos ejemplos de IA que se han vuelto corruptos, incluyendo sistemas de reconocimiento facial que no reconocen a las personas con determinadas características o que Google Translate traduce con sesgo de género (el idioma turco es neutral en cuanto al género, pero Google intercambia el género de los pronombres al traducir).

Image for post
Image for post

También hemos visto muchos ejemplos en los que la IA se ha usado para causar daño deliberadamente, como las fake news o cámaras de reconocimiento facial que invaden la privacidad, sin olvidar, que los modelos de Machine Learning también pueden ser fácilmente engañados utilizando un ‘filtro de ruido, donde al añadir, algo tan simple como una etiqueta adhesiva junto a una imagen, se cambia completamente el resultado.

Image for post
Image for post

El caso es que aunque los investigadores están desarrollando rápidamente una IA muy avanzada, todavía hay muchos problemas con la IA cuando la llevamos al mundo real. Cuanto más avanzada se vuelve la IA, y cuanto menos entendemos el funcionamiento interno de la IA, más problemático se vuelve.


Necesitamos desarrollar una Inteligencia Artificial responsable
Los gobiernos y organizaciones están en una pseudo, o sin pseudo, ‘carrera armamentista’ de la IA para ser los primeros en desarrollar la Inteligencia General Artificial (AGI) o la Súper Inteligencia Artificial (SAI). La AGI se refiere a los sistemas de IA que tienen autocontrol y autocomprensión autónomos y la capacidad de aprender cosas nuevas para resolver una amplia variedad de problemas en diferentes contextos. La SAI es una inteligencia que excede con creces la de cualquier persona, por muy inteligente que sea. SAI sería capaz de manipular y controlar a los seres humanos así como a otros agentes inteligentes artificiales y lograr su dominio. La llegada de SAI será el acontecimiento más significativo de la historia de la humanidad, y si nos equivocamos, tenemos un grave problema.

Por lo tanto, necesitamos cambiar nuestro enfoque de desarrollar rápidamente la IA más avanzada a desarrollar una IA responsable, donde las organizaciones ejerzan un estricto control, supervisión y monitoreo sobre el desempeño y las acciones de la IA.

Los fallos en el logro de una IA responsable pueden dividirse en dos categorías no excluyentes entre si: fallos filosóficos y fallos técnicos. Los desarrolladores pueden construir lo, llamémoslo incorrecto, de manera que aunque se logre una IA o una EFS, no será beneficiosa para la humanidad. O los desarrolladores pueden intentar hacer lo correcto pero fracasar por falta de conocimientos técnicos, lo que nos impediría alcanzar la AGI o la SAI en primer lugar. La frontera entre estos dos fracasos es delgada, porque ‘en teoría, primero debes decir lo que quieres, y luego averiguar cómo conseguirlo’. En la práctica, a menudo se necesita una profunda comprensión técnica para averiguarlo.

No todo el mundo cree en los riesgos existenciales de la IA, simplemente porque dicen que la IA o la SAI no causarán ningún problema o porque si los riesgos existenciales existen de hecho, la IA misma resolverá estos riesgos, lo que significa que en ambos casos no pasa nada.

No obstante, es probable que la IA sea extremadamente poderosa, y peligrosa, si no se controla adecuadamente. Simplemente porque AGI y SAI serán capaces de remodelar el mundo según sus preferencias, esto puede no ser favorable para el ser humano. No porque nos vaya a odiar, simplemente porque no le importamos.

Es lo mismo que podría ‘salirse de su camino’ para evitar pisar una hormiga cuando da un paseo, pero no le importaría un gran hormiguero si se encontrara en un lugar donde se planea construir un nuevo edificio. Además, SAI será capaz de resistir cualquier control humano. Como tal, AGI y SAI ofrecen riesgos totalmente distintos a los que nos hemos enfrentado en el pasado, lo que requiere un importante cambio de enfoque.

Los algoritmos son literales
Para empeorar las cosas, los algoritmos, y por lo tanto la IA, son extremadamente literales. Persiguen su objetivo final literalmente y hacen exactamente lo que se les dice mientras ignoran cualquier otra consideración importante. Un algoritmo sólo entiende lo que se le ha dicho explícitamente. Los algoritmos no son todavía, y tal vez nunca lo sean, lo suficientemente inteligentes para saber lo que no saben. Como tal, podría pasar por alto consideraciones vitales que los humanos podríamos haber pensado automáticamente.

Por lo tanto, es importante decirle a un algoritmo tanto como sea posible al desarrollarlo. Cuanto más le digas más tendrá en cuenta. Además, cuando se diseña se debe ser muy claro sobre lo que se quiere que haga y no haga.

Los algoritmos se centran en los datos a los que tienen acceso y a menudo esos datos tienen un enfoque a corto plazo.Los humanos entienden la importancia de un enfoque a largo plazo. A los algoritmos hay que decirles que lo hagan.

Los desarrolladores, y los ‘jefes de los algoritmos’, deben asegurarse de que los éstos sean coherentes con cualquier objetivo a largo plazo que se haya establecido dentro del área de interés. Esto puede lograrse ofreciendo una mayor variedad de fuentes de datos (el contexto) para incorporar en sus decisiones y centrándose también en los llamados objetivos blandos (que se refieren a los comportamientos y actitudes de los demás). La utilización de una variedad de fuentes de datos centradas en el largo y el corto plazo, así como la oferta de algoritmos de objetivos blandos y objetivos duros, ayudará a crear un algoritmo estable.


Enfoque imparcial y mixto de datos para incluir el contexto más amplio
Aparte de los objetivos correctos, el aspecto más crítico en el desarrollo de la IA correcta es utilizar datos no sesgados para entrenarla, así como minimizar la influencia del desarrollador sesgado. Un enfoque en el que la IA aprende jugando contra sí misma y sólo se le dan las reglas del juego puede ayudar en ese caso.

Sin embargo, no toda IA puede desarrollarse jugando contra sí misma. Muchos sistemas requieren datos,, y no sesgados. Cuando se entrena, un enfoque de datos mixtos puede ayudar a calibrar las diferentes fuentes de datos en función de su importancia relativa, lo que da lugar a mejores predicciones y mejores algoritmos. Cuantas más fuentes de datos y cuanto más diversas sean éstas, mejores serán las predicciones de los algoritmos.

Esto permitirá que la IA aprenda de su entorno y mejore con el tiempo gracias al Deep Learning y al Machine Learning. La IA no está limitada por la sobrecarga de información, situaciones complejas y dinámicas, falta de comprensión completa del entorno o exceso de confianza en su propio conocimiento o influencia. Puede tener en cuenta todos los datos, información y conocimientos disponibles y no está influenciada por las emociones.

Aunque el aprendizaje de refuerzo, y cada vez más la transferencia de aprendizaje, aplicando los conocimientos aprendidos en un ámbito diferente pero relacionado, permitiría a la IA reelaborar su funcionamiento interno, ésta todavía no es sensible, consciente o autoconsciente. Es decir, no puede interpretar el significado de los datos. Y me explico, la IA puede reconocer a un perro, pero no sabe lo que es un perro. Para la IA, un perro es una colección de intensidades de píxeles, no un mamífero carnívoro que a menudo tenemos como mascota los humanos, aunque quizás tampoco podamos decir mascota… pero ese es otro tema. Tenía que decirlo, perdón.

La Inteligencia Artificial son cajas negras
Otro problema con la IA es que son ‘cajas negras’. A menudo, no sabemos por qué un algoritmo llega a una determinada decisión. Pueden hacer grandes predicciones, en muchísimos temas, pero eso no significa que las decisiones que toma estén libres de errores. Al contrario. La IAconserva los sesgos inherentes al conjunto de datos y su código subyacente’, lo que da lugar a resultados sesgados que podrían infligir un daño significativo, como dice Cathy O’Neil en su libro ‘Weapons of math destruction

Además, ¿cuánto valen estas predicciones, si no entendemos el razonamiento que hay detrás de ellas? La toma de decisiones automatizada es genial hasta que tiene un resultado negativo para nosotros o nuestra empresa, y no puede cambiar esa decisión o, al menos, entender el razonamiento detrás de esa decisión.

Lo que ocurre dentro de un algoritmo a veces sólo lo conoce la organización que lo utiliza, pero a menudo esto también va más allá de su comprensión. Por lo tanto, es importante tener capacidades explicativas dentro del algoritmo, para entender por qué se tomó cierta decisión.


La necesidad de una Inteligencia Artificial explicable
El término IA Explicable (XAI) se acuñó por primera vez en 2004 como una forma de ofrecer a los usuarios de la IA una cadena de razonamiento fácilmente comprensible sobre las decisiones tomadas ella, en este caso especialmente para los juegos de simulación. El XAI se refiere a las capacidades explicativas dentro de un algoritmo para ayudar a comprender por qué se tomaron ciertas decisiones. Con las máquinas que adquieren más responsabilidades, deberían ser responsables de sus actos. El XAI debería presentar al usuario una cadena de razonamiento fácil de entender para su decisión. Cuando la IA es capaz de hacerse las preguntas adecuadas en el momento oportuno para explicar una determinada acción o situación, básicamente depurando su propio código, puede crear confianza y mejorar el sistema general.

La IA explicable debería ser un aspecto importante de cualquier algoritmo. Cuando el algoritmo puede explicar por qué se han tomado, o deberían, ciertas decisiones y cuáles son los puntos fuertes y débiles de esa decisión, el algoritmo se hace responsable de sus acciones. Al igual que los humanos. Entonces puede ser alterado y mejorado si se vuele sesgado o demasiado literal, consiguiendo una mejor Inteligencia Artificial para todos.

La Inteligencia Artificial ética y por qué es tan difícil de conseguir
Una IA responsable puede lograrse, como ya he dicho, utilizando datos no sesgados, minimizando la influencia de los desarrolladores sesgados, teniendo un enfoque de datos mixtos para incluir el contexto y desarrollando una IA que pueda explicarse a sí misma. El paso final para desarrollar una IA responsable es incorporar la ética.

La IA ética es completamente diferente de la XAI, y es un enorme desafío. La dificultad de crear una IAcapaz de tener un comportamiento ético es que la ética puede ser variable, contextual, compleja y cambiante. La ética de hace 300 años no es la misma en el mundo de hoy. Lo que hoy consideramos ético puede ser ilegal mañana. Como tal, no queremos que la ética en la IA sea permanente, ya que podría limitar su potencial y afectar a la sociedad.

La ética en ete campo es un tema realmente difícil porque el comportamiento futuro de las formas avanzadas de una IA auto-mejorada es difícil de entender y prever, y más si la IA cambia su funcionamiento interno sin proporcionar información sobre ella; de ahí la necesidad de la XAI. Por lo tanto, la ética debe formar parte del diseño de la Inteligencia Artificial hoy en día para asegurarnos que sea parte del código. Sin embargo, algunos expertos argumentan que las elecciones éticas sólo pueden ser hechas por seres que tienen emociones, ya que las elecciones éticas están generalmente motivadas por éstas.

Ya en 1677, Benedicto de Spinoza, uno de los grandes racionalistas de la filosofía del siglo XVII, definió la agencia moral como ‘una acción racional motivada por las emociones para preservar la propia existencia física y mental dentro de una comunidad de otros actores racionales’. Sin embargo, ¿cómo afectaría eso a los actores artificiales y cómo cambiaría la ética de la IA si uno ve a ésta como cosas morales que son sensibles y sabias? Cuando pensamos en aplicar la ética en un contexto artificial, debemos tener cuidado de ‘no confundir los principios éticos de nivel medio con las verdades fundamentales’.


Buenas y malas decisiones
Además, el problema que enfrentamos cuando desarrollamos la ética de la Inteligencia Artificial, o la ética de la máquina, es que se relaciona con las decisiones buenas y malas. Sin embargo, no está claro lo que significa bueno o malo. De hecho, significa algo diferente para cada uno de nosotros y puede cambiar en función de nuestro momento vital. Lo que se define como bueno en el mundo occidental podría considerarse malo en la cultura asiática y viceversa. Además, es probable que la ética de las máquinas sea superior a la ética humana.

En primer lugar, porque los humanos tienden a hacer estimaciones, mientras que las máquinas generalmente pueden calcular el resultado de una decisión con más precisión. En segundo lugar, porque los humanos no necesariamente consideran todas las opciones y pueden favorecer la parcialidad, mientras que las máquinas pueden considerar todas las opciones y ser estrictamente imparciales. En tercer lugar, las máquinas no son emocionales, mientras que en el caso de los humanos, las emociones pueden limitar la capacidad de tomar decisiones o ser de mucha utilidad. Aunque es probable que la ética de la Inteligencia Artificial sea superior a la ética humana, todavía está muy lejos.

Los desafíos técnicos para inculcar la ética en los algoritmos son numerosos porque, a medida que aumenta su impacto social, aumentan también los problemas éticos. Sin embargo, el comportamiento de la IA no sólo se ve influido por los modelos matemáticos que componen el algoritmo, sino también por los datos que el algoritmo procesa. Como decía antes, los datos mal preparados o sesgados dan lugar a resultados incorrectos: ‘la basura que entra es basura que sale’. Si bien la incorporación de un comportamiento ético en los modelos matemáticos es una tarea de enormes proporciones, la reducción del sesgo en los datos puede lograrse más fácilmente utilizando el data governance.

El concepto teórico de la voluntad coherente extrapolada
Los datos de alta calidad e imparciales, combinados con los procesos adecuados para garantizar un comportamiento ético en un entorno digital, podrían contribuir significativamente a una IA que pueda comportarse éticamente. Por supuesto, desde un punto de vista técnico, la ética es algo más que el mero uso de datos de alta calidad e imparciales y el establecimiento de los procesos de gestión adecuados. Incluye inculcar a la IA los valores éticos adecuados que sean lo suficientemente flexibles para cambiar con el tiempo.

Para lograr esto, necesitamos considerar la moral y los valores que aún no se han desarrollado y eliminar los que podrían estar equivocados. Para entender lo difícil que es esto, veamos cómo Nick Bostrom, Profesor de la Facultad de Filosofía de la Universidad de Oxford y Director fundador del Instituto del Futuro de la Humanidad, y Eliezer Yudkowsky, un teórico de la Inteligencia Artificial preocupado por la auto-mejora de la IA, describen el logro de la IA ética:

El concepto teórico de la ‘voluntad extrapolada coherente’ (CEV) es nuestra mejor opción para inculcar los valores de la humanidad en la IA. La CEV es cómo construiríamos la IA si ‘supiéramos más, pensáramos más rápido, fuéramos más las personas que deseamos ser, hubiéramos crecido más juntos; donde la extrapolación converge en lugar de divergir, donde nuestros deseos se unen en lugar de interferir; extrapolado como deseamos que se extrapole, interpretado como deseamos que se interprete’.

Como puede ser evidente por el CEV, lograr una IA ética es una tarea muy difícil que requiere una atención especial si queremos construir una IA responsable. Los interesados que participan en el desarrollo de una IA avanzada deben desempeñar un papel fundamental en el logro de esa ética en la Inteligencia Artificial.

Ya véis, esto no es nada sencillo.

La Inteligencia Artificial se va a convertir en algo muy importante y presente en nuestras vidas pero, sin embargo no sabemos muy bien lo que la IA nos traerá en el futuro, porque, como humanos, todavía daremos muchos pasos en falso antes de lograr una IA responsable.

El machine learning tiene enormes riesgos, y aunque se requieren amplios procesos de prueba y control, no todas las organizaciones lo harán por diversas razones, muchas veces presupuestarias, desconocimiento, inconsciencia…

Solo aquellas que apliquen la gestión adecuada de los interesados para determinar si la IA va por buen camino o no y tirar o ajustar los parámetros en torno a ella si no lo está, tendrán la mejor oportunidad de beneficiarse de la IA.

Como sociedad, debemos asegurarnos de que todas las organizaciones, incluidos los gobiernos, se adhieran a la utilización de datos imparciales, a la minimización de la influencia de los promotores sesgados, a la adopción de un enfoque de datos mixtos para incluir el contexto, a la elaboración de una IA que pueda explicarse por sí misma y a la inclusión de la ética en la IA.

Al final, la IA puede aportar, y ya lo está haciendo, muchas ventajas a todos, pero requiere una regulación y métodos de control adecuados, que todavía están por definir, para evitar que los ‘malos de la película’ creen una IA a su imagen y semejanza y para evitar que la bien diseñada se vuelva corrupta.

Una tarea de enormes proporciones, pero que no podemos ignorar. Por el bien de la Inteligencia Artificial. Por nuestro bien como sociedad.

Nos leemos en marzo! ;)

Lecturas recomendadas

Mediocracia. Cuando los mediocres toman el poder. Alain Deneault. El cuarto de las maravillas 2019. Un análisis sobre cómo las aspiraciones mediocres que invaden nuestra sociedad están dando como resultado ciudadanos también mediocres.

Si puede, no vaya al médico Doctor Sitges-Serra. Debate 2020. Un ibro que hace pensar y actuar de otra manera. Un análisis de la medicina actual desde una perspectiva humanista que muestra un sistema insano que necesita cambios urgentemente.

Jesuitas, liderar talento libre. Javier Fernández Aguado. LID Editorial 2018. Enseñanzas de la Compañía de Jesús durante los últimos cinco siglos aplicables hoy. Un modelo basado en la motivación de las personas con habilidades que actúan con sana autonomía. ‘El liderazgo no se desborda en soluciones de opresión, sino que se administra en libertad’.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store