¿En verdad debemos preocuparnos por la rebelión de las máquinas?

FOROtv
Opinión con Foro
Published in
9 min readJul 4, 2016
(AP Photo/Jerome Favre)

Sarah Connor camina con paso lento hasta el enrejado en lo alto de la colina. Se observa a sí misma, con peinado ochentero y dedicado delantal, jugando con su hijo John en un parque de diversiones. Se oyen las risas de los niños como un eco alegre encima de la vista panorámica que da al centro de Los Ángeles. De pronto, un destello fulminante ciega a todos en segundos. Ella todavía puede ver. Puede ver cuando la primera ola de calor derrite la piel de los niños, puede ver cómo la ola expansiva destruye los enormes edificios de la ciudad, puede ver cómo la explosión se lleva el resto de los cuerpos como papel convertido en ceniza por el fuego y el viento. La imagen del apocalipsis que sueña Sarah Connor es del futuro posible cuando, en la mitología de Terminator, Skynet toma consciencia y lanza todos los arsenales nucleares del mundo, matando a casi toda la especie humana con un gesto sencillo y determinante. Como en esta película, los sueños humanos con el futuro de la inteligencia artificial siempre han estado perseguidos por pesadillas de destrucción masiva. El hombre sueña con la máquina dócil, sueña con la automatización de todo, la comodidad absoluta, la bonanza eterna de una sociedad en dónde el hombre es rey sobre el acero y los elementos. Pero también sueña, temeroso de sus propios excesos, con el momento en que Robotina exija derechos… o los tome violentamente.

Desde las leyes de la robótica de Asimov hasta los más viejos cuentos de anticipación, el humano ha sentido el miedo de la rebelión robótica. Por mucho tiempo, este miedo estuvo confinado a la ciencia ficción, cada vez más temerosa, con el fin del positivismo optimista, de los designios de la ciencia. La división del átomo se hizo con la meta clara de ayudar a la observación humana del mundo y facilitar la creación de energías renovables. Pero esos sueños loables también trajeron la pesadilla del apocalipsis atómico y una carrera armamentística que, actualmente, ha llegado al estancamiento, en bunkers mal vigilados, de miles de cabezas nucleares con la capacidad de destruir la Tierra… varias veces. Y sí, la industrialización Nazi de la muerte, las bombas de Hiroshima y Nagasaki, los accidentes nucleares en Chernóbil y Fukushima son pesadillas reales que, desde entonces, no nos dejan soñar cómodamente con los eternos beneficios de la ciencia. ¿Pero qué tan cerca estamos, en realidad, de que se cumplan estas predicciones estrafalarias sobre las inteligencias artificiales adueñándose del mundo o sometiendo a la humanidad? ¿Con la aceleración de los avances científicos y la rapidez inaudita en que llegan, hoy en día, los desarrollos en computación, qué tanto debemos temer la rebelión robótica?

(AP Photo)

El año pasado, Stephen Hawking y Elon Musk, el genio millonario detrás de Tesla y Space X, advirtieron que las inteligencias artificiales podían significar el fin de la especie humana siendo una de las mayores amenazas existenciales que existen para nuestra supervivencia. Bill Gates, fundador de Microsoft y famoso billonario filantrópico también habló del miedo al desarrollo de superinteligencias. Y, en efecto, numerosos científicos han comenzado a dirigir sus investigaciones hacia los posibles peligros que conlleva el desarrollo en el campo de la inteligencia artificial. Parece ser que, hoy en día, las preocupaciones en torno a la rebelión de la máquina y el desarrollo de superinteligencias computacionales, ha cambiado de espacio abandonando, con cada vez más insistencia, los sueños distópicos de la ciencia ficción para adentrarse en el campo de la investigación científica seria.

En enero de 2015, el Instituto para el Futuro de la Vida organizó una conferencia en Puerto Rico que reunió a las más grandes mentes en el sector universitario y privado para discutir sobre el futuro de las inteligencias artificiales. Ahí se encontraron grandes investigadores de problemas de ética en inteligencias artificiales como Nick Bostrom de Oxford con empresarios y directores científicos como Elon Musk, el fundador de Skype Jaan Tallin y el experto de inteligencia artificial de Google Shane Legg. Durante la conferencia, un excéntrico y respetado científico al que apodan, curiosamente, “Mad Max”, Max Tegmark de MIT, empezó a circular una carta entre los asistentes.

Elon Musk (AP Photo/Mark Lennihan) / Stephen Hawking (AP Photo/Markus Schreiber, FILE)

La carta, que se volvió pública unas semanas después, instaba a los investigadores para investigar más a fondo las potenciales consecuencias que podría tener el desarrollo de inteligencias artificiales. Ponderando los enormes beneficios que este campo puede lograr en lo social, económico y médico, también se subrayan los posibles peligros de un desarrollo sin el necesario control. En otra carta por parte del mismo Instituto, se instó también a los gobiernos para que prohíban y vigilen el desarrollo de inteligencias artificiales con fines militares. La carta, firmada por más de 1000 científicos prominentes en este campo de estudio y grandes personalidades como Musk y Hawking, explica:

La pregunta esencial que debe hacerse la humanidad hoy en día es si quiere comenzar una carrera armamentística global de inteligencias artificiales o prevenir que siquiera comience. Si una potencia militar mayor empieza a desarrollar inteligencias artificiales militarizadas, una guerra global de armas es inevitable, y el final de esta trayectoria tecnológica resulta obvio: las armas automáticas serán las Kalashnikovs del mañana. A diferencia de las armas nucleares, no requieren ninguna materia prima costosa y difícil de conseguir, así que se podrán desarrollar masivamente, de manera relativamente barata, por potencias militares. Será cuestión de tiempo para que aparezcan en el mercado negro y en manos de terroristas, dictadores buscando controlar mejor a su población, jefes militares que quieren llevar a cabo limpiezas étnicas, etc. Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento de poblaciones y masacres selectivas de grupos étnicos específicos. Es por eso que creemos que una carrera armamentística de inteligencias artificiales no sería beneficiosa para la humanidad.

(AP Photo/Tanjug)

Después de todo lo anterior la última frase parece algo eufemística… Y, si regresamos a la era de la máxima paranoia nuclear en los años cincuenta, podemos ver cómo los sueños de drones y aviones no tripulados aniquilando a la humanidad ya existían en los sueños terribles de The Flying Dutchman de Ward Moore. Pero no todos comparten esta visión fatalista. Mientras que la comunidad científica apoya incondicionalmente la prohibición de las inteligencias artificiales para fines militares, hay algunas voces que piden mitigar la histeria colectiva frente a estos miedos. Oren Etzioni, el CEO del Instituto Allen para la Inteligencia Artificial, considera que se está utilizando un vocabulario demasiado alarmista que puede, finalmente, ser perjudicial para el desarrollo benéfico de las inteligencias artificiales. Y sí, si el miedo crece significativamente, el desarrollo de este campo se puede estancar como sucedió, por discusiones éticas en las que se inmiscuyó el gobierno, con la investigación sobre células madre. Para Etzioni, esto sería algo igualmente terrible pues, en sus investigaciones, está encontrando maneras de encaminar, de forma práctica, el desarrollo de inteligencias artificiales para salvar vidas humanas. Uno de sus proyectos, en particular, se enfoca en lograr un ordenamiento inmediato de toda la investigación médica disponible para facilitar el acumulamiento de conocimiento en este campo. Así, según Etzioni, se podría acelerar el progreso de nuestra comprensión médica y se podría llegar, incluso, a curar el cáncer. Y así lo dijo este investigador con más de veinte años de experiencia en el campo:

Una inteligencia artificial que se escapa de un laboratorio y corre por ahí causando caos puede ser una gran trama para una película de Hollywood pero simplemente no es algo realista. Nos está costando muchísimo trabajo construir programas que puedan aprender algo mínimo, deja tú construir ese tipo de aprendizaje imparable que las personas se imaginan en sus peores pesadillas.

(AP Photo/Laurent Cipriani)

El debate sigue entonces abierto. Mientras algunos defienden la importancia de las inteligencias artificiales y quieren mitigar el miedo que ciertos portavoces famosos están difundiendo, es una realidad que las discusiones sobre ética computacional, ética de las máquinas, ética robótica, moral de máquinas, derechos robóticos y moral artificial, por dar sólo algunos ejemplos de campos reales que se están estudiando, se han desarrollado ampliamente en los últimos tiempos. Y esto es un síntoma interesante del momento tecnológico que estamos viviendo. Muchas grandes empresas están invirtiendo en la investigación de inteligencias artificiales para la lectura de grandes bancos de datos y el desarrollo de tecnologías que antes nos parecían imposibles: Google compró DeepMind y está haciendo cosas verdaderamente increíbles con las inteligencias artificiales (incluyendo, claro, los coches que se manejan solos), Skype ya logró crear una inteligencia que puede traducir casi instantáneamente diferentes lenguajes, Android tiene una capacidad de reconocimiento de voz sin precedentes, hemos visto grotescos robots que caminan como perros… En 2010 la inversión general de empresas en el desarrollo de inteligencias artificiales era de 14.9 millones de dólares; en 2014 esta inversión llegó a los 309.2 millones. Los síntomas son claros: el desarrollo de inteligencias artificiales ya no es nada más un sueño dentro de ciertos laboratorios de investigación aislados; sino que se trata de una empresa humana que también se lleva a cabo, a gran escala, en el sector privado.

(AP Photo/Jae C. Hong)

Tal vez las máquinas todavía no tengan todavía las enormes capacidades de destrucción que alimentan nuestras pesadillas. Aunque, sin duda, nos estamos acercando a pasos agigantados. Todas las iniciativas que se están llevando a cabo, entonces, para mitigar los riesgos de una inteligencia artificial general (con la capacidad de automejorarse y evolucionar hasta volvernos obsoletos) y la inteligencia artificial militar, son realidades que se enfrentan a peligros latentes cada vez más presentes. Y, sin embargo, ya vivimos rodeados de inteligencias artificiales que cada vez tienen más influencia en nuestras vidas. Werner Herzog, en su último documental, Lo and Behold: Reveries of the Connected World, no habla de los peligros de las inteligencias artificiales reproduciéndose solas o interfiriendo con el sistema económico global sino que señala un peligro mucho más cercano en nuestra dependencia de las máquinas. Herzog plantea una hipótesis: si cada vez dependemos más de las máquinas para regular el mundo en el que vivimos, ¿qué pasaría si una llamarada solar masiva destruyera toda la interconectividad planetaria en segundos? ¿Qué pasaría si el mundo, repentinamente, se apagara? ¿Cuántos sobrevivirían al caos? ¿Cuántos no podrían sobrevivir en un regreso abrupto a una vida completamente análoga?

En un famoso ensayo de 1995 sobre el futuro de la era industrial, Ted Kazynski dice:

Se puede argumentar que la raza humana jamás será lo suficientemente tonta para entregarle el poder a las máquinas. Pero lo que sugerimos es que ni la raza humana tendría que ceder voluntariamente el poder a las máquinas, ni que las máquinas tendrían que tomar el poder. Lo que sugerimos es que la raza humana puede permitirse fácilmente el deslizamiento hacia una posición de tal dependencia de las máquinas que no habría otra elección práctica más que el aceptar todas las decisiones que ellas tomen. Mientras que los problemas a los cuales se enfrenta la sociedad se convierten en cuestiones cada vez más complejas y las máquinas se convierten en entidades cada vez más inteligentes, las personas dejarán cada vez más que éstas asuman sus decisiones, simplemente porque una decisión echa por una máquina traerá mejores resultados que una decisión hecha por el hombre. Eventualmente, se puede alcanzar un estado en el que las decisiones necesarias para mantener el sistema sean tan complejas que los humanos se vuelvan incapaces de resolverlas con inteligencia. En ese punto las máquinas tendrán, efectivamente, el control. Las personas ya no podrán simplemente desconectar las máquinas porque se habrán vuelto dependientes al punto en que apagarlas significaría suicidarse.

CC0

Es evidente que no hemos llegado a este punto. Sin embargo, una progresiva dependencia de las máquinas parece una tendencia mucho más cercana y mucho más peligrosa que la rebelión robótica. De cualquier manera, la discusión sobre la ética en este tipo de investigaciones no sobra y, si bien señala un síntoma de peligrosos y fascinantes descubrimientos en el campo de la investigación artificial, el futuro, como diría Yoda, es difícil todavía de ver. Esperemos, al menos, que el esfuerzo humano se concentre en algo más importante que sus propias comodidades o que se expanda más allá de su considerable necesidad de destrucción. Por decirlo de otro modo, esperemos evitar, en un mejor mañana, que los sueños humanos culminen en la terrible invención de Skynet… o, nadie lo quiera, de Robotina.

Por Nicolás Ruiz.

(AP Photo/Jae C. Hong)

--

--

FOROtv
Opinión con Foro

Es un espacio de información, opinión y debate.