Capítulo Dieciséis: AGI 2.0 (capítulo de libro)

Fernando Santamaría González
LearnTechAI
Published in
5 min readJul 25, 2023

Capítulo del libro “Our final Invention: Artificial Intelligence and the end of human era” de James Barrat. Thomas Dunne Books 2013 y Quercus en 2023 en Inglaterra.

Portada del libro de James Barrat “Our Final Invention”

Previo con el contexto de AGI:

Una inteligencia general artificial (AGI) es un tipo de agente inteligente hipotético. El concepto de AGI es que puede aprender a realizar cualquier tarea intelectual que los seres humanos o los animales puedan llevar a cabo. Alternativamente, la AGI se ha definido como un sistema autónomo que supera las capacidades humanas en la mayoría de las tareas económicamente valiosas. La creación de AGI es un objetivo primordial de algunas investigaciones y empresas de inteligencia artificial como OpenAI, DeepMind y Anthropic. La AGI es un tema habitual en la ciencia ficción y en los estudios sobre el futuro.

El calendario para el desarrollo de la AGI sigue siendo objeto de debate entre investigadores y expertos. Algunos sostienen que puede ser posible en años o décadas, otros mantienen que podría tardar un siglo o más, y una minoría cree que puede que nunca se alcance. Además, se debate si los sistemas modernos de aprendizaje profundo, como el GPT-4, son una forma temprana pero incompleta de AGI o si se necesitan nuevos enfoques.

Existe controversia sobre la posibilidad de que la AGI suponga una amenaza para la humanidad; por ejemplo, OpenAI la considera un riesgo existencial, mientras que otros consideran que el desarrollo de la AGI es demasiado remoto como para suponer un riesgo.

Una encuesta realizada en 2020 identificó 72 proyectos activos de I+D en AGI repartidos por 37 países. (Fuente: Wikipedia en inglés)

Capítulo Dieciséis AGI 2.0 (Nota: AGI — Inteligencia General Artificial)

Las máquinas seguirán un camino que refleje la evolución de los humanos. En última instancia, sin embargo, las máquinas autoconscientes y autosuperadoras evolucionarán más allá de la capacidad de los humanos para controlarlas o incluso comprenderlas.
-Ray Kurzweil, inventor, autor, futurista

En el juego de la vida y la evolución hay tres jugadores en la mesa: los seres humanos, la naturaleza y las máquinas. Yo estoy firmemente del lado de la naturaleza. Pero la naturaleza, sospecho, está del lado de las máquinas.
-George Dyson, historiador

Cuanto más tiempo paso con los creadores de IA y su trabajo, antes creo que la AGI llegará. Y estoy convencido de que cuando lo haga sus creadores descubrirán que no es lo que pretendían crear cuando emprendieron su búsqueda años atrás. Eso se debe a que, aunque su inteligencia pueda ser de nivel humano, no será parecida a la humana, por todas las razones que he descrito. Habrá mucho clamor por la introducción de una nueva especie en el planeta. Será emocionante. Pero ya no se hablará de la AGI como el siguiente paso evolutivo del Homo sapiens, y todo lo que ello implica. En aspectos importantes simplemente no comprenderemos lo que es.
En su dominio, la nueva especie será tan veloz y fuerte como Watson en el suyo. Si llega a coexistir con nosotros como nuestra herramienta, extenderá sin embargo sus zarcillos por todos los rincones de nuestras vidas como les gustaría a Google y Facebook. Los medios sociales podrían resultar ser su incubadora, su sistema de distribución, o ambas cosas. Si primero es una herramienta, tendrá respuestas mientras aún estemos formulando preguntas, y después, respuestas sólo para sí misma. A lo largo, no tendrá sentimientos. No tendrá nuestros orígenes mamíferos, ni nuestra larga infancia de construcción del cerebro, ni nuestra crianza instintiva, aunque se críe como un simulacro de humano desde la infancia hasta la edad adulta. Probablemente no se preocupará por usted más de lo que lo hace su tostadora.
Eso será la AGI versión 1.0. Si por alguna casualidad evitamos una explosión de inteligencia y sobrevivimos lo suficiente para influir en la creación de la AGI 2.0, tal vez podría estar imbuida de sentimientos. Para entonces, los científicos podrían haber descubierto cómo modelar computacionalmente los sentimientos (quizá con la ayuda de la 1.0), pero los sentimientos serán objetivos secundarios, después de los objetivos primarios de hacer dinero. Los científicos podrían explorar cómo entrenar esos sentimientos sintéticos para que simpaticen con nuestra existencia. Pero la 1.0 es probablemente la última versión que veremos porque no viviremos para crear la 2.0. Al igual que la selección natural, elegimos primero las soluciones que funcionan, no las mejores.
Stuxnet es un ejemplo de ello. También lo son los drones asesinos autónomos. Con fondos de DARPA, los científicos del Instituto de Investigación Georgia Tech han desarrollado un software que permite a los vehículos no tripulados identificar a sus enemigos mediante un software de reconocimiento visual y otros medios, y luego lanzar un ataque letal con drones contra ellos. Todo ello sin un humano en el bucle. Un artículo que leí al respecto incluye este soplo bienintencionado: “Autorizar a una máquina a tomar decisiones de combate letales está supeditado a que los líderes políticos y militares resuelvan las cuestiones legales y éticas”.

Me recuerda al viejo dicho: “¿Cuándo se ha inventado un arma que no se haya utilizado?”. Una rápida búsqueda en Google reveló una aterradora lista de robots armados, todos ellos preparados para matar y herir de forma autónoma (uno fabricado por iRobot empuña una pistola eléctrica), a la espera de recibir el visto bueno. Imagino que estas máquinas estarán en uso mucho antes de que usted y yo sepamos que lo están. Los responsables políticos que gastan dinero público no sentirán que necesitan nuestro consentimiento informado más de lo que lo hicieron antes de desplegar imprudentemente Stuxnet.
Mientras trabajaba en este libro, pedí a los científicos que se comunicaran en términos sencillos. Los más consumados ya lo hacían, y creo que debería ser un requisito para las conversaciones generales sobre los riesgos de la IA. A un nivel alto o general, este diálogo no es dominio exclusivo de tecnócratas y retóricos, aunque al leerlo en la red se podría pensar que lo es. No requiere un vocabulario especial, “de iniciados”. Sí requiere la convicción de que los peligros y las trampas de la IA son asunto de todos.
También me encontré con una minoría de personas, incluso algunos científicos, que estaban tan convencidos de que la IA peligrosa es inverosímil que ni siquiera querían discutir la idea. Pero quienes descartan esta conversación -ya sea por apatía, pereza o creencia informada- no están solos. El fracaso a la hora de explorar y vigilar la amenaza es casi generalizado en toda la sociedad. Pero ese fracaso no afecta en lo más mínimo al crecimiento constante e ineluctable de la inteligencia de las máquinas. Tampoco altera el hecho de que sólo tendremos una oportunidad de establecer una coexistencia positiva con seres cuya inteligencia sea superior a la nuestra.

Puedes leerlo en el siguiente enlace los demás capítulos.

--

--

Fernando Santamaría González
LearnTechAI

Professor & Speaker on AI, Emerging Tech, and eLearning. Author & Blogger. Innovating in rare disease research and higher education.