Capítulo 2: El Comienzo de la Red

Andrei Vazhnov
12 min readDec 29, 2015

El mundo ha llegado a la edad de dispositivos baratos y complejos de gran confiabilidad; algo importante saldrá de esto.

— Vannevar Bush, Cómo podríamos pensar, 1945

Hoy en día pocos se acordarán del nombre de Douglas Engelbart, aunque prácticamente todos usamos uno de sus diferentes inventos a diario. En diciembre 1968, Dr. Engelbart dio lo que después fue bautizado por los historiadores como “La Madre de Todas las Demostraciones”: una presentación dramática en vivo donde, por primera vez, vieron la luz inventos como el hipertexto, las video conferencias con las computadoras en red, los procesadores de texto, la interfaz gráfica con Windows y mouse, el editor colaborativo de código, el control de versiones y mucho más. En esta misma presentación, la computadora de Engelbart Augment NLS se anunció como el primer nodo de la ARPANet, la red que, con el tiempo, se convirtió en lo que hoy en día conocemos como Internet. La audiencia quedó hechizada y, sin duda, no hay muchos hitos comparables en la historia de la tecnología donde se pueda decir, sin exageración, que aquel día la gente vio el futuro remoto, el futuro que estamos viviendo hoy en día. Por décadas después, La Madre de Todas Las Demostraciones quedó como un ejemplo y el norte que inspiró, primero, al famoso Xerox PARC Labs, fundado un año después en 1969, y, más adelante, a Steve Jobs y Bill Gates en la creación de lo que ahora llamamos la computadora personal.

Desde que era joven, Engelbart se inspiró por el extraordinario ensayo “Cómo podríamos pensar”, escrito por el científico Vannevar Bush al final de la Segunda Guerra Mundial. En él, Bush planteó que la humanidad estaba entrando en el umbral de una nueva etapa donde tenemos que poner foco de nuestra ciencia no en aumentar el poder de nuestras máquinas y herramientas físicas sino en desarrollar las herramientas que aumentarían y extenderían el poder de nuestras mentes, herramientas que nos permitirían manejar la complejidad del nuevo mundo tecnológico creado por la ciencia. En el centro de ensayo estaba el concepto de Memex (combinación de memoria y index), un dispositivo hipotético que permitiría a las personas a interactuar entre sí y acceder a una gran red electrónica que contendría todo el conocimiento de la humanidad en forma fácilmente accesible. Según el Dr. Bush, esta red nos daría memoria y capacidad de colaborar prácticamente infinita, algo que nos permitiría obtener una utilidad práctica del apabullante océano de conocimiento generado por los avances científicos. Desde que tenía 23 años, Engelbart decidió dedicar su vida a llevar esta visión a realidad y, después de varios años de carrera académica, fundó el Centro para el Aumento del Intelecto Humano en la Universidad de Stanford.

Sin embargo, después de más de una década de esfuerzo e investigación, no hubo mucho avance. Las computadoras basadas en la tecnología de aquella época simplemente no eran suficientemente rápidas o confiables para crear el mítico Memex. Después de llegar a un callejón sin salida con su propia investigación, Engelbart decidió tratar de inspirar a otros científicos de la comunidad para buscar el camino. Y él tenía una corazonada de donde iba venir la solución.

Gordon Moore y el Secreto del Saltamontes

El saltamontes puede saltar una distancia 20 veces más larga que su cuerpo; la pulga puede saltar 200 veces su tamaño. Si el humano fuera como saltamontes, podría fácilmente saltar edificios de 5 pisos; si un elefante saltara como una pulga, podría atravesar el ancho de un río en un solo salto. Sin embargo, ni el humano, ni el elefante, ni ningún otro mamífero puede realizar un salto parecido a los insectos. ¿Por qué?

La razón de esto es uno de los principios más sutiles de la naturaleza: las cosas imposibles en una escala de tamaño se vuelven posibles en otra porque cambian las relaciones entre las partes. Por ejemplo, los músculos de los insectos son centenares de veces más fuertes en términos relativos a su cuerpo comparado con un mamífero. Es por esta sutileza que existe una teoría compleja de similitud de escalas, la cual permite a los ingenieros y arquitectos calcular correctamente el comportamiento de una maqueta de un barco o un edificio cuando se hace en la escala real. Engelbart era un experto en el tema porque, entre sus varios proyectos, había trabajado con maquetas usadas en el desarrollo de aviones y, frente a obstáculos que parecían insuperables percibió que la clave era reducir la escala.

En 1959, Engelbart presentó su paper Microelectrónica y el Arte de Similitud ante un grupo de científicos en Philadelphia. “¿Qué pasaría si todo en este auditorio fuera 10 veces más grande? ¿Se darían cuenta?”, preguntó en el comienzo de su conferencia. “Ese tipo ahí, por ejemplo, sería 10 veces más alto pero también estaría 10 veces más lejos. Así que lo que verían con sus ojos sería lo mismo…” Engelbart esperó un rato pero nadie tenía respuesta. Así que siguió y explicó, “Bueno su peso ahora sería 1000 veces mayor porque es proporcional al volumen, pero sus músculos serían sólo 100 veces más fuertes porque la fuerza depende del área transversal de los músculos y los huesos. Así que, si todo fuera 10 veces más grande, sentiría como si en vez de 80 kilos, de repente pesara 800 kilos. Por la misma razón, la silla no aguantaría y se rompería bajo su nuevo peso”.

Los músculos del saltamontes son mucho más fuertes que los del elefante en relación con el tamaño de su cuerpo.

Usando ejemplos como éste, Engelbart desarrolló la idea de que el mismo principio aplica en la construcción de microelectrónica, pero al revés: tenemos que convertir a nuestras computadoras elefantes en saltamontes, porque con la reducción de escala dramática, las propiedades básicas de la tecnología cambiarán y abrirán la puerta para la creación de componentes mucho más pequeños con una capacidad computacional nunca imaginada antes: la capacidad que buscaba Engelbart para realizar su sueño de Memex.

Originalmente, los organizadores temían que el tema era demasiado técnico incluso para los especialistas y hasta pidieron a Engelbart cambiar el nombre de la charla por otro más sencillo. Sin embargo, la presentación fue un gran éxito. Una de las personas que quedó impresionado era Gordon Moore, el futuro cofundador de Intel, hoy en día la empresa de microprocesadores más grande del mundo. Moore se acordaba de otro ejemplo de Engelbart: “Si todo fuera 10 veces más grande, las arañas se caerían del techo.” Era su destino definir el camino que Engelbart no pudo encontrar.

Cinco años después, en 1965, Moore escribió su artículo “Encajar más componentes en los circuitos electrónicos.” Ahí nació la famosa Ley De Moore, el principio que acaba de cumplir 50 años y ha transformado casi todos los aspectos de nuestra vida. Sin embargo, para entender su verdadero significado, tenemos que empezar un poco antes, con el concepto de transistor y del circuito integrado.

La Ley de Moore

¿Qué es un circuito integrado y por qué importa para entender IoT? Si alguna vez miró dentro de un viejo aparato electrónico, como un televisor o un tocadiscos, probablemente viera que el corazón del sistema es un circuito en una placa que conecta varios pequeños componentes electrónicos, como transistores, capacitores y resistencias, soldados a superficie de la placa. La funcionalidad del circuito se determina por los componentes y sus interconexiones. Los mismos componentes básicos conectados de una manera pueden ser un radio, conectados de otra manera pueden ser un audiorítmico o una computadora. Son como bloques de lego que construyen distintas funcionalidades.

Un viejo circuito con componentes individualmente conectados

Desde el invento del transistor en 1947 y el boom de la tecnología electrónica derivado de ese avance, los ingenieros desarrollaban circuitos cada vez más sofisticados, con más componentes e interconexiones más complejas. Esta complejidad creciente llegó al punto de ser inmanejable, sobre todo en la creación de los circuitos para las, por entonces novedosas, computadoras digitales. Con centenares de transistores y conexiones, cada uno de los cuales podría fallar o estar mal soldado, los circuitos se volvían caros y poco confiables. En el fondo, esto es lo que impedía el avance del laboratorio de Engelbart.

La solución fue el circuito integrado desarrollado por el socio de Gordon Moore, Robert Noyce, que en aquel momento estaba trabajando con Moore en Fairchild Semiconductor, la empresa que manejaban antes de fundar Intel. En el circuito integrado, los transistores y otros componentes se crean directamente en un bloque sólido del material semiconductor mediante un proceso químico. Casi inmediatamente, la nueva tecnología abrió la posibilidad de crear circuitos mucho más robustos: en vez de ubicar y conectar millares de componentes individuales, se podía hacer una matriz que después se usaba de una manera parecida a una impresión que produce copias a partir de la misma copia maestra. Pero este no fue el aspecto más interesante del nuevo método.

La vista desde el interior del 4004, el primer microchip de Intel

Dado el papel clave de Fairchild en este crítico avance, la revista Electronics contactó a Gordon Moore en 1965 y le pidió su opinión sobre el futuro de la industria de los semiconductores. En su respuesta, Moore destacó que entre los años 1959 y 1964 el número de componentes que se encajaba en el mismo chip creció de 1 a alrededor de 30 y que en 1965 los ingenieros de Intel ya estaban trabajando en crear chips con hasta 60 componentes. A partir de esta experiencia, Moore vio que el número de los componentes por chip se venía duplicando aproximadamente cada año: había 1 transistor en 1959, 2 en 1960, 4 en 1961, 8 en 1962 y así sucesivamente. El científico estimó que esta tendencia de duplicar el número de componentes cada año puede continuar por lo menos una década más. Haciendo una simple extrapolación, él calculó que en 1970 debería haber chips con más de 1000 componentes y, increíblemente, en 1975 ese número iba a llegar hasta 65,000 componentes. ¡65,000 componentes en un solo chip! Moore vio que con los circuitos 1000 veces más potentes, las cosas impensables en 1965 se iban a volver posible y en las primeras líneas de su artículo hizo la atrevida predicción:

“Las ventajas de la integración brindarán una proliferación de electrónica, insertando esta ciencia en muchas áreas nuevas. Los circuitos integrados nos llevarán a las maravillas como computadoras domésticas, … controles automáticos para los autos y dispositivos de comunicación personales.”

La predicción parecía fantástica en 1965 y la revista acompañó el artículo de Moore con un dibujo chistoso de un grupo de personas estando de compras en una tienda donde, al lado de la ventanilla de cosméticos, un vendedor sonriente ofrecía computadoras personales que entraban en la mano. El cartel arriba decía “Felices Computadoras Domésticas”.

Sin embargo, el poder del circuito integrado seguía duplicando cada año. Solo 3 años después del articulo, Douglas Engelbart usó una de las primeras computadoras en base a esta nueva tecnología para su famosa demostración; unos años más tarde aparecieron Apple y Microsoft. La profecía de Moore resultó completamente acertada y la revolución digital empezó.

Internet de las Cosas en 1965.

Si bien la magia del circuito integrado fue evidente desde el inicio en el trabajo de Engelbart, Jobs, Gates y otros pioneros de la revolución digital, lo más interesante de la predicción de Moore para nuestro tema es la frase “insertando esta ciencia en muchas áreas nuevas… como controles automáticos para autos y dispositivos de comunicación personales.” Ahí ya vemos el presagio del auto autónomo y del smartphone. Este fue el momento en el que nos dimos cuenta que íbamos a utilizar la electrónica no sólo para nuestros televisores, radios y computadoras sino que iba formar parte de todo. En este sentido, es importante entender exactamente cual es el significado de esta ley.

Hoy en día, la formulación más popular es la siguiente, “el poder de calculo de las computadoras se duplica cada dos años”. Pero, si bien es el aspecto más conocido, el principio se aplica de forma mucho más amplia. En realidad, no se trata de microprocesadores o computadores específicamente, lo que duplica cada periodo es la densidad de los transistores u otros componentes y podemos aplicar esta densidad aumentada a desarrollar circuitos para cualquier tipo de dispositivo. Por ejemplo, desde que apareció la fotografía digital, cada año nos trae cameras y smartphones con más megapixeles por el mismo o menor precio. Esto es una consecuencia directa de la Ley de Moore, ya que el sensor de la camera con más megapixeles se hace con la misma lógica: encajando millones de componentes en un pedazo de silicio. Lo mismo pasa con los pen drives, que tienen cada vez más gigabytes y con sensores y modems inalámbricos agregan más funcionalidades, tienen mejores características y, a la vez, cuestan cada vez menos.

En general, el precio y el tamaño del transistor son claves porque todas las dimensiones que valoramos en nuestra tecnología mejoran en función de estos avances. La reducción del tamaño del transistor tiene cuatro consecuencias prácticas para los dispositivos digitales:

  • Se vuelven más pequeños
  • Se vuelven más baratos
  • Usan menos energía
  • Se vuelven más potentes

Y todas estas características, en promedio, avanzan con la Ley de Moore.

Más abundante que arroz

El cumplimiento casi preciso fue una sorpresa incluso para Gordon Moore. Como él mismo explicó en 2005, cuarenta años después de su famoso artículo,

“… Así que yo tomé esos pocos primeros puntos hasta 60 componentes en un chip en 1965 y, ciegamente, los extrapolé por unos 10 años y dije, ok, en 1975 tendremos unos 60 mil componentes en un chip. Ahora, lo que estaba tratando de transmitir es que esa iba a ser la manera hacer electrónica más barata… Yo no tenía ni idea que iba a resultar una predicción correcta pero, asombrosamente, llegamos a duplicar 9 veces en 10 años siguiendo la curva bastante bien. Y un amigo mío, el Dr. Carver Mead, la bautizó como la Ley de Moore.”

Las implicaciones de este avance de los últimos 50 años son difíciles de comprender para la mente humana. Es uno de los pocos casos donde la palabra ‘astronómico’ no es una metáfora sino un adjetivo usado literalmente. En 2014, los fabricantes de semiconductores produjeron alrededor de 250 millones de billones de transistores, con lo cual cada segundo del año pasado se producían 25 veces más transistores que el número de estrellas en nuestra galaxia. O, para una comparación más terrestre, en 2014 se vendieron más de 100 transistores para cada grano de arroz producido en el mismo año. En términos de precio y tamaño, el avance ha sido igual de dramático: mientras que los primeros transistores comerciales tenían tamaño de una moneda y costaban entre 10 y 50 dólares, los de 2015 salen 0.000000001 de un dólar (1 nanodolar) y son más de 1000 veces más pequeños que el espesor del cabello humano.

El número de transistores en un chip ha crecido exponencialmente

Existen muchas analogías para explicar la naturaleza poco intuitiva del crecimiento exponencial de algo que se duplica y se vuelve a duplicar. Una de las más conocidas es la del doblamiento de una hoja de papel. Si usted dobla una hoja de papel 7 veces, llegará a un espesor de un cuaderno; si la doblas 23 veces, al espesor de un kilómetro; con 36 veces llega al tamaño de la tierra y con solo 103 veces llegará al tamaño del todo el universo que podemos ver.

La Ley de Moore vuelve a doblar esta hoja cada 24 meses y, en el fondo, es por eso que la tecnología de computación empezó a salir de las cajas que llamamos computadoras y desparramarse por todos lados. Dado que los transistores ahora son mucho más baratos que arroz, los agregamos a todo y, cada mes, millones de nuevos dispositivos inteligentes se conectan a la gran red de personas, computadoras, bases de datos y cosas inteligentes. Con los productos en base a IoT, la World Wide Web de antaño pronto quedará como una pequeña maqueta en la comparación con el Internet que se viene.

¿Cómo será la economía y la vida cotidiana cuando miles de millones de cámaras, micrófonos, GPS, acelerómetros, giróscopos y otros sensores conectados hayan cubierto la superficie de nuestro planeta? ¿Qué podrán hacer los emprendedores y los empresarios con el océano de datos que fluya desde estos puntos de medición hacia las gigantes bases de datos en la nube?

Podemos decir con certeza que este mundo nos sorprenderá con un sinfín de cambios rápidos e imprevistos porque aquí también se aplica el principio de Douglas Engelbart: cuando cambiamos de escala, cosas antes impensables se vuelven posibles. Internet está a punto de volverse 100 veces más grande; en este libro veremos algunas de las posibilidades que abrirán a partir de este salto.

<<Anterior Siguiente>>

Andrei Vazhnov es autor del libro Impresión 3D: Cómo va a cambiar el mundo. Andrei tiene una Maestria en Politicas Publicas de Harvard University y un diploma en fisica de Novosibirsk University.

Twitter: @andreidigital Email: andrei@andreivazhnov.net

Índice del libroCapítulo 1: Cuando Internet Desaparezca 
Capítulo 2: El Comienzo de la Red
Capítulo 3: Las Lecciones del Humilde Termostato
Capítulo 4: La Internet Industrial
Capítulo 5: La Medicina Conectada
Capítulo 6: La Economía Conectada
Capítulo 8: La Revolución Será Lenta
Capítulo 7: El Planeta Eficiente
Bibliografía

--

--