|QC-6> La mesa está puesta

Juan Antonio Garcia
18 min readNov 28, 2021

--

Con todo lo que hemos explicado en los artículos anteriores de esta serie, ya estamos en disposición de entender los diferentes tipos de computadores cuánticos, o sistemas relacionados, que existen actualmente. Muchos de ellos los hemos mencionado anteriormente, cuando hablamos de la implementación física del qubit (|QC-3> Todo es ahora muy distinto), ya que esta determina, en la mayoría de los casos, la tecnología del computador cuántico correspondiente.

Clasificación de computadores cuánticos

Una primera clasificación podría diferenciar los computadores cuánticos en dos grandes grupos, en función de su arquitectura subyacente:

  • Computadores con arquitectura cuántica
  • Computadores con arquitectura no-cuantica

Dentro del primer grupo estarían los computadores cuánticos universales, o basados en puertas y los basados en el teorema adiabático, recocido cuántico o Quantum Annealing, de implementación cuántica. Los primeros permiten el control del estado de los qubits y por lo tanto son más generalistas, esto es, pueden resolver “cualquier” tipo de problema. Donde entendemos que se entiende el entrecomillado después de todo lo visto hasta ahora.

Los segundos se basan en el teorema adiabático y sirven para resolver problemas que se basan en encontrar valores mínimos de energía, es decir, son adecuados sólo para resolver problemas de optimización combinatoria. El fabricante más representativo de este tipo, basado en el recocido cuántico, es D-WAVE: la empresa canadiense que ha sido la primera en construir y comercializar computadores cuánticos, con clientes tan relevantes como Google, el laboratorio Ames de la NASA, la agencia de seguridad estadounidense (la NSA) y Lockheed Martin, entre otros.

Dentro del segundo grupo estarían los basados en el Annealing (recocido) no-cuántico, es decir digital, también conocidos como CMOS Annealing o máquinas de Ising. Son los basados en el teorema adiabático pero con implementación física sobre circuitos digitales (ASICs o FPGAs). También entrarían dentro de este grupo los basados en haces de láser.

Por último, entrarían también, dentro de este segundo gran grupo, los simuladores, es decir, los computadores convencionales (que aunque puedan ser muy potentes, son digitales), dotados de un SW de emulación.

Dentro de los emuladores, podemos considerar 3 tipos:

Emulación enteramente por SW. Estos están formados, básicamente, por un cluster de HPC, con los recursos de CPU y memoria suficientes y el SW adecuado, para emular un computador cuántico de un determinado número de Qubits. Es el caso del Quantum Learning Machine (QLM) de Bull/ATOS. Que, en esencia es un cluster de HPC con aceleradoras NVIDIA V100/A100, que incorpora software específico para la emulación cuántica. Al final de este artículo hablaremos algo más sobre la simulación.

Basados en recocido cuántico: con circuitos digitales CMOS (ASIC/FPGA). En estos dispositivos el modelo de Ising es reproducido en circuitos digitales específicamente diseñados para ello como la primera generación del CMOS Annealer de HITACHI o el Digital Annealer de FUJITSU.

Basados en redes de láser. Si bien las computadoras cuánticas basadas en qubit actuales están experimentando una mayor tolerancia a fallos, su escalado es muy problemático. Equipos de EE.UU, Australia y Japón (de NTT entre otros), han desarrollado computadores cuánticos basados en láser. Es el resultado de casi 10 años de investigación. En lugar de qubits, este nuevo enfoque utiliza un estado agrupado hecho de rayos láser y cristales hechos a medida que convierten los rayos en un tipo especial de luz llamada “luz comprimida”. Para que el estado del cúmulo muestre potencial computacional cuántico, el láser debe medirse de una manera específica, y esto se logra a través de una red entrelazada cuántica de espejos, divisores de haz y fibras ópticas. Algunas de las principales ventajas de este esquema son: mayor estabilidad, operación a temperatura ambiente y mayor escalabilidad.

Como hemos explicado cuando hemos presentado el Recocido Cuántico (Quantum Annealing o QA), se puede adivinar que lo que hace un computador cuántico de D-WAVE también lo puede hacer un emulador de software con un computador digital clásico, pero según un estudio realizado en el 2015 por un equipo de investigadores de Google, los resultados con el Quantum Annealing de D-WAVE han sido 100 millones de veces más rápidos que los obtenidos con la emulación sobre el HW clásico. Este dato concreto ha generado una cierta controversia y puede ser discutible, pero de lo que no hay duda es de que, el rendimiento de algoritmos de annealing en un dispositivo cuántico, es muy superior a los obtenidos en un computador clásico. Las máquinas de Ising digitales (como el Digital Annealer de FUJITSU), estarían en una posición intermedia: serían mucho más rápidas que un computador clásico emulando el annealing, pero más lentas que su equivalente cuántico.

Fabricantes

Aquí incluiremos algunos de los fabricantes involucrados en el desarrollo de computadores cuánticos o emuladores, o aquellos que prestan servicios de computación cuántica en la nube pública, aunque no sean los fabricantes de los computadores cuánticos que ponen al servicio de sus usuarios.

Ya adelantamos que no están todos los que son, pero sin embargo sí son todos los que están.

D-Wave

Esta compañía, inicialmente una startup canadiense fundada en 1999, fué la primera en comercializar un computador cuántico en 2011: el D-Wave One, por unos 10 millones de dólares.

Computadores cuánticos de la empresa D-Wave

La tecnología de qubits sobre la que ha construido sus sistemas es el annealing (recocido o computación adiabática), luego son computadores de aplicación específica para la resolución de problemas de optimización combinatoria, no de propósito general basados en puertas. Esta ha sido la línea que ha seguido D-Wave desde sus inicios hasta los últimos sistemas como el D-Wave 2000Q o el D-Wave Advantage (de 5640 qubits con 15 conexiones entre qubits), sin embargo, el escalado de este tipo de tecnología, en la que D-Wave es la compañía con mayor experiencia del mercado, tiene ciertas limitaciones. Desde D-Wave se han solventado complementando su operación con ayuda de computación clásica digital, centrando los objetivos de la compañía en ofrecer sistemas de annealing con un rendimiento sostenido superior, en la resolución de problemas de optimización, a sus equivalentes clásicos. Sin embargo, los rendimientos obtenidos (parece ser que un 15x sobre un computador digital), no parecen justificar el apostar sólo por la tecnología cuántica adiabática.

Quizás sea esto lo que ha llevado a D-Wave a anunciar, en octubre de 2021, la construcción de un sistema basado en puertas con tecnología de superconductores, con el propósito de disponer de un sistema híbrido basado en annealing, universal basado en puertas y computación digital. Esta es la visión de D-Wave, como un sistema híbrido que pueda ofrecer lo mejor de cada tecnología para ofrecer soluciones a los problemas complejos que se presentan en múltiples disciplinas y ampliar el espectro de casos de uso que podría cubrir un computador híbrido de tales características.

IBM

IBM, como la más longeva compañía en el sector de las tecnologías de la información, no quiere dejar pasar el liderazgo en una tecnología con tal proyección de futuro como es la computación cuántica, y sus esfuerzos en este sentido se hacen patentes en los diferentes logros que ha ido demostrando durante los últimos diez años.

IBM dispone de varias tecnologías de superconductores con las que lleva prestando servicios de computación cuántica en la Nube desde 2016, a través de su plataforma IBM Q Experience. A través de ella da acceso a más de 20 computadores cuánticos (de 1 a 65 qubits), 6 de los cuales están disponibles, para cualquier usuario que se registre en el servicio, sin costes.

Si estás interesado en conocer más detalles sobre las características de los diferentes procesadores cuánticos diseñados por IBM, puedes encontrar información aquí.

A través de esta plataforma, IBM ha puesto a disposición de sus usuarios, no solo la posibilidad de acceder a sus computadores cuánticos basados en superconductividad, sino también una extensa gama de herramientas y una amplia documentación que cubre las necesidades del usuario novel e intermedio.

Centro principal de investigación de IBM en el estado de Nueva York

Como detalle de implementación, la tecnología elegida por IBM es la basada en circuitos superconductores encerrados en refrigeradores de dilución, para mantenerlos a las temperaturas extremas requeridas para su operación. Estos sistemas se han desplegado en el centro de investigación Thomas J. Watson de IBM en la ciudad de Yorktown, en el estado de Nueva York.

La tecnología empleada por IBM en sus sistemas cuánticos está basada en circuitos electrónicos superconductores, con una tecnología de implementación de qubits denominada Transmon.

Circuito de 4 qubits transmon fabricado por IBM

Un transmon es un tipo de circuitos superconductores creados para la implementación física del qubit que está formado por una unión Josephson (dos superconductores separados por una delgada barrera aislante) y un condensador en paralelo. Su nombre, acuñado por sus inventores en la Universidad de Yale en 2007, viene de la contracción de los términos “transmission line” y “plasma oscillation”.

Curiosidad: El efecto Josephson se produce cuando dos materiales superconductores están muy próximos pero separados por una delgada barrera aislante. En este caso se produce un flujo de corriente entre los materiales, siendo uno de los pocos casos en los que un efecto cuántico, en este caso el efecto túnel, puede ser observado a escala macroscópica.

La medida, control y acoplamiento de los transmons se realiza mediante resonadores de microondas con técnicas de electrodinámica cuántica de circuitos, que también se aplica a otras implementaciones de qubits superconductores. Como sabréis, la superconductividad sólo se presenta a temperaturas extremadamente bajas, por lo que las implementaciones de qubits superconductores requieren estar encerrados en refrigeradores de dilución, de los que ya hemos hablado en la tercera entrega de esta serie, “|QC-3> Todo es ahora muy distinto”, cuando hablamos de los diferentes tipos de implementación física del qubit.

En noviembre de 2021, IBM hizo público el desarrollo de la nueva generación de procesadores cuánticos basados en superconductividad, la familia Eagle, con 127 qubits. Hasta el momento (noviembre de 2021), el mayor procesador cuántico jamás construido. Con esto se pondría a la cabeza del ranking mundial, sobrepasando a los dos sistemas construidos por China (Zuchongzhi 2.1 y Jiuzhang 2.0), con los que se publicó, a finales del 2020, la consecución de la supremacía cuántica, sobrepasando en un factor 100 al anuncio de supremacía cuántica publicado por Google en 2019.

IBM, también ha hecho público su roadmap de procesadores cuánticos, anunciando que la siguiente generación, Osprey, tendrá 433 qubits y estará disponible en 2022, y le seguirá la llamada Condor, con 1.121 qubits, planeada para el 2023.

IonQ

La compañía californiana IonQ nació como una startup en 2015 creada por dos profesores de las Universidades de Maryland y Duke, y se ha convertido en uno de los principales players en la computación cuántica con su tecnología de iones atrapados (Ion Trapped)

Pese a que esta tecnología tiene algunos detractores por sus elevados tiempos operativos y el tamaño relativo del hardware necesario para su implementación, otros la sitúan entre una de las tecnologías más prometedoras por la precisión alcanzada, la escalabilidad, predictibilidad y su elevado tiempo de coherencia (longevidad de los qubits) y, un detalle importante, esta tecnología puede operar a temperatura ambiente, por lo que no hay que refrigerar a temperaturas extremadamente bajas como otras tecnologías.

Circuito de trampa de iones de IonQ

Lo que no cabe duda es que esta tecnología ha conseguido atraer el interés de la industria y los inversores. La compañía Amazon AWS, utiliza, entre otros, sistemas de IonQ para su oferta de computación cuántica en la nube.

Curiosidad: IonQ se convirtió, en octubre del 2021, en la primera empresa de hardware de computación cuántica en cotizar en bolsa. Su lista de inversores incluye Google Ventures, Amazon Web Services y el fondo climático Breakthrough Energy de Bill Gates [Fuente: El Economista]

Por otro lado el gigante americano Honeywell (con la tecnología de IonQ), ha anunciado su regreso al sector tecnológico después de 30 años ausente. Su propósito es luchar por el liderazgo en el mercado empresarial y prestar sus servicios de computación cuántica en modo Cloud. En verano del 2021 se fusionó con Cambridge Quantum Computing (CQ), líder global en software y algoritmos cuánticos, convirtiendo a la nueva división de Honeywell, Honeywell Quantum Solutions (HQS), en la compañía privada que ofrece, en modo servicio, acceso a su System Model H1 de 10 qubits, pensado para la explotación empresarial o industrial.

Rigetti

Esta compañía surgió como startup en el 2013, en California, por un ex-trabajador de IBM y desde entonces ha tenido un crecimiento muy importante, constituyéndose en 2017 como una de las compañías con más potencial, según el MIT Technology Review.

Rigetti, es una compañía de espectro completo (full-stack), que proporciona todos los componentes en torno a un computador cuántico. Diseña y fabrica circuitos cuánticos, lo integra con la infraestructura de control necesaria y desarrolla software para que los programadores puedan construir algoritmos para él.

Computador cuántico de Rigetti junto a su creador Chad Rigetti

La tecnología elegida por Rigetti es la basada en puertas con superconductores y el sistema más potente actualmente es el Aspen-10 de 32 qubits. La compañía espera ampliarlo a 1,000 qubits en 2024 y a 4,000 qubits en 2026.

Google

Google, aparte de ser uno de los primeros clientes de D-Wave en adquirir un computador cuántico, ha trabajado intensamente, no sólo en el desarrollo de SW para su programación, sino también en el desarrollo de nuevas tecnologías cuánticas y la creación de sus propios prototipos.

Este es el caso del procesador cuántico llamado Sycamore, de 53 qubits, construido por la división de inteligencia artificial de Google, con tecnología basada en transmon superconductores.

Procesador Sycamore de Google

Como compañía de software y servicios, no se espera que Google comercialice esta tecnología directamente, sino que la emplee para consumo propio o creación de servicios específicos sobre la misma. De hecho, los servicios de computación cuántica que ofrece Google a través de su nube pública GCP (Google Cloud Platform), no están basados en su propia tecnología sino que están soportados por hardware de IonQ.

Intel

Como adelantamos en la tercera entrega de esta serie, “|QC-3> Todo es ahora muy distinto”, cuando hablamos de los diferentes tipos de implementación física del qubit, Intel comenzó su camino en computación cuántica con tecnologías de superconductividad para luego cambiar al uso de la tecnología de puntos cuánticos de silicio (Silicon Quantum Dots), que se alinea más con sus capacidades y expertise en la fabricación de semiconductores basados en silicio.

Recordando lo que mencionamos en el tercer artículo de esta serie: Los puntos cuánticos, también denominados átomos artificiales o sistemas de electrones de dimensión cero, son objetos en los que ciertos electrones están confinados en un pequeño recinto espacial de tamaño mesoscópico (de unas pocas decenas a unos pocos cientos de nanómetros), lo que permite que el electrón solo tenga ciertos valores propios para su energía. Cuando el material de base es el silicio, estaríamos hablando de puntos cuánticos de silicio, que tienen un gran potencial de aplicación como dispositivos optoelectrónicos y, en el caso que nos ocupa, también para la implementación física de qubits.

Chip cuántico de Intel sobre un borrador de lápiz

En la imagen anterior vemos un prototipo de implementación de un qubit en silicio sobre la goma del extremo de un lapicero/borrador. Tiene un tamaño que aventura la posibilidad de construir computadores cuánticos mayores en un tamaño razonablemente reducido.

Curiosidad: Esta tecnología es muy prometedora porque, entre otras cosas, anticipa poder operar con qubits a temperatura ambiente. En este sentido, los socios de QuTech han conseguido operar a 1,5 grados Kelvin… es lo que se ha denominado “hot qubits”, bueno, que lo de “caliente” no os lleve a error. Cierto es que es 15 veces más caliente que otras tecnologías, como la de superconductividad, pero de caliente tiene poco. ¡Estamos hablando de 258º bajo cero! En cualquier caso es un avance en la dirección correcta hacia los qubits basados en semiconductores.

Un avance importante de Intel es el chip de control Horse Ridge, que permite integrar la electrónica de control de los qubits dentro del refrigerador de dilución y no fuera, como es habitual en casi todas las implementaciones actuales, con lo que se elimina un problema importante que complica el diseño y la escalabilidad de los computadores cuánticos y que es la presencia de los cables (o guías de ondas), que conectan el procesador cuántico con la electrónica de control (generalmente microondas) de los qubits.

Pese a todos estos avances, no podemos decir que Intel disponga aún de un sistema completamente funcional que pueda estar listo para su comercialización, ya sea en modo on-prem o basado en la Nube.

Amazon AWS

La compañía Amazon Web Services, o AWS, es sin duda el número uno entre los proveedores de servicios cloud, pero su negocio viene de la idea genial de aprovechar la capacidad de TI sobrante de su empresa matriz, el gigante del retail y la logística Amazon, para crear un modelo de negocio diferente que, entendemos que en principio tendría como propósito optimizar unas infraestructuras necesarias para el funcionamiento del negocio de retail global, y que, sin embargo, se ha convertido en un negocio más rentable que el de la propia matriz, centrado en las tecnologías de la información.

Pero AWS no es una compañía de fabricación de tecnología, pese a que, junto con alianzas estratégicas, ha construido servidores y procesadores para su propio consumo dentro de sus datacenters.

El hecho de incluirlo en esta lista de fabricantes ha sido por su contribución a la extensión de su ya amplia gama de productos Cloud de *aaS, incluyendo servicios de computación cuántica en la nube apoyados en sistemas cuánticos de D-Wave, IonQ y Rigetti. Todo ello complementado con una capa de software llamada Amazon AWS Bracket, que simplifica el diseño de circuitos y algoritmos cuánticos que luego puedan ser probados y ejecutados en simuladores SW, en annealers de D-Wave, o en computadores cuánticos basados en puertas con tecnologías de iones atrapados de IonQ o con tecnología de superconductores con sistemas de Rigetti.

ATOS

La multinacional francesa Atos es el principal proveedor del programa HPC/Quantum de la Unión Europea y un posible candidato para la construcción de tecnología cuántica europea pese a que, por el momento, no hay planes concretos de cuáles podrían ser los planes de la Unión Europea en cuanto a la computación cuántica, al margen de una declaración de objetivos de convertir a la Unión en líder en la supercomputación y computación cuántica, y la dotación de un presupuesto de 7.000 millones de euros para el periodo 2021 a 2027, dentro del marco de colaboración EuroHPC Joint Undertaking.

ATOS ha sido elegido por la Unión Europea como uno de los tres miembros privados del proyecto AQTION, cuyo objetivo es dotar a la UE de un computador cuántico basado en iones atrapados, de 50 qubits, para el 2023. ATOS aportará a este proyecto el entorno de desarrollo de simulación cuántica que lleva años depurando y que comercializa desde el 2017 como un producto completo (HW +SW) denominado Quantum Learning Machine y que, según el propio fabricante, es el simulador más potente existente en el mercado, capaz de emular un computador cuántico de hasta 64 qubits.

ATOS Quantum Learning Machine

Al margen de las herramientas open-source, ATOS ha incluido aplicaciones especialmente diseñadas y desarrolladas para este sistema.

FUJITSU

FUJITSU lleva años trabajando en la tecnología cuántica. Gracias a un largo e intenso trabajo de investigación y colaboración con la Universidad de Toronto y la empresa (también canadiense) 1QBit (líder en el desarrollo de software cuántico), la empresa japonesa anunció, en 2018 (tras el anuncio del desarrollo de la tecnología 2 años antes), la fabricación de un annealer digital, llamado Digital Annealer, capaz de resolver en base a circuitos digitales (por lo tanto a temperatura ambiente), problemas de optimización combinatoria 10.000 veces más rápido que un computador convencional.

La primera generación del Digital Annealer estaba basada en un circuito digital de 1.024 bits en una configuración full-mesh (todos conectados con todos), con enlaces de 32 bits de precisión. Actualmente, FUJITSU ya ha construido la 3ª generación de este producto, con un circuito de 8.192 bits con variables de 64 bits de precisión, ampliando el rango de capacidad de resolución a problemas más complejos. FUJITSU ofrece esta tecnología como servicio en la Nube y ha demostrado su escalado hasta 100.000 bits, por ejemplo para optimizar la programación de la línea de producción de Fuji Film. FUJITSU ha anunciado también que la próxima generación del Digital Annealer escalará hasta 1 millón de bits.

Digital Annealing Unit. Motor de la máquina de Ising de FUJITSU

En cuanto a computación cuántica universal, basada en puertas cuánticas, FUJITSU anunció en 2020 su intención de construir, en un esfuerzo conjunto con el principal centro de investigación pública de Japón, RIKEN, un sistema basado en superconductividad, aunque también menciona su interés en el estudio de la tecnología de qubits de vacantes en diamante. No hay fechas estimadas de cuándo estará disponible esta tecnología o cómo se comercializará, pero por sus notas de prensa se estima que podría estar disponible en cualquier momento antes de finales del 2025. Lo que parece que forma parte de los objetivos prioritarios de la compañía nipona, es el desarrollo de tecnologías propias de corrección de errores en computadores cuánticos, que es uno de los talones de aquiles de la computación cuántica actual.

Como última reflexión sobre FUJITSU, y permitidme aquí una leve subjetividad que he procurado evitar en la redacción de esta serie de artículos: Una empresa especializada en las tecnologías de la información, con más de 80 años de experiencia en el mundo de la tecnología (la más longeva del sector sólo superada por IBM), con más de 40 años de experiencia en el mundo de la supercomputación, capaz de crear el supercomputador más potente jamás construido (el FUGAKU, líder simultáneamente en 4 de los principales rankings de supercomputación), capaz de construir el primer procesador de tecnología ARM con extensiones vectoriales apto para su uso en HPC, con más de 130.000 empleados en todo el mundo y más de 100.000 patentes tecnológicas,… es una compañía a tener en cuenta y, lo que presente al mercado, será algo que, con toda seguridad, no pasará desapercibido.

Hasta aquí llega nuestro listado de fabricantes en computación cuántica, sabiendo que hemos omitido a compañías relevantes en este campo como, por ejemplo, Hitachi, NEC y NTT en Japón. Tampoco hemos mencionado mucho sobre los avances tecnológicos en China, salvo algunas pinceladas sobre los sistemas que China ha querido hacer públicos de manera directa o indirecta, sin embargo, estamos seguros de que en ese país se han realizado avances más significativos de los públicamente anunciados, sobre los cuales no llega información al resto del mundo como consecuencia de la política de control de la información del gobierno chino. Cierto es que en este caso concreto de la computación cuántica, las reservas pueden tener una cierta justificación dada la importancia de esta tecnología en la seguridad nacional por su impacto en el campo de la criptografía.

No descartamos que, en posteriores revisiones de este artículo, ampliemos la lista de fabricantes mencionados aquí.

Convergencia HPC y QC

Por último, una reflexión en relación a la convergencia entre la computación digital y la cuántica. No olvidemos que, como hemos mencionado en este y otros artículos, el computador cuántico no es la solución a todo tipo de problemas. Hay cosas que un computador digital hace, y seguirá haciendo, mejor y más eficientemente que un computador cuántico: Gestionar una interfaz de usuario, realizar cálculos aritméticos o algebraicos, procesar una hoja de cálculo, un procesador de textos, gestionar una base de datos, y un sinfín de cosas más.

Por estos motivos, la convergencia entre la computación digital, o en concreto la de altas prestaciones, supercomputación o HPC (por sus siglas en inglés) y la Computación Cuántica, es una necesidad para cubrir todo el espectro de necesidades que se presentan en nuestro mundo digital actual y futuro (al menos durante unas cuantas generaciones). Sobre esto, con algunas consideraciones más, hablaremos en el siguiente artículo.

Hemos presentado los principales fabricantes relacionados con el desarrollo, fabricación o explotación de computadores cuánticos, pero si todo el que quiera tener acceso a un computador no tuviera más remedio que adquirirlo, la difusión de esta tecnología sería mucho más lenta, ya que pocos tienen la capacidad de pagar su precio (la factura puede tener 7 u 8 ceros, como mínimo). Por esto, y porque hay una demanda creciente en el mercado que supone una sustancialmente creciente vía de ingresos, los grandes proveedores de nube pública, han incorporado a su oferta de servicios, los servicios de computación cuántica. Empresas como IBM, Google, Amazon y Microsoft, tienen, desde hace años, una oferta de servicios de computación cuántica (IBM lanzó su programa Quantum Experience para la nube pública a mediados del 2016), tanto en modo de emulación como acceso a computadores cuánticos reales.

Y con esto llegamos al final de este artículo y casi al final de esta serie introductoria a la computación cuántica.

El siguiente artículo, y último de esta serie, “|QC-7> ¿Qué hay de postre?”, se presentará una síntesis de la vanguardia en computación cuántica junto con algunas reflexiones personales a modo de conclusión.

Artículos de esta serie:

--

--