Google AI Quantum vence la carrera hacia la supremacía cuántica con Sycamore (53 cúbits)

Por Francisco R. Villatoro, el 23 septiembre, 2019. Categoría(s): Ciencia • Computación cuántica • Informática • Noticias • Science ✎ 21

Investigadores liderados por John M. Martinis (Google AI Quantum) han desarrollado el ordenador cuántico Sycamore de 54 cúbits (aunque solo funcionan bien 53) y un algoritmo específico para mostrar la supremacía cuántica (el algoritmo genera secuencias de números aleatorios y no tiene aplicaciones prácticas relevantes). El 20 de septiembre de 2019 se anunció en un artículo de Financial Times  que Sycamore había demostrado la supremacía cuántica con 53 cúbits. Se han probado dos versiones del algoritmo: una clásicamente verificable (EFGHEFGH), que requiere hasta 200 segundos en el supercomptuador Summit y se ha usado para verificar que el ordenador cuántico funciona; y otra clásicamente intratable (ABCDCDAB), cuya verificación en Summit se estima que requiere 10 000 años. El grupo de Martinis ha logrado un hito histórico.

El algoritmo usado fue diseñado específicamente para este hito y no se pretendía que tuviera aplicaciones prácticas; la generación de secuencias de números aleatorios cuánticamente certificados es un problema interesante, pero hay métodos mucho más eficientes y baratos para resolverlo que usar el nuevo algoritmo en Sycamore. En mi opinión, lo más relevante de este hito es la introducción del concepto de entropía cruzada para la evaluación del comportamiento cuántico de un ordenador (XEB, por cross-entropy benchmarking). Si futuros estudios lo confirman, este nuevo concepto para medir la cuanticidad (quantumness) podría ser la gran contribución de este trabajo al campo de las tecnologías cuánticas con un nivel intermedio de ruido (NISQ, por Noisy Intermediate-Scale Quantum).

El artículo es Frank Arute, …, Hartmut Neven, John M. Martinis (Google AI Quantum and collaborators), “Quantum Supremacy Using a Programmable Superconducting Processor,” NASA/TP-2019-220319 [Google Drive PDF], Supplementary information [Google Drive PDF].

[PS 27 sep 2019] Te recomiendo leer a Scott Aaronson, “Scott’s Supreme Quantum Supremacy FAQ!,” Shtetl-Optimized, 23 Sep 2019. El término “supremacía cuántica” fue acuñado por John Preskill en 2012, pero ya estaba en el aire desde 1994, cuando se publicó el algoritmo cuántico de Shor para la factorización de números enteros. La idea de alcanzar la supremacía cuántica mediante algoritmos de muestreo de distribuciones aleatorias nació en 2002 con Barbara Terhal y David DiVincenzo. En concreto, el muestreo de circuitos cuánticos aleatorios usado por Martinis y sus colegas nació en una lista de correo en febrero de 2015 y desde entonces era la línea más prometedora para alcanzar la supremacía.

¿Cuál es el siguiente hito en el camino? Demostrar la supremacía cuántica usando un algoritmo cuántico con corrección de errores. ¿Cuándo se podría lograr? Como mínimo faltan unos cinco años, y no creo que se tarde más de diez años. Así que habrá que estar al loro al respecto. ¿Quién lo logrará? Ni idea, pero IBM parece tener más claro este camino que Google o su competencia. [/PS]

Sycamore está formado por 54 cúbits superconductores de tipo transmón en una matriz 9 × 6 (aunque uno de los cúbits no funciona bien y por ello solo se usan 53 cúbits). Cada cúbit se comporta como una cavidad resonante con una frecuencia de 5 a 7 GHz; salvo los más externos, cada cúbit está acoplado a otros cuatro mediante acopladores cúbit-cúbit ajustables entre 0 y 40 MHz. Sycamore funciona enfriado por debajo de 20 mK y se controla mediante pulsos de microondas (con una duración de 25 ns) a la frecuencia de resonancia adecuada. El procesador se controla mediante 277 DAC (conversores digital-a-analógico) a un ritmo de 14 bits por cada 1 GS/s (recuerda que GS/s mide la velocidad de muestreo y significa gigamuestras por segundo, o mil millones de muestras por segundo).

Esta figura muestra el circuito cuántico de m pasos que ejecuta el algoritmo de Martinis sobre un cúbit y sus cuatro vecinos para la secuencia de control clásicamente intratable ABCDCDAB (donde se llaman ABCD a ciertos ajustes de los cuatro acopladores ajustables). El primer ciclo del algoritmo ejecuta cinco operaciones unarias elegidas de forma aleatoria (en concreto, entre los operadores de raíces cuadradas √X, √Y, y √W). Luego se repiten m–1 ciclos de una operación binaria entre dos de dichos cinco cúbits  (en concreto iSWAP). También se ha implementado otra versión del algoritmo con la secuencia de control clásicamente verificable EFGHEFGH (donde se llaman EFGH a ciertos ajustes de los cuatro acopladores ajustables).

Esta figura muestra los patrones de activación de los acopladores para las secuencias A, B, C y D (arriba), y E, F, G y H (abajo). La diferencia entre el patrón ABCDCDAB y el EFGHEFGH es que este último tiene simetrías que se pueden aprovechar para una simulación cuántica eficiente, mientras el primero carece de ellas. En la información suplementaria del artículo se ofrecen detalles sobre la simulación del circuito cuántico en un ordenador (clásico) tanto usando un método numérico para la ecuación de Schrödinger (códigos qsim y qsimh, arXiv:1807.10749 [quant-ph]), como usando integrales de camino de Feynman (código qFlex, arXiv:1811.09599 [quant-ph]).

Martinis y sus colegas desarrollaron este algoritmo cuántico para generar números aleatorios de tal forma que para ciertos ajustes de los acopladores se pudieran simular de forma eficiente en un ordenador clásico. Así esta figura a la izquierda muestra la comparación entre el resultado simulado en el supercomputador Jülich (100k núcleos y 250 terabytes) y el observado en los experimentos para la secuencia EFGHEFGH con 14 ciclos en función del número de cúbits entre 12 y 53; el ajuste es muy bueno y se interpreta como verificación de que Sycamore funciona bien. En este figura a la derecha se muestra el resultado de los experimentos para la secuencia ABCDCDAB con entre 12 y 20 ciclos (m), así como el tiempo de ejecución estimado en el superordenador Summit de IBM (#1 del TOP500 June 2019).

Para que la estimación del tiempo de ejecución de Summit sea fiable, se han simulado dos instancias del algoritmo cuántico con 53 cúbits. Una con 12 ciclos y una entropía cruzada (XEB) del 0.5%, que ha requerido 1.29 horas de computación; y otra para 14 ciclos y una XEB de 2 por millón que requiere 0.72 horas. El funcionamiento del ordenador cuántico Sycamore es compatible con una XEB superior al 0.1% hasta 20 ciclos; en este caso ejecuta el algoritmo en 200 segundos, mientras que se estima para Summit unos diez milenios.

En resumen, tras leer el artículo creo que el hito de la supremacía cuántica ha sido superado con éxito por Google IA Quantum. El equipo de Martinis se ha adelantado a la competencia, como prometió hace unos años. La clave ha sido elegir el algoritmo adecuado; y por supuesto el apoyo financiero de una gran compañía como Google. En rigor debemos esperar a las críticas de los competidores, que quizás pueden ver entre líneas alguna cosa que a mí se me haya escapado tras leer las 12 páginas del artículo y las 58 páginas de la información suplementaria. Google vuelve a adelantarse a IBM y Microsoft en el campo de los ordenadores cuánticos.



21 Comentarios

  1. ¡ Increíble ! Si esto se confirma significaría la constatación experimental de que los computadores cuánticos funcionan, no son solo entidades teóricas irrealizables en la práctica. Conceptos “abstractos” como espacios de Hilbert, proyecciones de estados, transformaciones unitarias y superposición-entrelazamiento han “descendido” del mundo Platónico de las ideas y han conferido a los científicos poderes extraordinarios 😀 Una vez más, este histórico hito demuestra lo que el hombre es capaz de realizar cuando la investigación fundamental, la tecnología y el ingenio humano se combinan. Ojalá este trabajo experimental se confirme, podría significar el inicio de una nueva era en el terreno de la computación, la teoría de la información, la IA, el Deep-learning, el estudio de sistemas cuánticos fundamentales… La ciencia parece que avanza lentamente pero sus logros son continuos y fascinantes: El Higgs, nuevas tecnologías, nuevos exoplanes, ondas gravitatorias, ¿ahora la computación cuántica? ¿Que avances nos supondrá esta nueva tecnología? ¿Hasta donde podremos llegar?

  2. cuantos años faltan y que cantidad de qubits y error para lograr simulaciones cuanticas para resolver problemas reales, como produccion de nuevos farmacos o cura de enfermedades o quimica organica o inroganica?

    1. Benjamin, ni idea de cuánto tiempo falta; depende del problema práctico, pero se necesitan al menos cientos de cúbits en un procesador de propósito general (o miles de cúbits en un procesador como Sycamore); en 20 años se ha logrado pasar de unos 5 cúbits enfriados a pocos kelvin a unos 50 enfriados a pocos milikelvin, a este paso tendríamos unos 5000 enfriados a pocos nanokelvin en 2040, lo que ya podría resolver problemas prácticos sencillos con procesadores tipo Sycamore.

  3. Muchas gracias por tu entrada, es genial que se esté avanzando en tan poco tiempo en este campo.

    Solo una curiosidad si se sabe. La matriz de cúbits está formada por 54 y hay uno que no funciona. No sé si han especificado por qué no funciona dicho cúbit. Y en caso de que se pudiese usar, ¿qué se habría ganado con ello?

    Es solo por curiosidad, muchas gracias!

      1. Ah, gracias Francis, entiendo. Y si hubiera un ordenador cuántico “central” que mediante alguna forma de transmisión de la información utilizara como sus “cubits” a cada uno de los ordenadores de la red? Cambiaría en algo la situación?

        1. Pau, te refieres a ordenadores cuánticos conectados por la internet cuántica podrían compartir información cuántica, pero la “ventaja computacional cuántica” solo se obtiene si hay superposición y entrelazamiento entre los cúbits, lo que no se logra solo con “enlaces cuánticos”. Eso sí, el futuro serán los oráculos cuánticos (ordenadores cuánticos que realizan ciertos cálculos de apoyo para un superordenador clásico logrando cierta ventaja cuántica).

          1. Desde un punto de vista comercial, pienso que por allí vendrá la primera oleada ( máquinas híbridas), pues algún retorno económico los patrocinadores querrán tener.

  4. Hola,como lego me alegro que Google tenga el hito de la supremacía Cuántica,
    pero después de leer un poco esto con Google,voy a Google Wikipedia y leo.

    “Comenzaron Google como un proyecto universitario en enero de 1996”
    “En 1997 los fundadores deciden cambiar el nombre a Google”

    No sigo mas (que raro).

    Un saludo y gracias

  5. Saludos excelente. Deben de controlar la temperatura para un mejor rendimiento apesar que dominan el enfriamiento por debajo de 20 mK, se debe tomar encuenta que se puede producir un rebote por el uso de la micro ondas. Muy interesante matriz.

  6. Cuando dices “la generación de secuencias de números aleatorios cuánticamente certificados es un problema interesante, pero hay métodos mucho más eficientes y baratos para resolverlo que usar el nuevo algoritmo en Sycamore” ¿te refieres a métodos que no requieren un ordenador cuántico, o a algoritmos cuánticos más eficientes?

  7. Hay algo profundo y fundamental detrás de este experimento además de demostrar por fin la supremacía cuántica. Preguntémonos: ¿Porque un conjunto de 53 cubits es capaz de realizar en 200 segundos un cálculo que a un supercomputador le costaría 10.000 años? ¿Que clase de extraño superpoder se esconde dentro de esa máquina?
    En mi opinión la respuesta a esta pregunta reside en la verdadera naturaleza de lo que llamamos “información” a nivel fundamental. Hablando a grosso modo, la información a nivel fundamental no es un 1 ni un 0 sino que es una especie de “mezcla” de todos los valores posibles (la función de onda). Como diría Feynman: la luz sigue todos los caminos posibles solo que cada camino tiene una cierta amplitud de probabilidad, las amplitudes negativas y positivas se cancelan y solo queda la amplitud mayor, que es la que medimos. De la misma forma, la función de onda es una suma de todos los valores posibles cada uno con una probabilidad, el computador cuántico (CC) puede tomar la función de onda en su CONJUNTO y realizar operaciones sobre ella (operaciones unitarias, inferferencia…) como si fuera una onda, de forma que se modifiquen las amplitudes de la forma deseada para obtener con gran probabilidad lo que buscamos (en el caso del algoritmo de Grover la interferencia repetida de la función de onda generada por el CC con la base de datos donde queremos buscar nos permite encontrar los bit de información que buscamos mucho más rápido que un computador clásico). Todo esto nos indica que el ingrediente clave para la supremacía cuántica es la SUPERPOSICIÓN-ENTRELAZAMIENTO cuántico. Esto nos lleva a algo realmente fascinante y extraño: la naturaleza, en su nivel más fundamental parece incorporar sutiles fenómenos NO LOCALES, la información parece estar “dispersa”, como si la realidad que vemos fuera una especie de PROMEDIO de muchas “realidades” (esto que suena tan raro es realmente muy similar a lo que se realiza al aplicar las integrales de Feynman). Sin duda la naturaleza, en su nivel fundamental es muy diferente de nuestro mundo macrocópico, es muy posible que la holografía juegue también un papel importante: existen trabajos sobre información holográfica que parecen indicar que la información se almacena (de forma recurrente) de forma holográfica. Resumiendo: el experimento de hace unos dias no es solo una maquinita que registra números aleatorios muy rápidamente, es la primera máquina construida por la humanidad capaz de utilizar y modificar la unidad de información más fundamental del Universo.

Deja un comentario