El modelo clásico del ordenador supuestamente cuántico de D-Wave

Dibujo20140128 chimera graph structure d-wave one - classical branching equilibria in supernode simulation

Obvio, pero hay que repetirlo. Si el tiempo de decoherencia de un cubit individual es menor que el tiempo de ejecución de un algoritmo que utilice cientos de estos cubits, entonces el algoritmo ejecutado es clásico, aunque use cubits. Umesh Vazirani (UC Berkeley, EEUU) y varios colegas han construido un modelo clásico de la máquina de D-Wave que explica todas sus ventajas «cuánticas» (sus suspuestas correlaciones cuánticas no locales entre cubits lejanos). Un modelo (clásico) de campo medio efectivo que aproxima el algoritmo de recocido cuántico. Malas noticias para D-Wave que pronto verá como se cae su castillo de naipes. El artículo técnico es Seung Woo Shin, Graeme Smith, John A. Smolin, Umesh Vazirani, «How «Quantum» is the D-Wave Machine?,» arXiv:1401.7087 [quant-ph], 28 Jan 2014.

En el nuevo modelo clásico, cada cubit en la máquina de D-Wave se reemplaza por un imán cuya dirección está en el plano XZ; el acoplo entre cubits se simula por una interacción dipolo-dipolo entre los imanes vecinos; y el efecto del recocido cuántico se simula mediante un campo magnético externo cuya intensidad se atenúa. Lo más interesante del nuevo modelo clásico no es que simula las correlaciones «cuánticas» no locales observadas en la máquina de D-Wave, sino que además muestra que su comportamiento está controlado por un número pequeño de cubits «efectivos» llamados supernodos (que determinan el número de puntos de equilibrio del modelo). El algoritmo «cuántico» con 108 cubits publicitado el año pasado por D-Wave (parte izquierda de la figura) equivale a un algoritmo clásico con sólo 16 supernodos (parte derecha de dicha figura).

Dibujo20140128 histogram and scatterplot of the new classical model compared with d-wave

El nuevo modelo clássico no sólo simula el comportamiento de la máquina de D-Wave (con un coeficiente de correlación R≈0,99), además obtiene mejor rendimiento, demostrando que en la implementación real de la máquina no logra alcanzar su rendimiento teórico máximo. No quiero entrar en los detalles del modelo, fáciles de entender para quien haya estudiado modelos de vidrios de espines. Lo único importante  es que el nuevo modelo predice una degradación del comportamiento de D-Wave conforme el número de cubits crezca que podría ser confirmado cuando la compañía publique los resultados de su nueva máquina con 1000 cubits. Mientras D-Wave no logre mejorar los resultados del nuevo modelo clásico (y será difícil que lo logre), nadie se creerá que su máquina es cuántica.

Dibujo20140128 effect of transverse magnetic field to simulate annealing

¿Por qué la máquina de D-Wave con 108 cubits se comporta tan bien si equivale a sólo 16 supernodos? Por eso mismo, porque el problema concreto «cableado» en la máquina es muy sencillo y se puede resolver con sólo 16 supernodos (es decir, equivale de forma efectiva a un algoritmo con 16 cubits). Cuando se «cableen» problemas más complicados, que requieran el número de supernodos similar al número de cubits, el rendimiento de la máquina de D-Wave (según las predicciones del nuevo modelo clásico) caerá por los suelos. No hay peor ciego que el que no quiere ver.



8 Comentarios

  1. Aún no entiendo para donde va la computación cuántica si en esta se mete la indeterminación y la decoherencia cosas no deseable porque el éxito de los sistemas digitales es que un uno es un «uno determinado» y el resultado de cualquier algoritmo está determinado por su entrada.
    Si es que fuera así en un computador cuántico nunca tendremos certeza del resultado sino una probabilidad de resultado ante una entrada dada

    1. Pues yo estoy harto de leer comentarios triunfalistas del tipo: «250 qubits serían capaces de almacenar más bits de información que átomos en el Universo.»

      Genial. Ahora, DÓNDE y CÓMO se supone que almacenarían toda esa información. Porque la estabilidad más ALTA de un Qbit por ahora ronda en fracciones de milisegundo. Suficiente quizá para procesar la información, pero NO para almacenarla.

      Si la CPU cuántica necesita unidades de almacenamiento tradicionales (binarias) con la consecuente interfaz de conversión bit-qbit, entonces ya me dirán dónde queda el super ultra hiper rendimiento de ese sistema.

      Rendimiento que, por otra parte, no supera el 95% de acierto en las operaciones lógicas. ¡Grandioso! Wall Street y el Pentágono saltan de entusiasmo.

      Mucho ruido y pocas nueces… que muy pero que MUY verdes todavía.

        1. Gracias. Más de 39 minutos a temperatura ambiente. Sin duda un gran avance. Pero es un fruto de laboratorio, y sigue estando MUY verde.

          Consideremos la década larga que demoró la industria informática en masificar el paradigma de los 64 bits. Y no es más que una simple extensión del paradigma previo de 32 bits, que todavía tiene cuerda para rato.

          Por ejemplo, cada CUDA core es un procesador de 32 bits. El «secreto» de nVidia es poner muchos CUDA cores en una misma GPU.

          Samsung ha anunciado procesadores ARM de 128 bits para 2015 o 2016. Francamente, esa noticia no parece ser más que una pulla contra Apple. Porque todavía ni hemos empezado a sacarle el verdadero jugo a los 64 bits.

          Un PC de 128 bits (con su correspondiente sistema operativo de 128 bits) no será necesario hasta 2025 o más. A ese ritmo, un PC cuántico para antes de 2050 es pura ciencia ficción.

          Claro está que la tecnología en bruto podría quedar pronta mucho antes, quizá en 2020. Pero de ahí a que sea plenamente confiable y además barata… falta muuucho trecho.

          1. No entiendo la comparación, en realidad no le encuentro relación alguna. Justamente los ordenadores cuánticos son tan interesantes (para la ciencia) porque en teoría podría hacer cosas que ningún ordenador clásico podría nunca (como simular otros sistemas cuánticos grandes-de muchas partículas-). Por ello no veo que tiene que ver el avance de los ordenadores clásicos con los cuánticos la verdad.
            Y por cierto, hay ideas para la computación cuántica aun mas prometedoras por explorar, por ejemplo la computación cuántica topológica tolerante a fallos con aniones no abelianos o aprovechar el efecto Zenón cuántico dinámico para controlar a los qubits, en fin el campo es muy extenso y el tiro podría salir por cualquier lado, yo no sería tan categótico.

  2. Buscando por aquí y por allá y teniendo en cuenta que el primer transistor de silicio fue en 1954 y estamos en 2014 llegué a la conclusión de que no veré un computador en mi escritorio que no sea de silicio en lo que queda de mi vida

    1. JAJA! Mi anti-virus está ahí para matar vida basada en silicio 🙂

      Recién estamos empezando a exprimir el auténtico poder del procesamiento paralelo basado en silicio.

      ¿Te imaginas un smartphone de 5 watts más potente que Xbox 360 o PS3 de 100 watts? No lo imagines, mira el monstruito Tegra K1 que acaba de lanzar nVidia:

      http://www.gadgetos.com/noticias/nvidia-anuncia-tegra-k1-un-procesador-para-smartphones-192-nucleos/

      http://www.techspot.com/news/55228-nvidia-unveils-tegra-k1-soc-with-192-cuda-cores-kepler-architecture.html

      La arquitectura Tegra K1 es básicamente la expresión móvil (de bajo consumo energético) de la tecnología Tesla Kepler usada para aplicaciones científicas y minería bitcoin. Entre ambos extremos están las GPUs para PCs gamers.

      Vengo leyendo artículos sobre computación cuántica desde mediados de los 80. Siempre parece estar a la vuelta de la esquina.

      El día que lea una artículo estilo «IBM ha lanzado al mercado su nueva línea de mainframes cuánticos serie THX-9000» me creeré que hemos dado vuelta la esquina.

      Saludos.

  3. Se me ocurre una idea,
    ¿y si no hiciera falta que todos los cubits estén entrelazados simultáneamente?, sino sólo una región, que esa región se vaya «desplazando» cíclicamente, de modo que siempre haya un conjunto de cubits entrelazados.
    Quizás lo que he dicho es una chorrada, o de todos modos lo complicado no es imaginarlo sino hacerlo.

Deja un comentario

Por Francisco R. Villatoro
Publicado el ⌚ 29 enero, 2014
Categoría(s): ✓ Ciencia • Computación cuántica • Física • Noticias • Physics • Science
Etiqueta(s): ,