Estamos en la era de la computación cuántica de escala intermedia y ruidosa (NISQ, por sus siglas en inglés); los ordenadores cuánticos actuales ya tienen cientos de cúbits pero muy ruidosos. La siguiente era será la de los ordenadores cuánticos con corrección de errores (que simularán cada cúbit lógico sin ruido usando decenas o cientos de cúbits físicos muy ruidosos); pero aún están lejos las máquinas con decenas de miles de cúbits físicos que serán necesarias. ¿Sirven para algo práctico los ordenadores NISQ actuales? La verdad, no sirven para resolver ningún problema de interés industrial. Sin embargo, se están proponiendo aplicaciones en ciencia básica (bueno, en física cuántica). Se publicó en Nature el uso de un ordenador cuántico IBM tipo Eagle de 127 cúbits (ibm_kyiv) para simular un modelo de espines en interacción; para ello se usó una técnica de mitigación de errores que se demostró con otro ordenador de IBM de 27 cúbits y que se publicó en Nature Physics. Pero el nuevo resultado tiene muchas limitaciones: se simuló el hamiltoniano trotterizado (de poco interés para un físico cuántico), solo se ejecutaron 60 pasos de tiempo (se ejecutaron 2880 puertas lógicas CNOT), para la topología de la red de espines se usa la de los cúbits del ordenador cuántico y, entre otras cosas, no se ha logrado la ventaja cuántica pues el sistemas se puede simular en un superordenador clásico. A pesar de todo ello se anunció que era la primera aplicación útil de un ordenador NISQ. Salvo que seas un físico cuántico, será inútil para ti.
No ha tardado en llegar una segunda aplicación práctica, usando otro ordenador cuántico de IBM tipo Eagle de 127 cúbits (ibm_washington). Se ha publicado en arXiv (con seguridad aparecerá pronto en una revista) un algoritmo cuántico para el descubrimiento de invariantes locales (también llamados integrales del movimiento o leyes de conservación) en modelos integrables de espines desordenados; estos invariantes corresponden a una secuencia de operadores cuánticos (puertas lógicas) que aplicadas a los cúbits determinan un valor que no cambia durante la dinámica del sistema (en realidad, se usa una base de operadores Pauli y se calculan los coeficientes del invariante en dicha base). Existe un algoritmo clásico que permite verificar un invariante de forma eficiente (lo que permite estimar el error en los coeficientes calculados por el algoritmo cuántico). En un sistema físico con n cúbits se pueden determinar n invariantes (LIOMs, por sus siglas en inglés); en el artículo se han determinado 104 LIOMs para un modelo unidimensional simulado con 104 cúbits y 124 LIOMs para uno bidimensional con 124 cúbits. De nuevo, el resultado tiene muchas limitaciones, siendo la más relevante que se calculan invariantes aproximados, es decir, que los coeficientes del invariante calculados tienen errores (como un tercio tienen tanto error que su valor es inútil en la práctica). A pesar de ello, el artículo se vende como una nueva aplicación práctica de los ordenadores NISQ.
Los artículos son Youngseok Kim, …, Kristan Temme, Abhinav Kandala, «Evidence for the utility of quantum computing before fault tolerance,» Nature 618: 500-505 (14 Jun 2023), doi: https://doi.org/10.1038/s41586-023-06096-3; Youngseok Kim, …, Kristan Temme, Abhinav Kandala, «Scalable error mitigation for noisy quantum circuits produces competitive expectation values,» Nature Physics 19: 752-759 (06 Feb 2023), doi: https://doi.org/10.1038/s41567-022-01914-3; Oles Shtanko, Derek S. Wang, …, Zlatko Minev, «Uncovering Local Integrability in Quantum Many-Body Dynamics,» arXiv:2307.07552 [quant-ph] (14 Jul 2023), doi: https://doi.org/10.48550/arXiv.2307.07552. También cito a Matija Medvidović, Giuseppe Carleo, «Classical variational simulation of the Quantum Approximate Optimization Algorithm,» npj Quantum Information 7: 101 (18 Jun 2021), doi: https://doi.org/10.1038/s41534-021-00440-z; Markus Schmitt, Markus Heyl, «Quantum Many-Body Dynamics in Two Dimensions with Artificial Neural Networks,» Physical Review Letters 125: 100503 (02 Sep 2020), doi: https://doi.org/10.1103/PhysRevLett.125.100503. También recomiendo la versión divulgativa en Göran Wendin, Jonas Bylander, «Quantum computer scales up by mitigating errors,» News & Views, Nature 618: 462-463 (14 Jun 2023), doi: https://doi.org/10.1038/d41586-023-01884-3.
[PS 23 jul 2023] Ya se han publicado tres artículos con simulaciones clásicas (incluso en un ordenador portátil) de los resultados publicados en Nature: Joseph Tindall, Matt Fishman, …, Dries Sels, «Efficient tensor network simulation of IBM’s kicked Ising experiment,» arXiv:2306.14887 [quant-ph] (26 Jun 2023), doi: https://doi.org/10.48550/arXiv.2306.14887; Tomislav Begušić, Garnet Kin-Lic Chan, «Fast classical simulation of evidence for the utility of quantum computing before fault tolerance,» arXiv:2306.16372 [quant-ph] (28 Jun 2023), doi: https://doi.org/10.48550/arXiv.2306.16372; K. Kechedzhi, S. V. Isakov, …, V. Smelyanskiy, «Effective quantum volume, fidelity and computational cost of noisy quantum processing experiments,» arXiv:2306.15970 [quant-ph] (28 Jun 2023), doi: https://doi.org/10.48550/arXiv.2306.15970.
Por ahora, un grupo de expertos dedicado a ello con ahínco parece poder lograr simulaciones clásicas eficientes de muchas simulaciones cuánticas implementadas en ordenadores cuánticos con muchos cúbits. Sin embargo, algún día habrá tantas de estas simulaciones publicadas que no habrá suficientes expertos para concebir y desarrollar las correspondientes simulaciones clásicas. A partir de ese día, proclamar una «ventaja cuántica en la práctica» será equivalente a lograr una «ventaja cuántica». Por supuesto, mucho más tarde, llegará otro día en el que ni siquiera un grupo de expertos trabajando durante décadas podrá emular a nivel clásico la ventaja cuántica que ofrecerán los ordenadores cuánticos. Tiempo al tiempo. Recomiendo leer a Scott Aaronson, «Common knowledge and quantum utility,» Shtetl-Optimized, 16 Jul 2023. [/PS]
[PS 08 ago 2023] Se ha publicado una simulación clásica del sistema de 127 cúbits estudiado en el ordenador cuántico de IBM, capaz de calcular cada punto en las figuras de arriba en unas 7 horas de cálculo en un Intel Xeon Gold 6326. El artículo es Hai-Jun Liao, Kang Wang, …, Tao Xiang, «Simulation of IBM’s kicked Ising experiment with Projected Entangled Pair Operator,» arXiv:2308.03082 [quant-ph] (06 Aug 2023), doi: https://doi.org/10.48550/arXiv.2308.03082. [/PS]
Se ha simulado un sistema de espines acoplados regido por el modelo Ising; en concreto, se usa el hamiltoniano estándar H = HZZ + HX = − J ∑ Zi Zj + h ∑ Xi, donde J>0 es la constante de acoplamiento entre espines cercanos (i<j) y h es un campo transversal global. Si los espines están distribuidos en una recta se tiene un modelo unidimensional (1D) y si están distribuidos con cierta conectividad en un plano será bidimensional (2D); en el artículo, la conectividad de los espines es idéntica a la de los cúbits del ordenador cuántico ibm_kyiv de 127 cúbits de IBM que se ha usado (que se muestra a la derecha en esta figura, donde cada círculo negro con un número representa un cúbit que simulará un espín). En la simulación los espines se sustituyen por cúbits, los operadores Zi por operadores de rotación binaria RZiZj(θJ) y los operadores Xi por rotaciones unarias RXi(θh). Para simplificar la simulación, se fija θJ = − π/2, que permite implementarla con una puerta lógica CNOT (inversor controlado); lo que en la parte izquierda de la figura se llama capa ZZ. En cuanto al otro ángulo, θh, se usa como parámetro libre, siendo variado en las simulaciones entre 0 y π/2. Como muestra la figura de la derecha, hay cúbits conectados con otros tres cúbits mediante tres capas ZZ, que se representan mediante tres colores (rojo, azul y verde), aunque son idénticas, pero la mayoría de los cúbits solo están conectados con otros dos cúbits mediante dos capas ZZ (cuyos colores dependen del cúbit).
La dinámica de este sistema físico está dada por |ψ(t)〉 = exp(−i H t) |ψ(0)〉, pero su simulación en el ordenador cuántico requiere discretizar el tiempo, tnn = n Δt, y usar un método numérico; en este caso se usa el método de separación de operadores (operator splitting) basado en la fórmula de Trotter para el operador exponencial, exp(−i H t) ≈ ∏ exp(−i HZZ Δt) exp(−i HX Δt), cuyo error es lineal en el paso de tiempo, O(Δt). En el artículo en Nature se afirma que se simula el modelo de Ising trotterizado, así se oculta bajo la alfombra el error asociado al método numérico. Además, se simula el sistema en un número pequeño de pasos de tiempo, t ∈ [0, N Δt], con N ≤ 20. Luego el sistema físico simulado no tienen ninguna utilidad para un físico especializado en modelos de espines, a pesar de que en el artículo de Nature la palabra utilidad aparece en el titular.
El algoritmo de mitigación de errores se explica en el artículo en Nature Physics, donde se valida usando el mismo algoritmo, pero con 26 cúbits en un ordenador de IBM tipo Falcon con 27 cúbits (ibmq_kolkata). Los detalles de por qué funciona requieren cierta física cuántica, así que me limitaré a comentar que se aplica una técnica llamada extroplación de ruido cero (zero-noise extrapolation); en concreto, se implementa usando puertas de Pauli ajustadas con unos parámetros aleatorios (el llamado Pauli Twirling), que se aplican antes y después de las puertas CNOT en la capa ZZ. Esta técnica se ilustran en la figura de la derecha como espirales de colores (muy psicodélicas para mi gusto) marcadas con la palabra Twirl.
Se ha verificado que el algoritmo cuántico funciona comparando sus resultados con simulaciones clásicas hasta 15 pasos de tiempo usando tres versiones del algoritmo; sus resultados se muestran en esta figura. Estas simulaciones clásicas son factibles porque la región de influencia de un cúbit (el número de cúbits con los que puede llegar a entrelazarse durante la dinámica del sistema) crece con el número de pasos de tiempo; en 20 pasos esta región cubre todos los 127 cúbits, pero para 15 pasos dicha región cubre muchos menos cúbits (que dependen del algoritmo). En setas figuras dicha región se muestra como un tronco de cono de color naranja; en las tres versiones del algoritmo para la verificación la región de influencia cubre 31, 37 y 68 cúbits (como ilustra la figura). Los resultados sin mitigación de errores (círculos de color verde) son bastante malos (compara los puntos verdes con la curva continua de la simulación clásica). Por fortuna, al aplicar el algoritmo de mitigación los resultados del algoritmo cuántico son muy parecidos a los resultados simulados; al menos para el algoritmo de la izquierda, pues para ángulos θh grandes hay desviaciones para el algoritmo del centro y grandes desviaciones para el algoritmo de la derecha. Aún así, los resultados validan que la técnica de mitigación que funcionaba en el ordenador Falcon de 27 cúbits también funciona en Eagle de 127 cúbits.
Los resultados con 20 pasos de tiempo, que no se pueden simular en un ordenador clásico según los autores, se muestran en la figura que abre esta entrada (te recomiendo echarle una nueva ojeada a la parte derecha marcada 〈Z62〉). Los resultados cuánticos con mitigación de errores son novedosos, aunque dudo mucho que tengan alguna utilidad práctica para los físicos expertos en el modelo de Ising. Dichos resultados se comparan con simulaciones clásicas usando un algoritmo variacional basado en matrices tensoriales (resultados de color rosa marcados como MPS y de color rojo como isoTNS). Como puedes ver en las figuras de verificación, estos dos métodos dan resultados bastante pobres hasta 15 pasos de tiempo; sin embargo, para el algoritmo 〈Z62〉 de 20 pasos de tiempo los resultados de MPS son bastante buenos (lo que resta utilidad al resultado cuántico).
El otro artículo que te quería comentar es la segunda aplicación práctica del ordenador Eagle de IBM, un algoritmo de estimación de invariantes en un modelo integrable de espines implementado con 124 cúbits. Como puedes ver en esta imagen, al más puro estilo IBM, la condición inicial usada es una versión pixelada de las letras IBM. Te recuerdo que un modelo físico con n grados de libertad es integrable (en el sentido de Liouville) si tiene n magnitudes conservadas o invariantes linealmente independientes entre sí; en sistemas mecánicos se suelen llamar integrales locales del movimiento (LIOMs, por las siglas en inglés de Local Integrals Of Motion), porque el conjunto completo de los invariantes se puede usar para parametrizar las órbitas. En un sistema mecánico conservativo se conservan la masa, el momento lineal y la energía, aunque a veces hay magnitudes conservadas adicionales; uno de los grandes descubrimientos de la segunda mitad del siglo XX es que hay sistemas mecánicos con n grados de libertad (como la red de Toda) tienen tantas magnitudes conservadas como grados de libertad; dichos sistemas se llaman integrables. Por supuesto, en física cuántica también hay sistemas cuánticos integrables; en estos sistemas las magnitudes conservadas son combinaciones lineales de operadores cuánticos (una base habitual es la de operadores de Pauli).
Los n LIOMS del sistema L1, L2, …, Ln, con operados hermíticos que conmutan con el hamiltoniano [H, Li] = 0 y conmutan entre sí [Li, Lj] = 0, para i ≠ j. Hay infinitas bases para escribir los LIOMS, pero en el artículo se usa una base con operadores de Pauli multicúbit; el algoritmo cuántico determinará los coeficientes (pesos de Pauli) en dicha base para cada LIOM. Por supuesto, como el algoritmo cuántico aplica un número finito de pasos y además los cúbits usados tienen error, los invariantes que se estiman son aproximados. Se puede verificar que son invariantes usando la relaciones de conmutación, que se cumplirán solo de forma aproximada (en rigor, los invariantes con gran error no serán invariantes).
Se puede construir un modelo de Ising de espines que sea integrable, en el que se pueden determinar de forma analítica todas las magnitudes cuánticas conservadas. Si se perturba dicho sistema de forma adecuada, se puede esperar que la integrabilidad se preserve para si la perturbación es pequeña; el problema es que determinar las nuevas magnitudes cuánticas conservadas es un problema muy costoso para un ordenador clásico, luego ideal para un ordenador cuántico. En el nuevo artículo, aparecido en arXiv, pero que se publicará en una prestigiosa revista sin problemas, se propone un modelo de Ising integrable cuando no hay desorden (cierto parámetro θ = 0); para un nivel pequeño de desorden debería seguir siendo integrable, es decir, por debajo de cierto nivel de desorden para θ < θc (cuando el desorden sea muy grande θc < θ ≤ π/2 el sistema se comportará de forma caótica, en el sentido del caos cuántico, es decir, de forma ergódica). Se espera que para θ = 0.1 π sea integrable, pero que para θ = 0.3 π no lo sea. La utilidad práctica de la simulación cuántica es determinar el parámetro crítico θc y algunos de sus invariantes para θ = 0.1 π (digo que algunos porque con n grados de libertad un sistema cuántico tiene 2n invariantes, lo que hace imposible determinarlos todos para n grande).
Las simulaciones se han realizado con dos ordenadores de IBM, ibmq_kolkata de 27 cúbits y ibm_washington de 127 cúbits. El operador que implementa la evolución del sistema se denomina ciclo de Floquet (corresponde a los rectángulos verdes en esta figura), pero no entraré en los detalles matemáticos. Se han aplicado hasta 20 ciclos de Floquet (lo que equivaldría a 20 pasos de tiempo en el otro artículo). El modelo unidimensional (1D) con 104 cúbits se ha usado para verificar el algoritmo, ya que se puede diagonalizar el hamiltoniano y se puede resolver el problema de forma analítica. Se ha estimado un valor crítico del parámetro de θc ≈ 0.16 π (que corresponde con el valor esperado al diagonalizar). Se han estimado 104 LIOMs aproximados, que como se observa en la parte derecha de esta figura (puntos azules), presentan claras desviaciones respecto a la predicción teórica (línea a trazos). Aún así, se considera que los resultados validan el algoritmo cuántico.
En el modelo 2D con 124 cúbits no se puede realizar la diagonalización (debido a la topología del sistema de espines, que corresponde a la de los cúbits del ordenador Eagle de IBM). Por tanto, los resultados obtenidos no se pueden verificar y se pueden considerar novedosos. No se ha podido determinar el valor crítico del parámetro θc (se calcula a partir de transición brusca en un parámetro de orden que marca la frontera con el comportamiento ergódico, pero solo se ha observado una transición suave, cuya causa podría ser el ruido de los cúbits). Los 124 invariantes estimados tienen bastante error (la llamada imprecisión en esta figura, a la izquierda). Aún así, como trabajo pionero que propone un nuevo algoritmo de cierta utilidad (en ciencia básica), los resultados me parecen interesantes.
Por supuesto, te preguntarás si se ha logrado la ventaja cuántica en estos algoritmos cuánticos útiles implementados en ordenadores de IBM con 127 cúbits. Los autores dicen que sí, sin embargo, debemos ser cautos. Simular estos resultados simulando el funcionamiento del ordenador cuántico con 127 cúbits está más allá de lo que podrán lograr los superordenadores (clásicos) en este siglo. Sin embargo, para simular estos modelos de espines no hay que simular por fuerza bruta el ordenador cuántico, se pueden aprovechar muchas de las simetrías de este sistema para reducir el coste computacional. De hecho, un sistema equivalente con 64 espines ha sido simulado usando una estación de trabajo (workstation) gracias a una nueva técnica basada en redes de neuronas artificiales, resultado publicado en Physical Review Letters. Una estación de trabajo es ordenador más poderoso que el tuyo, pero mucho menos que un superordenador. Sus autores creen que se podrían simular con éxito modelos de Ising con 127 espines en un superordenador con su algoritmo. Supongo que así será (ya lo veremos cuando se publique, si se publica). Para lograr la ventaja cuántica hay que usar problemas con mucha más aleatoriedad en las conexiones entre cúbits (como el que usó en el ordenador cuántico Sycamore de Google, LCMF, 23 sep 2019); pero dichos algoritmos son inútiles (salvo para generar números aleatorios, problemas para los que hay soluciones de mucho menor coste). En mi opinión, la ventaja cuántica aún no se ha demostrado para un problema con utilidad práctica.
En resumen, estos artículos son muy interesantes, pero debemos contextualizar sus resultados. Ahora mismo, casi cualquier cosa que se implemente en un ordenador cuántico de muchos cúbits se puede publicar. Aún así, afirmar que dichos algoritmos resuelven un problema práctico útil es otra cosa muy diferente; en el campo de la computación cuántica pueden ser considerados «útiles» entre comillas. Pero estos nuevos resultados generarán múltiples intentos de simulación usando ordenadores clásicos; casi seguro que lograrán reproducirlos sin problemas. Se necesitan ordenadores cuánticos con miles de cúbits para que la utilidad de estas simulaciones para los físicos especializados en modelos de espines sea inapelable. Tiempo al tiempo.
Muy interesante el artículo. Ahora bien, podrías, de acuerdo con el método científico, dar alguna referencia acerca de cómo, cuando o quien ha demostrado alguna vez que la mecánica cuántica se puede computar. Gracias.
Tiolavara, ¿qué significa que la mecánica clásica o cuántica se pueden computar? Tu pregunta no tiene sentido. ¿Sabes lo que es la tesis de Church-Turing? ¿Conoces la tesis de Church-Turing-Deutsch? El problema de la parada es idéntico en computación cuántica y en computación (clásica); lo computable y lo no computable es idéntico en computación cuántica y en computación (clásica). Todo esto es de libro de texto de hace décadas.
Interesante, pero se nota que aún falta mucho para aplicarlo en producción. Es un avance y solo queda esperar. Bueno mis contraseñas siguen seguras.
Puede que no tenga sentido para ti, y lo entiendo, pero es un hecho demostrado, no una tesis, que una solución por absurda o imposible que parezca podría ser verdad.
En el caso que nos ocupa querría decir que la mecánica cuántica no es comprensible algoritmicamente, lo que automáticamente implicaría que es imposible que se pueda computar. Y claro, que todo eso de la computación cuántica no es más que un viaje a ningún lugar, que eso que se llama errores es algo que nunca se podrá evitar, o que la máquina jamás se detendrá… es decir, que aunque cuando se pudiera aprehender algoritmicamente nunca daría un resultado determinado o al menos no lo haría en nuestra escala temporal, en un tiempo polinomios..
No hay nada que convierta un algoritmo vulgar de la noche a la mañana en un algoritmo cuantico, porque desde tu punto de vista dices que son lo mismo. Entonces, que los diferencia.. me lo puedes explicar, donde está la magia, .. en utilizar tecnicismos o palabras complicadas.
Desde mi punto de vista lo que no tiene sentido es tratar de vender un producto tan sofisticado a la gente, sabiendo que más o pronto o más tarde fallar, pero que no se puede hacer nada, porque son cosas de la probabilidad. Y aún siendo esto correcto aún sois capaces de convencer a la gente que esto se arreglará.Como? Poniendo orden a la probabilidad.? Que crack.
Las referencias que pides las tienes en la wikipedia por ejemplo.
1. «la mecánica cuántica no es comprensible algoritmicamente, lo que automáticamente implicaría que es imposible que se pueda computar».
En la wikipedia tienes la fórmula de planck del cuerpo negro, los niveles de energía del átomo de hidrógeno, los estados del oscilador cuántico y la infinidad de aplicaciones prácticas que han tenido dichas fórmulas.
https://es.wikipedia.org/wiki/Ley_de_Planck
https://es.wikipedia.org/wiki/%C3%81tomo_de_hidr%C3%B3geno
https://es.wikipedia.org/wiki/Oscilador_arm%C3%B3nico_cu%C3%A1ntico
2. «No hay nada que convierta un algoritmo vulgar de la noche a la mañana en un algoritmo cuantico, porque desde tu punto de vista dices que son lo mismo. Entonces, que los diferencia.. me lo puedes explicar, donde está la magia».
Aquí confundes «problema a resolver» con «algoritmo». Por ejemplo, hay algoritmos clásicos y cuánticos para factorizar los números primeros, el resultado es el mismo, pero el algoritmo cuántico utiliza la superposición para dar el resultado en mucho menos tiempo:
https://es.wikipedia.org/wiki/Algoritmo_de_Shor
TioLavara en la computación cuántica la «magia» está en te aprovechas del estado de super posición, aunque la naturaleza es intrínsecamente aleatoria, los algoritmos los diseñas para que la solución que buscas salga con una probabilidad cercana a 1. Son casi, casi, como si trabajaras con máquinas clásicas en paralelo, solo que éstas podrían darte todas las soluciones , mientras que la cuántica solo te da una, y serían en algunos casos más rápidas que la cuántica.
En resumen, no te calientes respecto a la aleatoriedad, en una máquina cuántica tú preparas los estados para obtener lo que buscas con una probabilidad cercana a uno. Es más rápida que una sola máquina clásica haciendo lo mismo porque trabajas con estados en superposición, y su utilidad va a ser justamente imitar procesos cuánticos principalmente.
Tiolavara, es falso que «no hay nada que convierte un algoritmo vulgar … en un algoritmo cuántico». De hecho, es trivial realizar dicha conversión (para quien ha estudiado computación cuántica, claro); existen lenguajes cuánticos de alto nivel en los que escribir un algoritmo es tan fácil como en Python. Obviamente, hay algoritmos como el de suma de dos números que no tiene sentido implementarlos en un ordenador cuántico, pues el resultado es un algoritmo mucho más costoso por su naturaleza probabilística (aunque sea eficiente por tener un coste polinómico).
No entiendo por qué ignorando cosas tan básicas sobre computación cuántica te atreves a realizar afirmaciones rotundas falsas de toda falsedad. No entiendo por qué te quieres autoengañar y con ello engañar a otros lectores de este blog. No lo entiendo.
Muy bueno Francis, lamentablemente para mí nivel de física y matemáticas quedo lejos de comprender la totalidad de esos aspectos pero puedo extraer lo conceptual y sin querer ponerme a tu altura comparto tu conclusión. Saludos desde Argentina.
Sebastián, en este blog tienes muchas piezas sobre computación cuántica, incluso algunas que explican los rudimentos. Si te apetece aprender sobre este tema, seguro que lo lograrás buceando por este blog.
Tiolavara, la diferencia fundamental entre computación clásica y computación cuántica es utilizar el postulado de superposición para romper el concepto de que los cálculos es algo que debe hacerse de 1 en 1, simplemente. Creo que lo estás entendiendo todo desde un punto de vista demasiado mágico para lo que luego es en realidad. Tómalo con calma, coincido con Pedro.M
Gracias francis. Si bien las computadoras cuánticas no tienen aplicación práctica macroscopica, entiendo que los quantum anhealers (D Wave) si los tienen (o al menos he leído y visto videos de Aplicaciones en optimizacion de rutas o de Portfolios financieros).
Tienes alguna opinión de la utilidad práctica actual de esas tecnologías?
Sabes si esto es cierto? O
Gus, los ordenadores cuánticos de D-Wave no han demostrado la ventaja cuántica en ningún problema de optimización de interés financiero o industrial (hasta el momento). Los pocos usos actuales de dichos ordenadores en este contexto son pruebas de concepto sin ningún interés práctico (a pesar de lo que puedas haber leído o visto en vídeos). La única proclama de ventaja cuántica en estos sistemas ha sido en la simulación cuánticas de sistemas de espines con el ordenador D-Wave Advantage QA de 5400 cúbits (en la simulación más completa se usaron 5374 cúbits, pero se afirmó haberla logrado con ~5000 cúbits); se publicó en Nature (lo iba a comentar en este blog, pero al final borré el borrador): D-Wave Quantum Systems, «Quantum critical dynamics in a 5,000-qubit programmable spin glass,» Nature 617: 61–66 (19 Apr 2023), doi: https://doi.org/10.1038/s41586-023-05867-2. No hay ninguna aplicación financiera o industrial de este resultado. Y, además, muchos expertos tienen serias dudas de que se haya logrado la ventaja cuántica porque los resultados obtenidos son demasiado fáciles de replicar en ordenadores clásicos (son resultados demasiado bonitos que se ajustan muy bien con simulaciones clásicas muy simplificadas). Si alguna empresa quiere pagar a D-Wave por sus servicios, será por marketing, pues puede obtener resultados similares en un ordenador portátil a un coste ridículo.