Algoritmo cuántico con un solo cúbit para resolver el problema del viajante

Por Francisco R. Villatoro, el 30 julio, 2024. Categoría(s): Ciencia • Computación cuántica • Informática • Noticias • Science ✎ 16

El estado cuántico de un cúbit ideal está descrito por un punto en la superficie de la esfera de Bloch (un estado cuántico puro). Pero el estado de un cúbit real está descrito por una distribución de probabilidad localizada alrededor de un punto en el interior de la esfera de Bloch (un estado cuántico de tipo mezcla descrito por una matriz densidad). En los algoritmos para ordenadores cuánticos se asume que todos los cúbits son ideales, aunque ninguno lo sea. Se publica en arXiv que usando un único cúbit ideal se puede un implementar un algoritmo para resolver el problema del viajante (TSP), determinar el camino más corto entre n ciudades, que es un problema NP-duro. Se mapea el TSP en un problema discreto de tipo braquistócrona (curva de recorrido más rápido) donde las ciudades son estados en la esfera de Bloch y el camino entre ellas viene dado por rotaciones (transformaciones unitarias) en superposición cuántica. Para n ciudades hay que aplicar 2 (n−1) (2 + (n−2)²) = O(n³) rotaciones unitarias (36 para n = 4, y 532 para n = 8); el problema es que tienen que estar ajustadas de forma casi perfecta. No se sabe si el algoritmo ofrece ventaja cuántica, pues aún no se ha podido estimar cuántas medidas cuánticas son necesarias en el paso final (así que no se sabe si el algoritmo está en la clase BQP). Los resultados se han obtenido usando simulaciones clásicas de un cúbit ideal para entre 4 y 9 ciudades (problemas triviales de resolver en tu ordenador).

En principio, la implementación física del algoritmo solo requiere cúbits de alta calidad en los que se puedan aplicar operadores unitarios que simulen con alta fidelidad rotaciones arbitrarias en la esfera de Bloch. Por desgracia, los cúbits reales de hoy en día (NISQ) están muy alejados de un cúbit ideal como para permitir tal implementación para n > 10. Por cierto, quizás conviene aclarar la diferencia entre el problema TSP de optimización (TSP-OPT), que es NP-duro, y el de decisión (TSP-DEC), que es NP-completo. Como ya he comentado, el TSP-OPT consiste en encontrar el camino entre las ciudades que minimiza la distancia (o cualquier otra función de coste); mientras que el TSP-DEC consiste en determinar, dado cierto coste, si existe o no existe una solución al problema con menor coste. (∗)Como es obvio una solución a TSP-OPT en tiempo polinómico implica una solución a TSP-DEC en tiempo polinómico y, por tanto, que P = NP. Si en los próximos años se demuestra que el nuevo algoritmo está en BQP, resultará que BQP = NP y será fácil demostrar que P = NP. Por desgracia, hay una conjetura firme en complejidad computacional cuántica que afirma que BQP ≠ NP. Si dicha conjetura es cierta, el nuevo algoritmo para TSP-OPT no puede estar en BQP.

La utilidad práctica del nuevo algoritmo es nula. Sin embargo, se están dando grandes avances tecnológicos hacia un cúbit ideal (con una eficiencia superior al 99 % durante 24 horas). Cabe prever que dichos avances harán posible la implementación del nuevo algoritmo. Lo que no resta interés a este nuevo logro. El artículo es Kapil Goswami, Gagan Anekonda Veereshi, …, Rick Mukherjee, «Solving The Travelling Salesman Problem Using A Single Qubit,» arXiv:2407.17207 [quant-ph] (24 Jul 2024), doi: https://doi.org/10.48550/arXiv.2407.17207.

(∗) [PS 31 Jul 2024] Agradezco el comentario de Josejuan que me ha hecho ver que mi afirmación original era (obviamente) incorrecta. [/PS]

Hoy en día se puede resolver un problema TSP-OPT con cientos de ciudades en un PC (la solución será cuasi-óptima, pues se basará en heurísticos); en un supercomputador se podrá resolver para decenas de miles de ciudades (en algunos casos hasta cerca de cien mil). En un ordenador cuántico actual solo se puede resolver un problema con una decena de ciudades (en los ordenadores de recocido cuántico de D-Wave Systems con 5436 cúbits físicos, equivalentes a 73 cúbits lógicos, el récord ha sido un problema con 10 ciudades); un problema irrisorio para tu PC (recuerda que los ordenadores cuánticos actuales son solo una promesa de futuro).

El problema TSP-OPT consiste en encontrar el ciclo hamiltoniano más corto que recorre todas las ciudades (es decir, que pasa por todas ellas, una sola vez por cada una, desde la primera hasta retornar a la primera). Este problema se puede implementar como un problema discreto de tipo braquistócrona, cuando la función coste entre dos ciudades mide el tiempo que cuesta recorrer la distancia que las separa. En un ordenador clásico, dicho problema requiere recorrer el árbol de todos los posibles ciclos hamiltonianos (como muestra la figura de la izquierda) y elegir el ciclo que requiere un tiempo mínimo (figura de la derecha). El grafo de la izquierda ilustra que este algoritmo muestra mucho paralelismo, con lo que parece natural intentar aprovechar el paralelismo cuántico asociado a las superposiciones coherentes.

El problema TSP-OPT como problema discreto de tipo braquistócrona se puede implementar en la esfera de Bloch asociada a un cúbit. Un estado del cúbit es un punto de la esfera y una operación unitaria sobre el cúbit corresponde a un rotación de dicho punto a otro punto de la esfera. Las ciudades se codifican como puntos en la esfera, sea Pii la ciudad i-ésima. El coste del camino entre las ciudades i y j se codifica con el tiempo asociado a la transición entre dichos estados, τii–jj, tal que cos(ω τii–jj) = 〈Pii|Pjj〉. El problema TSP es simétrico cuando el coste entre dos ciudades no depende del sentido, τii–jj = τjj–ii, y es asimétrico en caso contrario, τii–jj ≠ τjj–ii.

Para poder asignar un coste arbitrario entre dos ciudades se introduce un punto intermedio Pij, de tal forma que el coste sea la suma de los costes, τii–jj = τii–ij + τij–jj, determinados por 〈Pii|Pij〉 y 〈Pij|Pjj〉. El camino entre dos estados viene dado por una rotación en la esfera de Bloch, descrita por una transformación unitaria; la transición entre Pii y Pjj requiere dos transformaciones unitarias, una entre Pii y Pij, sea Pij = Uuii–ij Pii, y otra entre Pij y Pjj, sea Pjj = Udij–jj Pij. Así una solución al problema para cuatro ciudades (ilustrado en la figura), sea c1 → c2 → c3 → c4 → c1, corresponderá a la secuencia de transformaciones unitarias (indicadas por flechas) entre los siguientes estados P11 → P12 → P22 → P23 → P33 → P34 → P44 → P41 → P11. Para n ciudades hay que aplicar 2 (n−1) transformaciones unitarias.

El principio de superposición de la física cuántica permite aplicar una transformación unitaria que sea combinación lineal de varias transformaciones unitarias (lo que se suele llamar paralelismo cuántico). Así podemos aplicar a P11 una transformación unitaria de tipo Uu P11 = (α11–12 Uu11–12 + α11–13 Uu11–13 + α11–14 Uu11–14) P11, que dará lugar a una combinación lineal de estados α11–12 |P12 〉+ α11–13 |P13〉+ α11–14 |P14〉. De esta forma se aplica una única operación cuántica que corresponde a nivel clásico a (n−1) operaciones. Una vez aplicadas dichas transformaciones (que en una simulación clásica son triviales de implementar, pero que en una realización física requieren una fidelidad exquisita) hay que realizar una serie de medidas cuánticas del estado en la penúltima etapa del algoritmo con objeto de estimar los coeficientes que multiplican la superposición de estados 〈Pi1|Pj1〉.

Las medidas cuánticas finales son el paso más incierto de todo el algoritmo. En el artículo no se presenta ninguna estimación de cuántas medidas cuánticas hay que realizar para obtener una estimación de dichos coeficientes con una fidelidad suficiente en función del número de ciudades. Para pocas ciudades representadas por estados bien separados en la esfera de Bloch (como en todos los ejemplos que se presentan en el artículo) no se necesitan muchas medidas cuánticas. Pero cuando el número de ciudades crece y hay acumulación de estados en la esfera de Bloch (el peor caso para el algoritmo), podría ocurrir que el número de medidas creciera de forma exponencial. En dicho caso, el algoritmo no presentaría ninguna ventaja cuántica (no sería eficiente en su peor caso).

Usando los valores de dichas medidas cuánticas de 〈Pi1|Pj1〉 se obtiene una matriz de coeficientes para un sistema lineal de ecuaciones. Su solución permite determinar el ciclo hamiltoniano óptimo que resuelve el problema TSP. Quizás no comprendas todos los detalles, pero lo que me gustaría que entendieras es que (1) hay que usar estados cuánticos en la esfera de Bloch de altísima fidelidad, (2) hay que aplicar transformaciones unitarias arbitrarias con altísima precisión, y (3) hay que realizar un gran número de medias cuánticas que estimen los solapes entre estados con altísima exactitud. Todo ello requiere un cúbit ideal, muy alejado de los cúbits reales actuales. Los resultados de la simulaciones para entre 4 y 9 ciudades (bien separadas en la esfera de Bloch) son prometedores; aunque no siempre se obtiene la solución óptima y el error crece con el número de ciudades. Como ilustra esta figura, los resultados para entre 4 y 6 ciudades son aceptables para problemas TSP simétricos, pero para problemas asimétricos, sobre todo entre 7 y 9 ciudades, dejan bastante que desear.

En resumen, un artículo más interesante como idea de concepto que por sus resultados. Con lo rápido que avance al campo de la computación cuántica estoy seguro de que habrá grandes mejoras en este algoritmo en los próximos años (y quizás alguna permita su implementación física con tecnología de cúbits NISQ). Además, habrá avances a nivel teórico, que aclararán si el nuevo algoritmo es eficiente o no lo es (debo confesar que tengo serias dudas de que sea eficiente para un gran número de ciudades). Habrá que estar al tanto de los progresos sobre este tema.



16 Comentarios

  1. «El estado cuántico de un cúbit ideal está descrito por un punto en la superficie de la esfera de Bloch (un estado cuántico puro). Pero el estado de un cúbit real está descrito por una distribución de probabilidad localizada alrededor de un punto en el interior de la esfera de Bloch (un estado cuántico de tipo mezcla descrito por una matriz densidad)».
    Esta frase me hizo pensar a lo que nos dijiste en una reunion de mecenas hace algun tiempo: que la estrella que colapsa en un agujero negro no es un estado cuantico puro si no de tipo mezcla («termico», diria Gaston): esto hace que todo lo que se argumenta despues (Susskind y todos los demas) se caiga por su proprio peso: estado cuantico mezcla al colapsar y estado cuantico tipo mezcla al salir como radiacion de Hawking. Me hizo pensar mucho y me gusto la explicacion: ademas creo que es mas o menos lo mismo que dice Penrose, que cuando entra en juego la gravitacion y se realiza una medicion el estado ya esta en estado mezcla (si bien lo entendido): en su terminos, se pasa de un estado U (unitario) a R (reduction, o colapso, en sus dibujos representado por el «ojo que mide»). Es muy elegante y tiene bastante logica.

    1. Evidentemente la computación cuántica está en el umbral de su posible desarrollo.
      Pero promete ser un avance técnico que complementará a la computación clásica y, con esas dos herramientas, se podrán resolver problemas difíciles y a una velocidad increíble.

      1. Tengo curiosidad por saber qué acaba pasando con este paper. Lo he leído y sinceramente pienso que tiene errores de bulto. Sin embargo obtienen resultados.

    1. El artículo presenta un enfoque innovador para resolver el TSP utilizando un cúbit ideal. Sin embargo, me gustaría plantear una reflexión sobre la elección de materiales para los cúbits, inspirada en la propuesta de Roger Penrose sobre la reducción objetiva del estado cuántico. Penrose sugiere que la gravedad podría inducir decoherencia incluso en sistemas aislados, lo cual plantea un desafío para mantener la coherencia cuántica en los cúbits.

      En este contexto, los materiales 2D, como el grafeno y los dicalcogenuros de metales de transición (TMD), ofrecen ventajas notables debido a su alta movilidad de portadores y bajos niveles de defectos. Estos materiales tienen propiedades electrónicas excepcionales que podrían aumentar la coherencia de los cúbits, como se ha explorado en estudios recientes​ (ar5iv)​​ (Molecular Foundry)​. Por otro lado, los materiales 3D, como los superconductores, son conocidos por su robustez y estabilidad frente a perturbaciones externas, características esenciales para minimizar la decoherencia​ (SpringerLink)​.

      Me pregunto si un enfoque híbrido, que combine materiales 2D para la capa activa del cúbit con materiales 3D como soporte, podría optimizar tanto la coherencia como la estabilidad de los cúbits. Esta combinación podría aprovechar las mejores cualidades de ambos tipos de materiales, mitigando los efectos de la decoherencia y mejorando la implementación de algoritmos cuánticos complejos, como el propuesto para el TSP​ (Molecular Foundry)​​ (Nature)​.

      Sería interesante sobre la viabilidad de este enfoque y si podría representar un avance significativo en la computación cuántica. ¿Podría esta estrategia híbrida ser una solución prometedora para los desafíos actuales en la implementación de cúbits?

      https://ar5iv.labs.arxiv.org/html/1804.02870
      https://foundry.lbl.gov/2021/09/24/innovating-2d-materials-with-the-quantum-systems-accelerator/
      https://link.springer.com/article/10.1557/mrs.2020.147

      1. Anabrami, no entiendo en qué sentido la movilidad electrónica pueda minimizar la decoherencia. Ya hay implementaciones de cúbits superconductores usando materiales 2D, pero, hasta ahora, no han ofrecido ninguna ventaja sobre los cúbits superconductores convencionales.

        1. Habrá algún lector promedio que entiende todos los conceptos descritos en este artículo?
          Sinceramente lo dudo, incluso alguien manifestó » muy buen artículo».

  2. Después de leer con sumo detalle las teorías aquí expuestas, no cabe duda de que puedo afirmar tajantemente que no entiendo nada.

  3. Hard to understand although I am familiar with the travelling salesman problem. However I’m far from understanding the solution given here.

  4. «incluso si este algoritmo acaba siendo una solución en tiempo polinómico al TSP-OPT, no afectará en nada a la conjetura de que los ordenadores cuánticos no son eficientes a la hora de resolver problemas NP-completos»

    Estoy confundido en cuanto a «qué acaba qué». Si resuelve OPT entonces resuelve DEC (diría que basta comparar costes) y por tanto, sí serían prácticos. ¿Qué hace que el poder resolver en tiempo TSP-OPT no sea aplicable a cualquier NP-completo? ¿O quizás es por la cuestión abierta del número de medidas y densidad de puntos? (pero en tal caso, tampoco resolvería TSP-OPT ¿no?)

    ¡Muchas gracias!

    1. Josejuan, tienes razón, lo he explicado mal. Como es obvio una solución a TSP-OPT en tiempo polinómico implica una solución a TSP-DEC en tiempo polinómico y, por tanto, que P = NP. Como la conjetura es que los ordenadores cuánticos tienen una barrera computacional que impide que logren P = NP, entonces dicha conjetura implica que la nueva solución a TSP-OPT no puede ser en tiempo polinómico.

      Gracias por el comentario. Redacto de nuevo la frase que estaba mal en mi pieza.

      1. Una duda.
        Lo que yo he entendido siempre es que aún cuando logres un algoritmo en tiempo polinómico de un problema NP-completo en un ordenador cuántico, no estás resolviendo el problema del milenio, no podrías decir que NP=P , por el carácter probabilístico del ordenador cuántico, donde en resultado correcto es aquel con probabilidad más cercana a 1, pero siempre hay una probabilidad, aunque minúscula, de que el algoritmo no te dé en resultado correcto.
        ¿Es cierto esto que digo?

  5. Hola, la medición de una «probabilidad» cuántica
    es interesante, pero verla vale más que mil palabras
    y te permite crear herramientas matemáticas increíbles.
    Yo estoy servido.

    Un saludo y gracias.

Deja un comentario