El número entero más grande que se ha factorizado con el algoritmo cuántico de Shor es 549 755 813 701 = 712 321 × 771 781. Este hito tiene truco, se usó el simulador clásico JUQCS (Jülich Universal Quantum Computer Simulator) ejecutado en 2048 GPU del Centro de Supercomputación Jülich (Alemania). Se publica en Scientific Reports el número entero más grande factorizado usando un ordenador cuántico, 8 219 999 = 32 749 × 251. Se ha usado un algoritmo de recocido inverso repetido (IRV) en un ordenador de recocido cuántico (quantum annealing) de la compañía D-Wave Systems con arquitectura Pegasus de 5760 cúbits (teóricos, ya que algunos no son funcionales). Este nuevo récord también tiene truco. En los ordenadores de D-Wave se resuelve un problema de optimización (minimización de un modelo Ising); para factorizar números hay que mapear un algoritmo de multiplicación de dos números en el grafo de cúbits de Pegasus (en la optimización se buscan dos números cuyo producto es igual al número a factorizar). Pero para realizar dicho mapeo hay que elegir el número aproximado de dígitos binarios de los dos factores buscados. Para factorizar este número récord de 23 bits se ha mapeado un multiplicador de números de 15 × 8 bits, ya que sus factores primos tienen 15 y 8 bits. Además de este truco, se ha usado un algoritmo de IRV (iterated reverse annealing) que consiste en inicializar el algoritmo con una respuesta cercana a la deseada, repitiendo ciclos de recocido y enfriado, con ciertas pausas. Gracias a estos dos trucos se ha logrado un nuevo récord de factorización en ordenadores cuánticos.
Como siempre, cuando se habla de ordenadores de D-Wave Systems hay que que leer la letra pequeña, es decir, entrar en los detalles. En el artículo se usa el ordenador Pegasus Advantage_system4.1, que según la información técnica de D-Wave [PDF] solo tiene 5627 cúbits funcionales (133 no funcionan) conectados por 40 279 acopladores funcionales; los cúbits de este ordenador funcionan a una temperatura de 15.4 ± 0.1 mK. Se supone que estos cúbits mantienen su coherencia cuántica entre 17.0 y 235.0 μs, aunque se recomienda no superar los 20.5 μs. Pero en muchos casos los errores durante el recocido cuántico conducen a un resultado ruidoso e inútil. Así ha ocurrido en muchos de los experimentos realizados (aunque los investigadores solo tuvieron acceso a este ordenador durante 600 segundos al mes). Cuando mapearon un multiplicador de 21 × 12 bits, que en teoría podría factorizar un número tan grande como 8 587 833 345 = 2 097 151 × 4095 (en realidad el biprimo más grande factorizable es 8 583 606 299 = 2 097 143 × 4093), o cuando usaron un multiplicador 22 × 8 bits, que alcanzaría a factorizar 1 069 547 265 = 4 194 303 × 255 (el biprimo más grande sería 1 052 769 551 = 4 194 301 × 251, los errores fueron tan grandes que la respuesta final era puro ruido. El ordenador Pegasus solo funciona bien para problemas pequeños (o en problemas que toleran bien gran cantidad de ruido). Hay que recordar que los ordenadores cuánticos, a diferencia de los ordenadores (clásicos), nunca ofrecen la respuesta correcta a la primera; hay que repetir muchas veces el algoritmo para obtener entre todas las respuestas la que es correcta. Por cierto, en este artículo en Scientific Reports, cuyo texto tiene bastantes erratas, en la revisión por pares no se exigió a los autores que indicaran cuántas veces se tuvo que repetir el algoritmo.
Para todos los amantes de los récords, lo más relevante es que se ha logrado un nuevo récord de factorización cuántica en un ordenador cuántico. Los detalles son solo eso, detalles que los competidores de D-Wave Systems, como IBM, Rigetti o Google, usaran para criticarles. D-Wave Systems dice disponer de un prototipo de un ordenador con unos 7000 cúbits, con arquitectura Zephyr. Los autores dicen que, cuando les dejen, lo usarán para obtener un nuevo récord (supongo que será el próximo año). Para los interesados en los detalles publicados, aunque muchos han sido omitidos, el artículo es Jingwen Ding, Giuseppe Spallitta, Roberto Sebastiani, «Effective prime factorization via quantum annealing by modular locally-structured embedding,» Scientific Reports 14: 3518 (12 Feb 2024), doi: https://doi.org/10.1038/s41598-024-53708-7; Jingwen Ding, Giuseppe Spallitta, Roberto Sebastiani, «Experimenting with D-Wave quantum annealers on prime factorization problems,» Frontiers in Computer Science 6: 1335369 (12 Jun 2024), doi: https://doi.org/10.3389/fcomp.2024.1335369; también he citado a Dennis Willsch, Madita Willsch, …, Kristel Michielsen, «Large-Scale Simulation of Shor’s Quantum Factoring Algorithm,» Mathematics 11: 4222 (09 Oct 2023), doi: https://doi.org/10.3390/math11194222.
Esta figura ilustra el mapeo de los multiplicadores de 22 × 8 bits (izquierda) y 21 × 12 bits (derecha) en la arquitectura de Pegasus. Estas dos mapeados no funcionan y conducen a un resultado ruidoso. Lo más curioso es que la figura con el mapeo del multiplicador de 15 × 8 bits usado para el récord no aparece en el artículo. Tanto autores como revisores han considerado que era innecesario incluirlo; supongo que han pensado que todas las personas con imaginación suficiente pueden intuir la figura que falta.
Se han implementado cuatro versiones del mapeado de los multiplicadores: V1 para 22 × 8 bits, V2 para 21 × 12 bits, V3 para 22 × 8 bits, y V4 para 22 × 8 bits. Estas configuraciones corresponden a ciertas matrices para los ajustes de los acopladores entre cúbits (en la información complementaria aparecen dos de ellas, CFA0 y CFA1), pero no queda claro en el artículo cuál es su relación con V1, V2, V3 y V4. Tampoco aparece descrita en el artículo la versión usada para el mapeado del multiplicador de 15 × 8 bits. De nuevo, tanto los autores como los revisores han considerado innecesario incluir estos detalles; asumo que todas las personas interesadas tendrán que solicitar dicha información a los autores, que supongo que no tendrán inconveniente en revelarla en privado (ya que no la han hecho pública).
En resumen, como suele pasar con muchos artículos en Scientific Reports, que la metodología científica aparente ser correcta, lo único imprescindible que los revisores deben chequear para aceptar un artículo, no es suficiente. Hay muchos erratas tipográficas y de presentación en el artículo. Y, lo que es peor, hay muchos detalles que faltan (al menos desde mi punto de vista, quizás los expertos, igual que los revisores, sean capaces de rellenar todos los detalles que faltan sin ninguna dificultad). Aún, me hago eco del nuevo récord porque estamos en año olímpico. Y, por qué no, por los detalles faltantes que que lo rodean.
Porque engañais al mundo, no existe ningún ordenador de 5000 qbits reales, hay investigación al respecto pero teórica.
IBM está trabajando para (teóricamente) crear un ordenador de 100000 qbits, pero fuera de la realidad. Teniendo en cuenta todos los problemas de corrección de errores, en todos los aspectos.
José Ángel, no te confundas, estás equivocado. Los ordenadores cuánticos de D-Wave son analógicos y de propósito específico; IBM, Rigetti, Google, etc. ofrecen ordenadores cuánticos digitales de propósito general. Pero esta diferencia no implica, en ningún caso, que los cúbits de los ordenadores de D-Wave no son tan buenos como los demás y que sus acopladores entre pares de cúbits (cercanos) tampoco lo sean. Lo son, fuera de toda duda (de hecho, se publicaron en Nature y Science). Los algoritmos de corrección de errores son imprescindibles para los ordenadores cuánticos digitales de propósito general; sin embargo, son irrelevantes para los ordenadores cuánticos analógicos (donde el ruido, tanto de origen cuántico como clásico, es parte de su ventaja cuántica). Lo que ocurre es que no existe ninguna garantía de que los 5000 cúbits en algún momento de la ejecución del algoritmo se encuentre en un estado coherente de superposición (con algún grado de entrelazamiento); de hecho, solo se ha demostrado en artículos científicos para pequeños grupos de ocho cúbits en la arquitectura Chimera (aunque la compañía publicita que también se logra para grupos de dieciséis cúbits, no me consta ningún artículo que lo demuestre de forma fehaciente).
Esto es una chorrada como la copa de un pino.
[[editado]]
Hace unos años una gran empresa hizo un procesador semi analogico basado en el «recocido». En el estado actual de los procesadores cuanticos, acaso no son mas fiables los sistemas clasicos basados en estadistica?
Alejol9, muchas empresas lo han hecho, supongo que te refieres a la primera empresa que lo hizo, copando titulares, D-Wave Systems (la empresa que fabrica el Pegasus de esta noticia). El problema del recocido cuántico es que, por ahora, no ha demostrado ser capaz de resolver ningún problema de interés práctico o aplicado; como el recocido se realiza en un sistema de Ising con cierta topología, estos ordenadores solo sirven para el gozo de los científicos que estudian sistemas de Ising que se pueden mapear en dicha topología. Como los sistemas de Ising son muy sencillos de comprender (no hay nada relevante que ocurra con miles de espines que no ocurra con decenas de espines, por ahora, este tipo de ordenadores cuánticos analógicos no tienen ninguna utilidad práctica reseñable).
Estupendo, como siempre, [[editado]]. Super!!
Por cierto, quizás conviene recordar que se ha avanzado muchísimo en computación cuántica en los últimos 30 años. En 1995 no había ordenadores cuánticos; en 2024 hay miles de ordenadores cuánticos por todo el mundo. Quizás te parezca que pasar de cero a miles es haber avanzado poco, pero no es cierto. Lo único que recuerdo que se haya anunciado para 2029 que se parezca a lo que mencionas es la hoja de ruta de IBM (https://t.ly/hbv0Y): prometía Starling (100M) en 2029, con 100 millones de puertas lógicas binarias ejecutables sobre unos 200 cúbits; la hoja de ruta pasa por Heron (5K) con 133 cúbits en 2024, Flamingo (5K) con 156 cúbits en 2025, Flamingo (7.5K) en 2026, Flamingo (10K) en 2027 y Flamingo (15K) también con 156 cúbits en 2028; cuando leas que IBM logra mil cúbits (7 x 156 = 1092 cúbits), debes leer que se usan 7 módulos independientes de 156 cúbits, que trabajan en «paralelo».
Gracias Francis.
Ya entra uno siempre a este tipo de artículos buscando la frase «tiene truco». Una y otra vez.
En 2010 cursé con el referente David Pérez García la asignatura «Información y computación cuánticas». Había emoción por los algoritmos teóricos, pero ya incluso ahí tenía un tufillo de inalcanzable en la práctica. También pregunté en alguna charla de Cirac sobre sus expectativas, y su respuesta pareció más querer justificar la financiación de sus proyectos que una confianza real en la implementación de estos sistemas.
Vaya rollo. Me recuerda en parte a la teoría de cuerdas, aunque esta otra se ha de motivación, puramente teórica y la computación cuántica más bien práctica.
Ya me aburre. Parece inalcanzable.
Sheriff, no entiendo qué te parece inalcanzable en uno de los campos más activos a nivel científico y tecnológico de la actualidad. El número de cúbits crece cada año, el volumen cuántico (número de puertas binarias ejecutables) crece cada año, aunque, por supuesto, no crece exponencialmente. Nada es gratis. Todos los avances cuestan mucho esfuerzo. El primer cúbit nació en 1995 (entonces no había ordenadores cuánticos) y en 2025 ya hay ordenadores cuánticos con miles de cúbits.
Pues me parece inalcanzable factorizar números que aún no se pueden con ordenadores clásicos.
Sheriff, nadie puede predecir qué números se podrán factorizar dentro de 50 o 100 años; pero entre los expertos se opina que serán números tan grandes como los usados hoy en día en criptografía.
El tema es muy interesante pero para una persona normal como yo ( Soy Físico) me cuesta entender y seguir el hilo de este artículo, ojalá en otra ocasión pueden escribir similares artículos de una manera un poco más didáctica para que lectores
» Normales» podamos sacar provecho de un artículo. Muchas gracias