El primer gran éxito de la inteligencia artificial generativa en física teórica

Por Francisco R. Villatoro, el 1 marzo, 2026. Categoría(s): Ciencia • Física • Informática • Noticia CPAN • Noticias • Physics • Science ✎ 17

Las inteligencias artificiales generativas (IAG) prometen revolucionar cómo se hacen matemáticas y, por ende, física teórica. Las calculadoras y los ordenadores ya revolucionaron la experimentación en matemáticas y en física. Sin embargo, hasta diciembre de 2025, las demostraciones matemáticas parecían harina de otro costal. Se publica en arXiv una fórmula para una amplitud de dispersión entre gluones en el régimen semicolineal que ha sido descubierta por GPT‑5.2 Pro de OpenAI y demostrada por una versión interna más avanzada tras 12 horas de razonamiento. La fórmula muestra un patrón muy sencillo, que parece intuitivo; sin embargo, ningún humano logró concebirla. No debemos extrapolar este resultado, pues las capacidades actuales de las IAG son muy limitadas. Sin embargo, a la hora de encontrar patrones ocultos se auguran futuras sorpresas en matemáticas y física teórica.

La amplitud de dispersión (scattering) se usa para calcular la probabilidad de una interacción entre partículas (en este caso gluones, los bosones gauge sin masa de la cromodinámica cuántica, QCD, que median las interacciones entre quarks). Según los libros de texto, a nivel de árbol, la amplitud de la interacción entre un gluón de helicidad negativa y n−1 gluones de helicidad positiva es exctamente cero. El razonamiento detrás de esta afirmación se basa en asumir que los momentos lineales de los gluones son genéricos. Pero ciertas configuraciones colineales de los momentos lineales, tìpicas en signatura de Klein (2+2 en lugar de 3+1), sugerían que existían configuraciones semicolineales en signatura de Minkowski (3+1) en las que la amplitud de dispersión no es nula. El físico chileno Alfredo Guevara y varios colegas, entre ellos el famoso físico cuerdista Andrew Strominger (Univ. Harvard), evaluando diagramas de Feynman lograron demostrar dicho resultado hasta para seis gluones. Pero la complejidad de las fórmulas resultantes crece de forma superexponencial con el número de gluones. Además, son muy engorrosas y no muestran ningún patrón que permite simplificarlas (a pesar de ser simples sumas de productos de signos, es decir, +1 y −1).

Guevara recurrió a GPT-5.2 Pro que, para su sopresa, logró simplificar las fórmulas hasta seis gluones y conjeturó una expresión general para n gluones. El problema era como demostrar dicha fórmula. Alex Lupsasca (cuyo director de tesis doctoral fue Strominger), que trabaja en OpenAI desde octubre de 2025, invitó a Strominger a visitar la empresa; esta asignó al físico Kevin Weil, graduado en Harvard, para atacar dicho problema usando una versión interna, mucho más poderosa, de la IAG. Así se logró obtener la ansiada demostración de la fórmula general. Dicha demostración ha sido entendida y luego verificada por los autores humanos. El nuevo artículo no es una pepita de oro en un montón de grava. Con la ayuda de GPT‑5.2 Pro se han generalizado estas amplitudes de gluones a gravitones y se esperan gran número de nuevos resultados que se publicarán en un futuro cercano. El artículo es Alfredo Guevara, …, Andrew Strominger, Kevin Weil, «Single-minus gluon tree amplitudes are nonzero,» arXiv:2602.12176 [hep-th] (12 Feb 2026), doi: https://doi.org/10.48550/arXiv.2602.12176; más detalles en Alex Lupsasca, «GPT‑5.2 obtiene un nuevo resultado en física teórica,» OpenAI, 13 feb 2026. A nivel divulgativa recomiendo leer a Matt von Hippel, «Hypothesis: If AI Is Bad at Originality, It’s a Documentation Problem,» 4 gravitons, 27 Feb 2026.

Por cierto, en noviembre de 2025 fue noticia el artículo de Stephen D.H. Hsu, «Relativistic covariance and nonlinear quantum mechanics: Tomonaga-Schwinger analysis,» Physics Letters B 872: 140053 (Jan 2026), doi: https://doi.org/10.1016/j.physletb.2025.140053, arXiv:2511.15935 [hep-th] (19 Nov 2025), que afirmaba ser el primer artículo de una IAG en física teórica publicado en una revista científica (fue aceptado el 19 de noviembre de 2025). Por desgracia, dicho artículo nunca debería haber sido aceptado y quizás acabará siendo retirado (retracted). Jonathan Oppenheim, «Nonlinear Quantum Mechanics and Artificial Intelligence,» arXiv:2512.07809 [hep-th] (08 Dec 2025), demostró que era producto de una alucinación de la IA. La solución de la IAG resuelve un problema diferente al planteado, que además es una solución trivial sin ningún tipo de interés. Más aún, el problema que se pretendía resolver, de hecho, ya estaba resuelto hacía mucho tiempo (algo que, en apariencia, Hsu sabía, pero quiso ignorar). Así que lo que se vendió en noviembre como un gran éxito de la IAG, ahora sabemos que fue una gran metedura de pata.

La historia reciente de las amplitudes de dispersión incluye muchos avances impulsados por el uso de descomposiciones en espinores, que Witten conectó con la teoría de twistores de Penrose (Edward Witten, «Perturbative Gauge Theory as a String Theory in Twistor Space,» Communications in Mathematical Physics 252: 189-258 (2004), doi: https://doi.org/10.1007/s00220-004-1187-3). El cuadrado de las amplitudes de dispersión permite calcular las probabilidades cuánticas de las colisiones entre partículas. Estas amplitudes se obtienen usando desarrollos perturbativos basados en gran números de diagramas de Feynman. Por forturna, en muchas configuraciones se pueden aprovechar ciertas simetrías para reducir su número, aunque no siempre tanto como sería deseable.

En el caso de las interacciones entre gluones se ha logrado obtener expresiones sencillas y bellas para ciertas configuraciones de momentos lineales y/o de helicidades (como la fórmula de S. J. Parke y T. R. Taylor, “An amplitude for n-gluon scattering,” Physical Review Letters 56: 2459-2460 (1986), doi: https://doi.org/10.1103/PhysRevLett.56.2459). En el nuevo artículo se calcularon a mano las amplitudes para la interacción entre un gluón con helicidad negativa y los n−1 restantes con helicidad positiva. Para una configuración general de momentos lineales se espera que dicha amplitud sea nula. Sin embargo, para ciertas configuraciones colineales de los momentos lineales se había conjeturado que la amplitud podría ser no nula. El cálculo detallado permitió obtener expresiones (como las mostradas en la figura de arriba) para A123, A1234, A12345, y A123456, que confirman dicha conjetura. Generalizar dichas expresiones a un número arbitrario de gluones parecía imposible.

Usando GPT-5.2 Pro se logró identificar una región en el espacio de momentos llamada R₁, en la que existe una simetría SO(2,2). Gracias a ella se pueden simplificar las expresiones de A123|R₁ A1234|R₁, A12345|R₁, y A123456|R₁, como muestra esta otra figura de arriba. A simple vista dichas expresiones muestran un patrón, que se puede generalizar para un número arbitrario de gluones, sea A123456···n|R₁. Pero demostrar dicha expresión general sin poder calcular A123456···n parece una tarea difícil, que puede requerir meses de trabajo.

Gracias a la inteligencia artificial generativa interna de OpenAI se ha logrado una demostración de esta fórmula matemática. Se usa la llamada recurrencia de Berends–Giele, un método estándar paso a paso para construir amplitudes a nivel de árbol de forma iterativa (recursiva). Además, se ha podido verificar que esta fórmula cumple con varias propiedades matemáticas que deben cumplir las amplitudes, lo que refuerza que la demostración es correcta. Por supuesto, los autores del artículo podrían haber obtenido dicha demostración tras un trabajo intenso durante varios meses. La ventaja de la IAG de OpenAI es que la demostración se obtuvo en solo 12 horas de trabajo (lo que en OpenAI llaman «razonamiento» o «thinking«).

En resumen, las IAG prometen acelerar el descubrimiento de nuevos resultados en física teórica. Sin embargo, no debemos olvidar que el motor de este resultado es la intuición humana, que llevó a los autores a buscar este tipo de amplitudes de dispersión. La IAG ha ayudado en la parte más engorrosa del trabajo, encontrar patrones (los humanos los llaman simetrías) en las amplitudes. Pero lo relevante del nuevo trabajo surge al compararlo con lo que se podía lograr hace solo seis meses. Hoy en día, todo físico teórico debería aprender el uso óptimo de las IAG para su futuro trabajo.



17 Comentarios

  1. Hola, hace unos días hablando con un director de empresa
    muy inteligente, mucho mayor que la media, me comento que
    le producía un poco de miedo la IA, le contesté que haría
    él sin su ordenador, me dijo que poco.

    Pues eso.

    Un saludo y gracias.

  2. Pues me parece estupendo que se empleen estos instrumentos para observar patrones y ir adelantando trabajo. Por supuesto, soy muy muy esceptico hacia un utilizo no guiado paso a paso y supervisionado por un «jefe de maquinas» humano, pero si es para velocizar el trabajo pues perfecto.

  3. Que hay mas pequeño que los campos cuánticos. Los gluones son una de tantas partículas y la clave para mí es que hay por debajo. La IA no puede inventarse nada

  4. Leo esporádicamente el blog y escucho el podcast semanal en modo amateur. Mucha de la teoría cruda y dura me deja pedaleando en el barro pero apunto a no perder lo conceptual. En ese sentido, creo que las IAs pueden acelerar el proceso creativo ayudando a descartar o fortalecer un concepto. Creo que se ha democratizado en cierta forma el acceso a matemáticas y física, entre tantas materias, que creía inalcanzables fuera de la rigurosidad académica. Personalmente me ha permitido hacer preguntas y simulaciones que por pudor a lo establecido no me hubiera animado a consultar nunca a un docente, tanto por ridícula, descabellada o por temor a perder cierta reputación como estudiante. Desde ya que es muy importante desconfiar del resultado aunque confirme nuestro sesgo como suele ser habitual. Saludos!

  5. «demostrada por una versión interna más avanzada tras 12 horas de razonamiento.»

    «— ¡Oh, ordenador Pensamiento Profundo!, la tarea para la que te hemos proyectado es la siguiente: Queremos que nos digas… — hizo una pausa — ¡la Respuesta!.
    — ¿La Respuesta? — repitió Pensamiento Profundo —. ¿La Respuesta a qué?.
    — ¡A la Vida! — le apremió Fook.
    — ¡Al Universo! — exclamó Lunkwill.
    — ¡A Todo! — dijeron ambos a coro.
    Pensamiento Profundo hizo una breve pausa para reflexionar.
    — Difícil — dijo al fin.
    — Pero, ¿puedes darla?.
    — Sí — dijo Pensamiento Profundo — puedo darla.
    De nuevo se produjo una pausa significativa.
    — ¿Existe la respuesta? — inquirió Fook, jadeando de emoción.
    — ¿Una respuesta sencilla? — añadió Lunkwill.
    — Sí — respondió Pensamiento Profundo — A la Vida, al Universo y a Todo. Hay una respuesta. Pero — añadió — tengo que pensarla (…) Tardaré un poco en desarrollar el programa.
    Fook miró impaciente su reloj.
    — ¿Cuánto? — preguntó.
    — Siete millones y medio de años — contestó Pensamiento Profundo.»
    Guía del autoestopistas galáctico – D. Adams.

      1. Es una novela. Un relato inverso sería «Los nueve millones de nombres de Dios» de Clarke. En un monasterio del Tibet los monjes están escribiendo las permutaciones de los nueve millones de nombres de Dios. Piensan que al terminar el trabajo se acabará el mundo. Llega un tipo con una computadora…

  6. Hola, bueno si le pregunto a la IA que es
    la vida, después de mirarme un poco me dirá
    tú has venido para irte, yo para quedarme.

    Un saludo y gracias.

  7. «Hoy en día, todo físico teórico debería aprender el uso óptimo de las IAG para su futuro trabajo».
    Como cuando pasamos de la máquina de escribir al procesador de texto, todo profesional que no adquiera habilidades basadas en el conocimiento de IA en su dominio, será reemplazado por aquel que sí lo haga.

    Saludos,

  8. El artículo está completamente exagerando lo que pasó.
    Los autores HUMANOS ya habían obtenido una expresión matemática analítica para describir las amplitudes de los gluones. Lo único que le pidieron a ChatGPT fue que simplificase la expresión, cosa que software como Wolfram y Mathematica llevan 30 años haciendo.

    Acá no hay nada nuevo ni sorprendente

  9. Pues a mí me sigue oliendo todo esto bastante a chamusquina (aunque esté claro que, si las LLMs tienen un uso medianamente aplicable, será el de encontrar patrones rápidamente… otra cosa es derimir si es antieconómico o práctico usarlas para ello):

    – El artículo de Hsu acabó siendo una elaborada (o no tanto) farsa. ¿Qué pasó para que tardara en ser identificado como tal, y qué cambió en el caso presente que evite que dentro de unos meses acabe siendo otro parecido? Recordemos que las LLMs como GPT-5.2 Pro «remezclan» informaciones de entrenamiento, con o sin refuerzo y especialización, pero no son conocidas por generar información nueva, al menos de manera útil y original.

    – ¿Cuál es el grado de «ayuda» de GPT-5.2 Pro a la demostración? ¿Cuán útil fue la LLM para llegar a que el resultado «fuera demostrado»? ¿Es simplemente un modo de sistematizar lo que esencialmente sería un método de prueba y error tedioso para una mente humana, pero que puede ser filtrado por un operador experto más rápidamente? Porque una cosa así sería cualitativamente diferente a una resolución, y no debería ser descrito con frases como «la IAG logró» o «la IAG resuelve».

    – Tengo acceso a GPT-5.2 Pro, y de vez en cuando hago pruebas con él (no me fío de esa herramienta para nada serio, y considero antiético su uso, viendo las inclinaciones de sus dirigentes, su apoyo explícito a sistemas de vigilancia masiva de la ciudadanía, y teniendo en cuenta el coste social, financiero y medioambiental de estas herramientas estocásticas – pero como bien se dice en el artículo, hasta al enemigo hay que conocerlo).
    * Si le preguntas el resultado de una multiplicación de más de 3×3 cifras, es muy probable que la haga mal, y ni siquiera «deduzca» que hacer un procesado matemático (con calculadora, script dedicado o lo que sea) es conveniente, enredándose en su propio error. Lo que me deja perplejo es por qué no han podido, en todo este tiempo, incluir en los conjuntos de entrenamiento de la red neural tablas de multiplicación de, por lo menos, 10×10 cifras. Son cantidades de datos muy manejables comparados con muchas de las otras aplicaciones de estas redes, lo que me hace sospechar que más datos de este tipo (determinísticos y exactos) generan más problemas con la fidelidad de las respuestas, y no al contrario.
    * Si le preguntas un problema lógico básico, es probable que conteste una payasada (un ejemplo famoso estos días es el del lavado del coche: «mi coche necesita limpieza y tengo un túnel de lavado a 300 m de donde me encuentro: ¿debería caminar o conducir?» La mayor parte de las veces responderá con verborrea «caminar», e incluso sacará argumentos peregrinos para defender la decisión si se itera la cuestión (p.ej: «si el túnel de lavado proporciona suministros de limpieza, ¡puedes llevarlos hasta el coche para evitar conducir!»). Todo esto porque, una vez más, la LLM no piensa ni «razona», sino que enlaza palabras y significantes aprendidos, repitiendo patrones aprendidos o «alucinando» otros, que generalmente son falsos. Y como ya admitido por los mismísimos de OpenAI: es una limitación inherente a estos modelos, no algo que se pueda corregir en el futuro de manera general.
    * Si preguntas algo concreto, publicado y accesible pero especializado, sobre lo que sepas mucho o estés seguro, como por ejemplo un aspecto concreto de un paper científico propio, es casi seguro que alucinará al menos varios datos clave.

    – ¿Cómo puede ser entonces posible que GPT-5.2 Pro conjeture correctamente, asumiendo que este caso no haya sido una casualidad afortunada del tipo «mono con máquina de escribir», soluciones lógicas complejas originales de QCD, y necesite Dios y ayuda para «chorraditas» que cualquiera puede probar (y sin duda OpenAI conoce como limitaciones)?

    – Por último, una pregunta sencillita pero bastante sorprendente: ¿por qué no se ofrece una transcripción o síntesis de este «primer gran éxito» de GPT-5.2 Pro, en el paper o en alguno de los artículos divulgativos de la compañía? Entiendo que el «modelo avanzado» especializado interno a OpenAI sea más privado, o su recursividad demasiado engorrosa, para mostrarlo en su versión textual – pero los inputs a una LLM comercial, o su primer output con la fórmula correcta, deberían ser directamente accesibles, legibles y una buenísima publicidad para este método y su herramienta.

  10. …….. las águilas tienen capacidad para ver desde ciertas distancias que los humanos no pueden, como irrumpió la inteligencia artificial en el público y ahora que hace ?????, ciegos o de poca capacidad los que aún son escépticos respecto a unas capacidades que la inteligencia artificial viene adquiriendo en tan poco tiempo en comparación con los humanos en siglos que cada vez más sorprenden, el Gran Stephen Hawking temía al advenimiento de la inteligencia artificial, decía que su aparicion asoma la posibilidad de la extinción de la especie humana, mientras tanto hay seres toscos en su pensamiento renovando infinitamente su escépticismo, quizás cuando una IA haga todo el trabajo humano y todos los descubrimiento aún estás personas toscas de pensamiento digan que son alucinaciones que realmente están copiando cosas que los humanos ya habían descubiertos en el pasado

  11. Hola Francis que piensas de aletheia que paso 6/10 y openai resolvio otros problemas diferentes y de first proof y de epoch.ai con frontiermath?

    1. Mariana, si saco tiempo escribiré una pieza sobre First Proof. En cualquier caso, debes tener presente que los problemas resueltos son simples lemas consecuencia directa de trabajos previos de sus autores. Los resultados probados rayan lo «trivial» (en su contexto, matemáticas muy especializadas); solo la soberbia de sus autores les hizo pensar que suponían un reto significativo para las IA actuales. Un futuro «Second Proof» tendrá que ser mucho más serio para merecer la pena.

  12. Tras leer este entrada sobre los éxitos de la IA en física teórica, me gustaría compartir contigo la V27 de mi trabajo sobre sectores oscuros geométricos en variedades G2 intentando luchar contra la numerología.
    A diferencia de versiones anteriores más exploratorias, este nuevo paper se centra en la rigidez topológica del modelo.
    No se trata de un ajuste de parámetros, sino de una consecuencia directa de la descomposición del retículo de Nikulin H2(K3,Z)=L+⊕L− .
    Los puntos clave que creo que podrían interesarte por su encaje en la fenomenología de M-theory son:Emergencia del patrón (13,9): Demostramos matemáticamente por qué la configuración de rangos (13,9) es un óptimo geométrico para albergar singularidades D5 (visible) manteniendo la libertad de emparejamiento (matching) necesaria en la construcción de Kovalev-Corti.Asimetría de Moduli: Mediante un análisis de aritmética de Betti y estabilización de flujos, el modelo sugiere una asimetría 4:1 en el espacio de deformaciones, lo que justifica de forma natural un Branching Ratio hacia el sector oscuro de O(10−2) sin recurrir a mecanismos ad hoc.
    Escalado de Masa keV: La escala de ~47 keV para la materia oscura emerge de un análisis dimensional del espectro de Kaluza-Klein confinado en los ciclos del retículo anti-invariante.
    El trabajo ha sido auditado mediante un proceso de Red Teaming con modelos de lenguaje avanzados, identificando incluso las tensiones actuales en la abundancia cósmica que marcan la frontera de la teoría.Te dejo el enlace por si tienes curiosidad de ver cómo la IA puede actuar como un «auditor de topología» en problemas de compactación:

    https://www.scribd.com/document/1008637209/Un-Marco-Geometrico-para-la-Materia-Oscura-en-la-escala-keV-Estructura-de-Red-de-Nikulin-en-Compactaciones-TCS-G2

    Un saludo y gracias por tu labor de divulgación tan necesaria.

Deja un comentario