Una IA que estima las variables de estado de un sistema físico a partir de un vídeo

Por Francisco R. Villatoro, el 3 agosto, 2022. Categoría(s): Ciencia • Física • Informática • Noticias • Physics • Science ✎ 6

El movimiento de un péndulo simple está determinado por dos variables de estado, el ángulo y la velocidad angular, o la energía potencial y la energía cinética. ¿Cuántos grados de libertad son necesarios para describir un lámpara de lava o el fuego de una hoguera? Se publica en la revista Nature Computational Science (que nació el año pasado) una inteligencia artificial (IA) que a partir de un vídeo determina el número de grados de libertad de un sistema físico y además permite predecir nuevos fotogramas que continúan con la dinámica. Además, dicha IA es capaz de determinar una serie temporal de los valores de las variables de estado asociados a cada uno de los fotogramas del vídeo y predecir sus valores futuros. Se desconoce cómo determinar una expresión matemática para dichas variables de estado neuronales.  En algunos medios se ha dicho que la IA determina una «física alternativa», pero yo creo que es puro sensacionalismo. Como suele ocurrir con todas las cajas negras basadas en redes de neuronas artificiales, desconocemos qué es lo que realmente representan dichas variables; solo sabemos que la IA puede predecir a partir de sus valores nuevos fotogramas del sistema mostrado en el vídeo.

Hoy en día está de moda la aplicación de técnicas de aprendizaje profundo (Deep Learning) a todo lo que se pueda representar en una imagen. Las redes sociales están repletas de espectaculares imágenes de DALL·E, que construye una imagen fotorrealista a partir de un texto que la describe. A pocos sorprenderá que una IA sea capaz de continuar un vídeo añadiendo nuevos fotogramas. Sin embargo, el problema inverso de la dinámica, la obtención de las leyes físicas o las ecuaciones que rigen el movimiento de un sistema físico, aún sigue siendo un problema complicado para las IA. El nuevo software implementado en Python (GitHub) me parece muy interesante, pero más por lo que promete para el futuro que por lo poco que ofrece en el presente. Se lleva investigando en la predicción de leyes físicas desde los 1970, destacando el software BACON del grupo de Herbert A. Simon, capaz de predecir la tercera ley de Kepler a partir de las posiciones de los planetas, o el algoritmo genético del grupo de Schmidt y Lipson que en 2009 predecía el lagrangiano de un sistema mecánico caótico a partir de series temporales de sus variables, o la reciente regresión simbólica del software AI Feynman de Udrescu y Tegmark. Usar vídeos en lugar de series temporales parecía un paso natural al hilo de los más recientes avances en aprendizaje automático (Machine Learning). Como también lo es identificar el número de variables estado y determinar sus series temporales. Sin lugar a dudas el nuevo artículo del grupo de Lipson es un gran primer paso hacia un futuro en el que los físicos usaremos estas IA como ayuda en nuestro trabajo de modelado. Un futuro que aún queda muy lejos.

El nuevo artículo es Boyuan Chen, Kuang Huang, …, Hod Lipson, «Automated discovery of fundamental variables hidden in experimental data,» Nature Computational Science 2: 433-442 (25 Jul 2022), doi: https://doi.org/10.1038/s43588-022-00281-6, arXiv:2112.10755 [math.DS] (20 Dec 2021); más información divulgativa en Boris Kramer, «Learning state variables for physical systems,» Nature Computational Science 2: 414-415 (25 Jul 2022), doi: https://doi.org/10.1038/s43588-022-00283-4. También he citado los artículos de Gary F. Bradshaw, Patrick W. Langley, Herbert A. Simon, «Studying Scientific Discovery by Computer Simulation,» Science, 222: 971-975 (1983), doi: https://doi.org/10.1126/science.222.4627.9; Michael Schmidt, Hod Lipson, «Distilling Free-Form Natural Laws from Experimental Data,» Science 324: 81-85 (2009), doi: https://doi.org/10.1126/science.1165893; Silviu-Marian Udrescu, Max Tegmark, «AI Feynman: A physics-inspired method for symbolic regression,» Science Advances 6 (15 Apr 2020), https://doi.org/10.1126/sciadv.aay2631.

[PS 04 ago 2022] Recomiendo el comentario de Iulia Georgescu, «How machines could teach physicists new scientific concepts,» Nature Reviews Physics (25 Jul 2022), doi: https://doi.org/10.1038/s42254-022-00497-5, que cita los recientes artículos de Pablo Lemos, Niall Jeffrey, …, Peter Battaglia, «Rediscovering orbital mechanics with machine learning,» arXiv:2202.02306 [astro-ph.EP] (04 Feb 2022), doi: https://doi.org/10.48550/arXiv.2202.02306; Ziming Liu, Bohan Wang, …, Tie-Yan Liu, «Machine-learning nonconservative dynamics for new-physics detection,» Physical Review E 104: 055302 (09 Nov 2021), doi: https://doi.org/10.1103/PhysRevE.104.055302; Ziming Liu, Max Tegmark, «Machine Learning Hidden Symmetries,» Physical Review Letters 128: 180201 (06 May 2022), doi: https://doi.org/10.1103/PhysRevLett.128.180201; y el interesante artículo sobre cómo las redes neuronales pueden explicar sus resultados de Jessica Schrouff, Sebastien Baur, …, Been Kim, «Best of both worlds: local and global explanations with human-understandable concepts,» arXiv:2106.08641 [cs.LG] (16 Jun 2021), doi: https://doi.org/10.48550/arXiv.2106.08641. Más artículos relacionados en «Pervasive machine learning in physics,» Nature Reviews Physics (2022). [/PS]

El número de variables de estado de un sistema físico se puede determinar a partir de series temporales usando técnicas estadísticas como la descomposición en valores singulares (SVD) o la descomposición en modos dinámicos (DMD). La gran novedad del nuevo trabajo es que se usan vídeos con un ejemplo de la dinámica del sistema sobre un fondo de color plano. Por ejemplo, para un péndulo simple se isa un vídeo a color con una resolución de 128×128 píxeles (128×128×3 = 49 152 valores por fotograma). La idea del grupo de Lipson requiere dos pasos. En el primero, se entrena una red de neuronas artificiales para predecir el número de grados de libertad (llamado dimensión intrínseca en el artículo). En el segundo, se entrena otra red neuronal para que refine dicho número (dando lugar a las llamadas variables de estado neuronales) y obtenga una predicción de las series temporales de dichas variables. Usando estas variables se puede reconstruir en vídeo la dinámica a muy largo plazo del sistema dinámico.

Un punto que hay que destacar es que la IA considera que el tiempo es discreto, la reconstrucción se hace fotograma a fotograma (Xt+Δt = F(Xt), con t = 0, Δt, 2Δt, 3Δt, …). Se ha usado una red neuronal autocodificadora (AE-NN) que reduce la gran dimensionalidad del espacio de imagen de cada fotograma (M) en un número muy reducido de neuronas que representan las variables latentes (LD), a partir de las cuales otra red decodificadora reconstruyen los fotogramas predichos (la idea es que M ≫ LD). Para el entrenamiento se minimiza la distancia mínimo-cuadrática entre los píxeles del fotograma predicho y el fotograma original. Como para un péndulo simple el número de variables latentes estimado es de 3.65 ± 0.08, cuando se sabe que en realidad bastan 2, se aplica un proceso adicional de reducción del número de variables que conduce a las llamadas variables intrínsecas (ID), que para el péndulo resultan ser 2.05 ± 0.02, como cabría esperar.

Para el doble péndulo se estiman 4.71 ± 0.03 variables intrínsecas, cuando sabemos que bastan 4; sin embargo, para el doble péndulo elástico se estiman 5.34 ± 0.20, cuando sabemos que se requieren 6. En otros casos, como para las llamas del fuego se estiman 24.70 ± 2.02 variables intrínsecas, cuando para un físico este sistema continua requiere un número infinito de variables (aunque para un vídeo del fuego con un número finito de píxeles y fotogramas dicho número será finito, aunque grande). Obviamente, no hay una interpretación física sencilla para estos resultados; mientras las redes neuronales sean cajas negras que no explican sus resultados no es posible saber el porqué de estas estimaciones.

Una pregunta que parece obvia es cuál es la relación entre los valores de las variables de estado neuronales (las predichas por la IA) y las variables que usaría un físico. No hay ninguna relación obvia. Para un péndulo simple bastan dos variables, el ángulo θ(t) y la velocidad angular θ'(t); cualquier función de ellas, como f(θ) y g(θ’), se puede usar en su lugar, incluso funciones como h(θ,θ’) y k(θ,θ’). Esta figura (arriba) muestra los valores predichos por la IA para la primera (1st component) y segunda (2nd component) variables de estado neuronales en el plano físico (θ, θ’); lo que se observa es una curva que parece apuntar a funciones complicadas h(θ,θ’) y k(θ,θ’). En la parte de abajo de la figura se muestra el caso del péndulo doble (que requiere cuatro variables físicas θ1, θ1‘, θ2, θ2‘); de nuevo la relación entre las cuatro variables de estado neuronales y dichas variables físicas es imposible de inferir.

El artículo no presenta diagramas similares para otros casos, pero en la información suplementaria aparece esta figura para el péndulo doble y el péndulo doble elástico. No hay más figuras para los demás casos, pero con toda seguridad serán aún más complicadas. Por ello, la utilidad actual de estos resultados para un físico dedicado al modelado es nula. Lo siento, pero debo ser sincero.

En resumen, un trabajo prometedor para el futuro, pero que en su estado actual es curioso pero inútil. Los autores dicen que quieren avanzar en la línea de acercar las variables de estado neuronales a las variables convencionales que usaría un físico; quizás entonces sea más fácil que este tipo de herramientas ayuden a los físicos. Pero mientras tanto, este tipo de incursiones en la dinámica inversa no se pueden interpretar en ningún caso como que las IA vayan a descubrir físicas alternativas o vayan a sustituir a los físicos especializados en modelado de sistemas. Al menos, por ahora. El gran salto del nuevo trabajo respecto a los trabajos de hace cuarenta años es usar imágenes en lugar de series temporales como entrada. Un gran salto para algunos, aunque me parece que aún no es para tanto. Lo que no quita que en un futuro lejano este tipo de IA formen parte de las herramientas que todo físico estudie en su carrera y use en su vida profesional.



6 Comentarios

  1. Las imágenes son, o al menos lo parecen, reales, si no lo fueran… sería el sistema capaz de calcular las variables utilizadas para generarlas?
    Gracias

    1. Pmajano, creo haber dejado claro en mi pieza que la IA es incapaz de calcular las variables físicas que describen el sistema físico, o que se deberían usar para simularlo para generar imágenes sintéticas al sistema. Pero si se usan imágenes sintéticas el resultado debe ser muy similar al obtenido con imágenes reales (la red neuronal no puede diferenciar entre ambos casos). El problema de la IA es cuando la imagen del vídeo es confusa, cuando el sistema no está bien separado del fondo y cuando hay ruido u obstáculos en la imagen; como se muestra en la información suplementaria en estos casos la IA funciona fatal.

  2. Leí un artículo donde, efectivamente, de forma no solo sensacionalista, si no incluso dando a entender que así lo explicaba el artículo de Nature, se decía que la IA hacia una física alternativa con nuevas variables desconocidas.

    De la misma forma que nosotros, en nuestro día a día , predecimos el movimiento de un objeto o sabemos cómo colocarnos para empujar algo con más fuerza, sin necesidad de la física ( y si alguien siguiera detenidamente cómo se activan nuestras neuronas en esas acciones, dudo que aparecieran las ecuaciones de Newton) , pues obviamente la IA no «usa una física» , y me temo que depurando el código y viendo variables cambiando de valor nos hable de nueva física…pero oye, quién sabe…

    A mí se me antoja que en un futuro mucha física aplicada quedará sin resolver en el momento que una IA nos sepa predecir perfectamente lo que nos interesa…y como no tengamos otras IA que se encarguen de sacar las ecuaciones, me temo que la pereza nos podrá.

    1. No solo en física aplicada. El uso de redes neuronales en breve será, si no es ya, ubicuo. Y como no resolvamos el problema de las cajas negras, podemos encontrarnos en un ambiente donde no sepamos cómo funciona nuestra tecnología, un divorcio total entre lo que podemos predecir y lo que podemos explicar. Supongo que la única esperanza es que una red neuronal aprenda a explicar lo que ha hecho otra y al menos nos parezca convincente. Pero es aprendizaje supervisado. Habrá que estar muy atentos a la hora de validar sus explicaciones o nos acabará respondiendo como una madre a un niño pequeño: «Porque sí. Porque lo digo yo».

      1. Algunas aclaraciones.

        No se trata tanto de no entender la tecnología si no de no tener una descripción o modelo del proceso concreto, es decir, no poder predecir lo que va a hacer en base a un modelo descriptivo superior a la IA, o dicho de otra forma, predecir sin emular. Spoiler: a cierta complejidad ya será imposible.

        Una máquina puede emular otra igual o incluso construirla, pero no explicarla
        (predecir lo que va a hacer sin emular)a no ser que maneje más caracteres, o más general , que sea más compleja. Un pc puede predecir que hará un termostato sin necesidad de emularlo, pero no con otro pc.

        Con la IA ocurre lo mismo.

        De la misma forma nosotros, en teoría, podremos crear un androide igual que nosotros, pero no tendremos un modelo predictivo mejor que dicho androide.

        Lo que yo creo que ocurrirá es que en el futuro cambiará la definición de hacer ciencia, y en ella estarán incluidas las IA, al tener una IA dirán que ya se «entiende», y les hará gracia pensar que a nosotros eso nos parecía insuficiente, de la misma forma que a Riemman muchos métodos matemáticos actuales le parecerían tramposos.

  3. Me he leído el paper y la sensación es que metiéndole una CNN a una imagen podemos obtener lo que queramos. Me recuerda a Erik von Daniker haciendo operaciones con las dimensiones de las pirámides y concluyendo que las habían hecho extraterrestres. Hay un salto de fe casi igual en interpretar como dimensión del sistema dinámico esos números.

Deja un comentario