Inteligencia artificial basada en la entropía

Por Francisco R. Villatoro, el 28 junio, 2014. Categoría(s): Ciencia • Informática • Noticias • Personajes • Recomendación • Science ✎ 34

Dibujo20140628 schematic depiction causal entropic force - prl

El aumento de la entropía permite simular el comportamiento inteligente de un agente móvil. Controlado por una fuerza proporcional al número de sus posibles estados futuros presenta un comportamiento rico y creativo que parece guiado por la inteligencia. Alexander Wissner-Gross y Cameron E. Freer en abril de 2013 presentaron una fórmula para calcular esta fuerza estimando la entropía a futuro mediante simulación por el método de Montecarlo.

Nos lo cuenta de forma exquisita Sergio Hernández Cerezo (@EntropyFarmer), matemático por la Universidad de Valencia y Director del área de programación y nuevas tecnologías de HCSoft Programación, en su conferencia «Inteligencia artificial basada en entropía» en el Centro de Investigación Operativa de la Universidad Miguel Hernández de Elche. Tienes que ver el vídeo youtube de dicha charla. Karts controlados por la entropía que se comportan como Kimi Räikkönen o Fernando Alonso (en palabras de Sergio).

El artículo técnico original es A. D. Wissner-Gross, C. E. Freer, «Causal Entropic Forces,» Phys. Rev. Lett. 110: 168702, 19 Apr 2013 [PDF gratis]; recomiendo leer a Don Monroe, «Focus: Model Suggests Link between Intelligence and Entropy,» Physics 6: 46, 19 Apr 2013. Hasta donde me consta, Sergio todavía no ha publicado ningún artículo con sus sorprendentes resultados, pero puedes leer su blog (en inglés) Entropic Intelligence. También recomiendo leer (en inglés) a David Ruescas, «Causal entropy maximization and intelligence,» DR, 22 Apr 2013.

«La entropía mide la cantidad de ‘microestados’ posibles para un ‘macroestado’ del sistema. Se puede calcular de muchas formas. Por ejemplo, S=k log(N), donde N es el número de microestados (todos igualmente probables); o S = Suma (Pi log(Pi)), siendo Pi la probabilidad del microestado i-ésimo; o S = Suma (mi vi), donde mi y vi son la masa y velocidad de cada partícula, es decir, el momento lineal de partícula; u otras. Todas son equivalentes entre sí y se elige la más fácil de calcular en cada caso.»

«La segunda ley de la termodinámica nos dice que los sistemas evolucionan de forma que su entropía clásica o ‘instantánea’ crezca lo máximo posible. El concepto de ‘entropía a futuro’ permite calcular teóricamente la fuerza que hay que aplicar a los grados de libertad de los microestados del sistema para maximizar dicha ‘entropía a futuro’. En cada momento el agente móvil decide hacer lo que le permite alcanzar un mayor número de futuros posibles. El agente se comporta de forma ‘inteligente’, signifique esto lo que signifique en cada caso, y sin que sea necesario darle ningún objetivo a priori.»

«La entropía a futuro corresponde a la entropía en el espacio de fases del conjunto de todos los posibles futuros alcanzables (microestados) desde un estado inicial (macroestado). Se utiliza una ventana temporal de t segundos hacia el futuro.» Sergio ha usado muchas posibles fórmulas para la entropía: «Suma(energía irradiada durante el futuro i), Suma(Potencial adquirido durante el futuro i), Suma(Información contenida en el futuro i), Suma(Integral de camino del momento lineal i), etc.»

Dibujo20140628 kart simulation - circuit - sergio hernandez cerezo

Sergio ha aplicado la idea a karts simulados en un circuito curvo con obstáculos. «Su simulación del kart es bastante simple: avanza a velocidad constante con un grado de libertad (la dirección) sobre una pista de pruebas en blanco (dentro de la pista) y negro (fuera de la pista). El kart toma dos decisiones rotar el volante 5 grados a la izquierda (+5), puntos azules, o a la derecha (-5), puntos rojos. Se cuenta el número de futuros posibles utilizando una malla o grid para calcular el área azul o roja. Si hay 40 futuros posibles a la izquierda y 30 futuros posibles a la derecha, entonces se rota el volante (+5) 40/70 + (-5) 30/70 = grados. Con este sencillo algoritmo el kart se mueve solo con una inteligencia que se podría llamar de sentido común. El kart se mueve hacia donde tiene más opciones de futuro; si en cierta dirección solo puede pasar por un lugar, prefiere cambiar de dirección hacia donde tenga muchas opciones.»

En lugar de puntuar todos los posibles futuros con la unidad, se puede introducir un peso o una puntuación que pondere más ciertos futuros respecto a los otros. Una métrica bastante efectiva es puntuar los futuros con la distancia recorrida al cuadrado, de tal forma que sea mejor recorrer una distancia larga en lugar de colisionar contra una pared. Ajustando estas métricas se logran diferentes ‘tipos’ de inteligencia. Hay karts cobardes, que prefieren moverse hacia donde no hay obstáculos, karts valientes, que derrapan y se ajustan a las curvas como Alonso, y muchos otros.

Sergio también ha considerado la posibilidad de que los agentes tengan energía y salud, ambos entre cero y la unidad. Los karts pierdan energía al moverse y la puedan ganar recogiendo objetos en el circuito. Y la salud cuando llega a cero hace que el kart muera. Nadie le explica a los agentes que recogiendo los objetos ganarán energía, pero ellos mismos lo descubren. En cierto sentido la energía y la salud son heurísticos. Como resultado se observan comportamientos muy curiosos. Por ejemplo, los pesos siempre tienen que ser positivos porque los valores negativos llevan a que los agentes se ‘suiciden’ (su salud se reduce a cero).

También ha considerado la posibilidad de que varios agentes colaboren entre sí (los futuros posibles se comparten entre todos los agentes de un grupo, luego se maximiza el futuro del grupo y no del individuo en particular). Una colaboración tan sencilla conduce a resultados espectaculares. No sólo con karts, Sergio también ha considerado cohetes a propulsión a chorro. Parece como si los pesos usados para ponderar los futuros tuvieran una interpretación psicológica.

Te recomiendo encarecidamente ver la conferencia de Sergio Hernández Cerezo. Para mí ha sido muy inspiradora.



34 Comentarios

      1. Sergio, a Daniel le recuerda la interpretación de la onda piloto o De Broglie-Bohm porque usa la segunda ley de la termodinámica para interpretar la amplitud de la función de onda cuántica como una probabilidad. Más información divulgativa en la wikipedia. Hay mucha información en la web sobre esta interpretación.

    1. Se puede hacer. Para adaptar este algoritmo a cualquier cosa, precisas de 3 ingredientes, si sabes proporcionarselos, el algoritmo te dirá como debes actuar.

      1) El más dificil es una simulación más o menos fiable: Si hoy las acciones cotizaron así y yo decido vender/comprar de esta forma, como crees que estará mañana el sistema (cotizaciones de mañana, luego sé como habrá cambiado el valor de mi cartera). Vale una red neuronal, o algo estadísitico, pero la eficiencia del sistema (cuanto ganas en bolsa) dependerá básicamente de la «calidad» de esta simulación.

      2) Como valoras un cambio de cartera a otro: Si hoy tienes estas acciones y mañana tienes otras, con otros valores, podrías simplemente sumar el valor de la cartera. La verdad es que no sería «lo adecuado», es necesario que esta función objetivo valores positivamente «cambios» en el sistema aunque no mejoren tu cartera, por lo que quizás comprar/vender una acción debería sumar 1 punto, o bueno, 1 euro en este caso.

      3) Grados de libertad que le das al sistema: Puedes hacer que en cada paso el sistema decida UN valor de entre todos los existentes, y luego calcule cuanto se debe comprar/vender de ese valor. Eso haría que el sistema eligiese el mejor valor con el que negociar y la cantidad de acciones a comprar o vender. Otra opción es darle libertad para negociar con 5 valores, o con todos. Cuantos más grados de libertad le das, más opciones de que te encuentre combinaciones buenas, pero también más tiempo de cálculo. Nada grave.

      Como ves no es nada inabarcable, la simulación es lo más peliagudo, pero supongo que habrán muchos sistemas en el mercado para eso (inferencia bayesiana por ejemplo).

      1. 1 lo consigues estudiando la serie histórica previa de cada valor, eso te dá una varianza que te permite simular, dentro de lo posible, con unas sencillas distribuciones normales, unos cuantos días con cierta seguridad.

        No necesitas mucho más.

    2. Si, hay varios del estilo, en resumen todos vienen a decir las mismas dos cosas:

      1) Un algortimo general para comportamiento inteligente? Demasiado bueno para ser cierto, no me lo creo, ni veo como la idea expuesta se podría aplicar.

      2) Fuerzas que salen solas y empujan grados de libertad? Vamos ya, que campo las genera? De donde salen? Yo las he calculado y dan cero!

      En ambos casos es simplemente que no han entendido el paper, ni en los detalles ni en la idea en si misma.

      El punto 1 es si no lo veo no lo creo, así que no tengo nada que objetar, que se pasen por elblog y lo vean correr en su PC, sin trampa ni cartón, y listo.

      El punto 2 es el más absurdo de todos los que he oido, pero se repite en todas las criticas.

      Confunden «furza entrópica» con una fuerza real: Si conectas tu tablet con un cuadricoptero y un programa de IA decide que fuerza deden hacer cada una de las hélices, esas fuerzas calculadas NO son reales. Este sistema calcula las fuerzas que sería necesario ejercer sobre los «joysticks» del cuadricoptero para que se comprte inteligenetmenete, pero no hace ninguna fuerza.

      Lo que hace es que le envia esa orden al cuadricoptero, y este, con sus circuitos, ajusta las potencias a lo «sugerido» por la inteligencia del programa.

      Decir que un programa informático no puede ejercer una fuerza sobre una hélice es cireto, solo puede pedirselo amalemente al chip que controla los motores. Esa es la diferencia. Calcuar una fuerza «que sería necesaria para» no es lo mismo que ejercer dicha fuerza.

      Otro ejemplo que suelo usar: Que fuerza ejerce tu cerebro para que cambies de canal la TV cuando no te gusta el programa? Cero, pero vas y cambias de programa.

      1. Lo de que la entropía se concrentre en los agujeros negros conecta con la teoría, muy de mi gusto, de que dentro de cada agujero surge un nuevo big bang, muy pequeño y ralentizado desde nuestro punto de vista, pero perfectamente normal para sus habitantes.

  1. El autor del paper original, Alexander Wissner-Gross, tiene un video en las prestigiosas conferencias TED que, aunque no añade nada a su artículo «escrito», es muy interesante:

    http://www.ted.com/talks/alex_wissner_gross_a_new_equation_for_intelligence

    Un artículo interesante con comentarios del autor:

    http://www.insidescience.org/content/physicist-proposes-new-way-think-about-intelligence/987

    Y este me encanto por como el autor deja volar su imaginación, muy acertadamente en mi opinión:

    http://michaelscharf.blogspot.co.uk/2014/02/a-new-equation-for-intelligence-f-t-s.html

  2. No me lo tomo a mal, Antonio, solo es una idea, y bueno, llamarla «inteligencia entrópica» es solo que a mi es lo que realmente me sugiere, no sabría definirla mejor ni menos rimbombantemente: las dos palabras han de aparecer en el nombre.

    Lo de «psicologia computacional» es más pretencioso, es verdad. Me refiero con esto a que en este marco puedes llevar a cabo un experimento psícologico «jugando» con combinaciones de «goals» concretos, obtener una cierta evidencia «medible» y, lo más importante, reproducible independientemente. Esto último hace a este tipo de enfoques, tanto en psicologia como en sociologia, muy potentes pues no se basan en cosas subjetivas. Que luego puedas a no estudiar psicologias complejas como las nuestras de forma que tenga alguna utilidad directa, es otra cosa, no sé si dará para tanto la cosa.

    Por otro lado, el que métodos estocásticos o estadísticos se apliquen en teoria de la decisión es casi inevitable, pero que un enfoque púramente termodinámico funcione tan espectacularmente y de forma tan genérica es lo verdaderamente interesante.

    El que esos cálculos termodinámicos se aproximen numéricamente con métodos de montecarlo (y por tanto estadísticos) es puramente circunstancial: solo se debe a la comlejidad de calcular entropías directamente, pero hay formas equivalentes de calcularlo sin usar tanta estadística, solo que es menos eficiente.

    1. Sobre aplicarlo a reconocimiento facial, lo veo dificil, este algoritmo es bueno interpretando futuros para elegir estrategias optimas, pero detectar y entender tu entorno o simular en ese entorno que pasará si, eso es cosa de redes neuronales. Las dos cosas casan perfectamente, aunque en mi charla uso una simulación física de un mundo ficticio en lugar de una red neuronal que me predijese lo que iba a ocurrir a cada pasito basada en su experiencia.

      Sobre los cuadricópteros, un sí rotundo, y sencillo de acoplar. El otro día vi un anuncio de google de un movil experimental capaz de mapear su entorno en 3D conforme lo explora con sus cámaras. Si pones uno de esos sobre el drone y simulas futuros en ese entorno virtual, tienes un drop autónomo que seguirá los «goals» que le implantes… detectar moscas y matarlas con sus hélices, por ejemplo!

      El premio gordo es mezclar redes para interpretar tu entorno y para precedir efectos futuros (como el neocortex en nuestro caso), este algoritmo para decidir lo que hacer (en nuestro cerebro sospecho que está más profundo que el neocortex porque lo tienen los reptiles), y finalmente un algoritmo evolutivo que modifique todo lo anterior de vez en cuando.

  3. Se supone que igual que Deep Blue derrotó por primera vez a un ajedrecista humano, y hoy cualquier superordenador lo hace, pronto podremos ver un coche de fórmula 1 conducido automáticamente por este sistema que venza a cualquier piloto.

    1. Eso ya existe: http://www.dailymail.co.uk/sciencetech/article-2535789/Self-driving-cars-just-got-cool-BMW-trials-high-speed-prototype-slides-round-corners-skill-racing-driver.html

      La diferencia es que este BMW lo conduce una inteligencia diseñada para conducir coches, mientras que la entropica es genérica, si le das una simulación de bicicleta, de helicoptero, de autogiro o de humano con maquila voladora, en todos los casos, los sabe manejar a la primera.

      Lo de que venza a cualquier piloto, bueno, nadie pilota mejor un helicoptero que una inteligencia artifical, mira el video y llora!

      https://www.youtube.com/watch?v=VCdxqn0fcnE

      1. ¿El del BMW eres tu? jaja. Pero eso no es un fórmula 1, y además lo que hace es derrapar, los fórmula 1 no derrapan, al revés. La gracia está en que el ordenador, con el algoritmo entrópico, sepa ver los puntos de la pista que debe buscar para el camino más corto. Básicamente yo creo que eso es lo que hacen los pilotos. También está el conocer el circuito, con tu algorirmo no hace falta conocerlo, pero si se conoce mejor.

  4. Tengo una duda, he visto solo la mitad del video, así que no sé si se habla de ello. Tenemos un escenario estático, las paredes, las bolitas etc. Si el escenario fuera dinámico (hay bolitas de energía que aparecen al azar en el escenario), ¿existe alguna manera de modelizar la «expectativa» de que aparezcan y que cambie el comportamiento de las naves con antelación?

    Un saludo!

    1. Si, y además es tan fácil que realmente no tienes que hacer nada especial, sale «solo».

      Cuando el kart simula 100 futuros para obtener las posiciones finales, en cada una de esas simulaciones el entorno puede cambiar aleatoriamente, igual que en la simulación «real».

      Si simulas barcos y el viento puede variar con el tiempo, en cada simulación el viento cambiaría de forma diferente, según lo probable de cada cambio en nuestra simulación, por lo que la decisión final usa, de forma natural, una mezcla de todos los posibles entornos en que se va a desenvolver el barco. Vamos, que sale solo y sin esfuerzo alguno.

      En la diapositiva donde muestra la gran fórmula del paper original, veras que hay dos fórmulas, la de abajo dice exactamente lo que esto contando. Pero en la practica, no precisas de simular nada de esa segunda fórmula, sale solita (y la primera también, menos mal porque son algo diabólicas de aplicar).

  5. Te escribi una respuesta se perdio en en el ciber espacio…

    Bueno, si, es sencillo, de hecho sale solo. Para cada kart su entorno NO es estático, los demás karts cambian «aleatoriamente», y los evita de forma «natural».

    Si el viento cambiase en la simulación real de forma aleatoria, solo tienes que hacer también cuando simulas los 100 futuros, así la decisión tendrá en cuenta todos los posibles escenarios, sin que realmente te supongo ningún trabajo.

    1. Sergio, perdona, pero en las dos últimas semanas el nivel de spam en este blog ha crecido muchísimo (unos 400 comentarios son calificados como spam cada 24 horas) y me está entrando mucha pereza revisarlo a diario por si el detector automático falla. Así que algunos comentarios puede que se pierdan en el ciber espacio…

  6. Me recuerda a los caminos múltiples de Feynman y suma de fases. Seguro que es posible encontrar una formulación equivalente entre ambos. A trabajar, chicos.

    1. Yo también he pensado en ese paralelísmo, es tremendamente similar, y a veces me planteo si la mecanica cuantica no es más que el resultado de que las partículas se comporten con cierta inteligencia «entrópica» a su escala.

      Si un gigantesco alienígena nos considerase partículas por nuestro tamaño relativo, vería que nos movemos, a groso modo, siguiendo una ley similar a la de los caminos multiples de Feynman, pero no de forma determinista, es decir, si lo óptimo es ir a A a B, no todos los individos lo harán, pero sí la mayoría (como una ecuación de onda para un humano).

  7. Uhmmm se me hace similar a los Markov Decision Process, o incluso Reinforcement Learning donde un helicoptero aprende a volar por si mismo. Al final se elige la mejor politica dado una especie de promedio de todas las posibles consecuencias usando la ecuacion de Bellman. Quizas hayas nexos entre ambas tecnicas, o sean lo misma :). Por otro lado, no creo que emerga algo interesante sin que haya un ‘tuneo manual’ de parametros; como sea, seria mejor parametrizar ese tuneo tal que se le deje al computador el obtener tales parametros.

    1. El tuneo de los parámetros es importante y llevo dandole vueltas desde hace meses, y he probado dos cosas:

      1) Usar algoritmos geneticos para elegirlos previamente a la simulación de verdad (http://entropicai.blogspot.com.es/2014/09/adding-evolution-to-mix.html), con la desventaja de que los parámetros no evolucionan con la situación. No recomiendo este camino, la verdad, es ineficiente y muy limitado.

      2) Dos capas de inteligencia: La 1 es la que aparece en el video, la 2 se lanzaria en cada paso para elegir los paramteros. Para eso, consideras el nivel 1 como una nueva simulacion, los parametros libres ahora son los coeficientes de esos goals (aumentar/disminuir las ganas de correr o el miedo a chocarse, etc), con lo que el tuneo maunl de parámetros pasa a ser automatico, en tiempo real, y usa la misma formula de entropia que antes.

      Este segundo enfoque es el correcto sí o sí, peor aun no me he puesto a programarlo (quiero «estar orgulloso» del nivel 1 antes de pasar al 2), y lo tienes explicado en más detalle aquí: http://entropicai.blogspot.com.es/2014/04/layers-and-layers-of-intelligence.html y una prueba tonta de como podría funcionar aca: http://entropicai.blogspot.com.es/2014/09/follow-my-orders.html

  8. Sergio, Te escribo en este blog porque en el tuyo me pide usuario de sitios en los que no tengo…

    Quería agradecerte por compartir el código, Me encanta la IA (especialmente aplicada a juegos o trading, aunque también en general) pero soy autodidacta y con mis carencias en física y matemáticas, no conseguiría descifrar cómo implementar esa fórmula en un programa, o me llevaría muuucho tiempo, por mucho que me lea el paper un millón de veces ( ya debo andar cerca jeje ) y me vea tu presentación otro tanto, por cierto enhorabuena :). Pero con el código sí me puedo pegar y ponerme a mirar y descifrar cómo hacerlo en algunos de los lenguajes que conozco ( no conozco delphi/pascal pero me servirá igualmente, para intentar escribir mi versión en c, java o similar…). A ver si consigo sacar algo ahora que cogeré vacaciones 🙂

    Muchas gracias!

    1. El código actual está algo liado porque incluye algunas ideas «de bombero» que he ido descartando poco a poco pero que mantenía disponibles en el programa.

      En la V1.3 que tengo entre manos ahora, se simplifica todo bastante: elimino lo de «AI Levels» (una colección de todas las formas de efectuar los cálculos que he usado, sean buenas o malas), simplifico bastante como se acumula la puntuación del future conforme transcurre, y los goals se simplifican a 1 solo tipo con 3 puntuaciones diferentes que se suman solas para generar el score del futuro.

      Así que si te vas a lanzar a portarlo, quizás la V1.3 sea la más interesante (en unos días lo subiré).

  9. Hola:

    Ante todo muchas gracias por compartir este seminario tan interesante.

    Si no es mucha molestia me gustaría hacer alguna preguntas:
    1 ¿sería posible utilizar este algoritmo para entrenar una red neuronal? Me refiero a mejorar el algoritmo de aprendizaje de una red neuronal.
    2 Se podría utilizar para minimizar/maximizar una función de la que solo disponemos los valores de los puntos pero no la propia fórmula analítica?

    Esto me parece realmente interesante.

    Muchas gracias por todo.
    Un saludo, sevilla512.

    1. Hola Sevilla, te respondo:

      1) No creo que se pueda usar para entrenar una red neuronal. Las redes neuronal encajan perfectamente en la idea, pero no como algo a entrenar, aparecen como un candidato ideal para simulador de «que pasará sí ahora decido esto y dejo pasar un instante». Actualmente uso una simulación determinista, nunca me equivoco, pero debería usar una red neuronal, y una vez pase ese instante, comparar lo predicho con lo ocurrido y, si se diferencia en más de un cierto umbral, re-educar a la red para que poco a poco aprenda a predecir el futuro del sistema.

      2) No creo (o no funcionaría como esperas) por dos razones:

      A) No puedes «simular» qué pasará cuando salgas de uno de esos puntos conocidos y pises zona desconocida. Al final para eso necesitas interpolar, y el como interpoles afectará enormemente al optimo.

      B) Si interpolas y usas esa función como «entorno» entonces podrías simular una «pulga» que salta con una cierta fuerza y un cierto ángulo (ya tienes 2 grados de libertad para conectarles sendos joysticks) y puedes simular que das 5 saltos seguidos en cada futuro, puntuarlos según la altura a la que termines (más alto mejor si maximizas), y te faltaría el detectar «futuros similares»… podrías usar directamente la coordenada final de la «pulga» (x,y) como en los coches.

      Resumiendo, se puede, pero va a ser menos eficiente que cualquier método estandard de optimización y dudo que termine encontrándote el máximo.

        1. sevilla, despues de mucho tiempo siguiendo con esta idea, resulta que tus dos preguntas fueron muy acertadas: Si que se puede usar para entrenar redes y si que se puede usar para maximizar funciones sabiebdo solo sus valores (no necesitas continuidad ni nada), peero, no sirve la version «lineal» que tenia entonces, necesitas la versión fractal:

          Aqui tienes algo sobre optimizar funciones:
          http://entropicai.blogspot.com.es/2015/05/fractal-function-optimization.html

          Sobre las redes aun ando perfilando los detalles, bueno, me falta mas que los detalles (pero tengo ideas de como atarcar el problema)!

    2. Hola Sevilla512, vuelvo a tu pregunta unos añitos despues porque fue bastante profética:

      1) Si es posible y muy interesante usarla para entrenar redes neuronales, de hecho estamos en ello: http://entropicai.blogspot.com.es/2017/06/openai-first-record.html

      2) Si, se puede y lo hemos incluso publicado en arxiv con pseudo-codigo y código real en python (solo usamos el valor de la función en los puntos, nada de gradientes, como pedías): http://entropicai.blogspot.com.es/2017/06/fractal-optimising-first-paper.html

  10. Hola Sergio excelente aportación, mi pregunta es la siguiente:

    Será posible utilizar este algoritmo para simular la deposición de rocas de diferentes tamaños para la prevención de posibles deslizamientos? En otras palabras si ya conozco la entropía utilizando la teoría de información acerca del deposito (que por cierto ya la tengo) se puede calcular la entropía futura con relación al tamaño de la roca y darme la posible distancia recorrida?

    Recibe saludos cordiales y espero tu valioso comentario.

    1. Hola Mayra, es mejor comentar en mi blog o en mi email, no recibo notificaciones de estos comentarios (lo he visto dos meses despues de casualidad).

      No veo como hacer lo que comentas. Yo no se calcular entropias a futuro «reales», no se la entropia que tendra un depositio en un año, depende de cosas como la altura del monton, los indices de lajas, agujas o caras fracturadas, la energia que se meta en el deposito (lluvias, tormentas, cambios de temperatura) y ese tipo de cosas.

      Pero supongo que si trabajas con energias potenciales + entropias, y lo puedes sumar en una sola cosa, entonces lo tendrias. En la parte potencial entra la altura dle monton y esas cosas, en la de entropia pues Shannon supongo, y luego tienes unas energias necesarias para movilizar el deposito que serian, digamos, aleatorias con una distribucion normal en el tiempo.

      En estos casos la diferencia de potencial entre un estado y otro podria ser negativa (la meter energia) y eso es un problema, la entropia no suma bien con negativos, por lo que deberias usar quizas la exponencial del incremento de pontencial más la entropia que ya tienes.

      No puedo orientarte más, desconozco bastante este tema!

Deja un comentario