Incremento de la entropía y descenso del desorden

Por Francisco R. Villatoro, el 31 octubre, 2017. Categoría(s): Ciencia • Física • Noticias • Physics • Science • Termodinámica ✎ 11

Dibujo20170314 self-assembly au nanocrystals capped with block copolymer ligands acs chemrev 6b00196

Se suele afirmar que hay una relación íntima entre entropía y desorden. Pero muchos sistemas físicos se ordenan conforme crece la entropía. La entropía cuenta el número de estados alcanzables por las partes de un sistema que están en interacción mutua. Cuando estas partes se pueden autoensamblar tras una interacción adecuada, un incremento de la entropía implica una mayor probabilidad de autoensamblaje espontáneo. Como resultado el sistema se ordena conforme la entropía crece. Se cree que este fenómeno fue relevante en el origen de la vida.

Dibujo20171031 random clothespin model book algorithms computations werner krauth

Un ejemplo curioso para ilustrar estos fenómenos es los palillos de tender la ropa en el cordel (un ejemplo unidimensional de los modelos de bolas duras). Sea σ la anchura de un palillo cuando está colgando del cordel de longitud L; inicialmente se cuelgan en posiciones aleatorias y se dejan evolucionar con una perturbación externa al azar (como el viento). Los palillos chocan entre ellos y se van moviendo por el cordel; cuando el espacio libre es pequeño ocurre un fenómeno curioso. La figura muestra la probabilidad para la posición del palillo (obtenida mediante una simulación por ordenador de tipo Montecarlo) para 15 palillos en un cordel de longitud L = 20 σ. Las probabilidades son mayores cerca de los bordes del cordel. Por tanto, los palillos se acumulan en los extremos del cordel. El orden aparece a partir del desorden (el viento) conforme la entropía crece.

El ejemplo de los palillos de tender la ropa aparece en el libro de Werner Krauth, «Statistical Mechanics: Algorithms and Computations,» Oxford University Press (2006). Me lo ha recordado el artículo de Natalie Wolchover, «Digital Alchemist Seeks Rules of Emergence,» Quanta Magazine, 08 Mar 2017, que entrevista a la física computacional Sharon Glotzer (Universidad de Michigan, EEUU).

Glotzer es famosa por publicar en Nature en 2009 un estudio computacional sobre la formación de cuasicristales mediante autoensamblaje dirigido por la entropía: Amir Haji-Akbari, Michael Engel, …, Sharon C. Glotzer, «Disordered, quasicrystalline and crystalline phases of densely packed tetrahedra,» Nature 462: 773-777 (10 Dec 2009), doi: 10.1038/nature08641; aunque quizás recuerdes su más reciente Pablo F. Damasceno, Michael Engel, Sharon C. Glotzer, «Predictive Self-Assembly of Polyhedra into Complex Structures,» Science 337: 453-457 (27 Jul 2012), doi: 10.1126/science.1220869.

Los interesados en un artículo buen artículo de revisión sobre el tema disfrutarán de Michael A. Boles, Michael Engel, Dmitri V. Talapin, «Self-Assembly of Colloidal Nanocrystals: From Intricate Structures to Functional Materials,» Chem. Rev. 116: 11220–11289 (23 Aug 2016), doi: 10.1021/acs.chemrev.6b00196.

[PS 01 Nov 2017] Gracias al usuario Kaarl de Menéame me he enterado de que Werner Krauth tiene un curso en Coursera donde explica la acumulacion de pinzas de tender en las cuerdas y su relación con la entropía. Te recomiendo disfrutar de este vídeo. [/PS]



11 Comentarios

  1. A mi me gusta especialmente la definición de desorden de Landsberg:

    Dado que la entropía es ignorancia (falta de información), puede decirse que el desorden es la fracción de ignorancia que se tiene del sistema (entropía) en relación a la máxima ignorancia que se puede tener de él (máxima entropía del caso equiprobable).

    Y que tiene la siguientes consecuencias, entre otras:
    1.- El desorden siempre varía entre 0 y 1y no depende del volumen del sistema.
    2.- En un proceso en el que el número de microestados \Omega y la entropía aumentan con el tiempo el desorden disminuye.

  2. Entiendo que a la entropía se la suele asociar al desorden y este concepto no es tan así ya que como explican bien aquí también el orden produce entropía.
    Osea la entropía se la puede definir como un contador de estados dentro de un sistema.
    Pero si quisiera entenderla mejor, entender porque en un sistema cada elemento fundamental que a este lo compone, desarrolla determinado movimiento o determinada temperatura o presión etc.
    Se puede decir que entropía es un conjunto de variables gobernadas por la naturaleza las cuales nosotros podemos analizar y entender (no todas por supuesto) o los comportamientos de estos elementos fundamentales son «al azar»???

  3. Veo el video, y no llego a comprender porqué finalmente acaban las pinzas apiñadas en los laterales por el simple hecho de que eso deja más espacio, «menos probabilidad de tábula rasa» dice… mmm no lo veo…siempre había pensado que se trataba simplemente porque los laterales no se mueven, son como pinzas fijas, al chocar, los laterales no se trasladan como el resto de pinzas, y de ahí que no haya más configuración posible que pinzas acumuladas… tal vez sea lo mismo…
    Sea como fuere está claro que no lo estoy comprendiendo bien, me voy ahora mismo a buscar el «Statistical Mechanics: Algorithms and Computations» de Krauth

  4. No me convence mucho el ejemplo de las pinzas de ropa. Como sugiere Pedro Mascarós, los extremos inmóviles imponen un orden.

    De todas formas, la naturaleza demuestra constantemente que no tiene ningún propósito, ni siquiera el de aumentar el desorden, así que si una configuración ordenada es más fácil no tiene porqué tender al desorden.

  5. Cuando se habla de entropía, sobre todo a nivel divulgativo, no se suele decir que que el incremento de entropía que tiene lugar en cualquier proceso es el resultado del cómputo total,que engloba las variaciones de entropía del sistema y del resto del universo. Y es perfectamente posible que un proceso transcurra con creación de orden, esto es, con disminución de entropía del sistema. Pero inexorablemente, esta disminución de entropía del sistema lleva aparejada un incremento de entropía superior en el resto del universo. Prigogine dijo que hay una tendencia en determinados sistemas a evolucionar minimizando el incremento de entropía, lo que hacen creando estructuras ordenadas; esto ocurre en los estados estacionarios. Este es el caso de los organismos vivientes, que tratan de mantenerse en el estado estacionario la mayor parte del tiempo, de donde surge su compleja organización. Pero el resultado global de la creación de un ser vivo es la producción neta de entropía en el universo.

    1. Estratis, cuidado, orden y entropía no están relacionados, en rigor, salvo a nivel divulgativo. «Incremento de la entropía y descenso del desorden», LCMF, 31 Oct 2017. La idea de que irreversible y desordenado, y que reversible y ordenado, están relacionados es errónea (algo que se sabe desde mediados del siglo XIX, antes del desarrollo de la termodinámica estadística, algo no sostenible desde el desarrollo de la mecánica estadística, y obsoleto en la actualidad).

Deja un comentario