Francis en @TrendingCiencia: La decoherencia cuántica y la inexistencia de la primera cuantización

Por Francisco R. Villatoro, el 27 enero, 2014. Categoría(s): Ciencia • Física • Noticia CPAN • Noticias • Physics • Podcast en Trending Ciencia • Science ✎ 9

Dibujo20140127 atomic orbitals - visualelements - rsc org

Ya puedes escuchar mi nuevo podcast para Trending Ciencia, el último de mi serie sobre campos y partículas, sobre la relación entre la teoría cuántica de campos y los fundamentos de la mecánica cuántica no relativista.

Uno de los lectores de mi blog, Antonio, pedía en los comentarios que mencionara a Hans Dieter Zeh, uno de los padres del concepto de decoherencia cuántica en 1970 (que introdujo en su famoso artículo «On the interpretation of measurement in quantum theory,» Foundations of Physics 1: 69–76, 1970 [pdf gratis]). Zeh publicó en 2003 un artículo titulado «No existe la primera cuantización («There is no «first» quantization,» Physics Letters A 309: 329-334, 2003 [arXiv:quant-ph/0210098]). En la nomenclatura clásica se diferencia entre «primera» cuantización, en la que los observables físicos son operadores que actúan sobre funciones de onda que describen partículas, y «segunda» cuantización, en la que los campos son operadores que actúan sobre un espacio abstracto. Zeh argumenta que sólo existen los campos cuánticos y que la llamada «primera» cuantización es una simple consecuencia de la decoherencia. La realidad está hecha de campos cuánticos y la cuantización correcta es lo que impropiamente se llama «segunda» cuantización. Permíteme empezar recordando qué es la decoherencia.

Dibujo20140127 quantum decoherence - schrodinger cat

El principio de correspondencia de Niels Bohr ha sido clave en la historia temprana de la mecánica cuántica, pero es engañoso porque hace pensar que todo sistema cuántico resulta de la cuantización de un sistema clásico. Hay conceptos cuánticos que no tienen análogo clásico y además el límite clásico de un sistema físico cuántico no se puede obtener, salvo en ejemplos triviales de libro de texto, aplicando el límite cuando la constante de Planck tiende a cero. En la mayoría de los sistemas cuánticos este límite está mal definido y no existe. Hay que recordar que un sistema cuántico se caracteriza porque todas las magnitudes con unidades de acción son discretas, existiendo una acción mínima, el cuanto de acción. La constante de Planck es una unidad de acción, cuyas unidades son producto de energía por tiempo, o si prefieres, las unidades del momento angular. En un sistema clásico la acción siempre es continua, pero en un sistema cuántico es un múltiplo entero de la constante de Planck.

El concepto fundamental para entender la transición entre un sistema cuántico y un sistema clásico, entre un sistema microscópico y una macroscópico, es el concepto de decoherencia. Introducido por Hans Dieter Zeh en 1970, se popularizó entre los expertos a principios de los 1980 gracias al trabajo de Wojciech Zurek en 1981 y 1982 («Pointer basis of quantum apparatus: Into what mixture does the wave packet collapse?,» Phys. Rev. D 24: 1516–1525, 1981; «Environment-induced superselection rules,» Phys. Rev. D 26: 1862–1880, 1982) y entre los profanos gracias a un artículo de Zurek en Physics Today en 1991 titulado «Decoherencia y la transición de lo cuántico a lo clásico» («Decoherence and the Transition from Quantum to Classical,» Physics Today 44(10): 36-44, 1991arXiv:quant-ph/0306072). Los interesados en más información sobre la historia de la decohrencia disfrutarán del artículo de Kristian Camilleri publicado en 2009 («A history of entanglement: Decoherence and the interpretation problem,» Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 40: 290–302, 2009).

La idea original de Zeh se basaba en la interpretación de Hugh Everett III de los muchos mundos, por ello tuvo pocos adeptos hasta que Zurek retomó la idea sin mencionar a Everett e introdujo el concepto de decoherencia inducida por el entorno. Para que la idea fuera aceptada por la mayoría influyó mucho el apoyo de John Wheeler, bajo cuya dirección Zurek realizó un postdoctorado entre 1979 y 1981. Hoy en día, la idea de decoherencia cuántica forma parte de la ortodoxia, forma parte íntegra de la interpretación estándar de la mecánica cuántica, la interpretación de Copenhague. De hecho, la esencia de la idea ya estaba en la mente de Bohr, que trataba el sistema de medida como un sistema clásico por puras limitaciones formales; hoy en día, gracias a la decoherencia de Zeh y Zurek, el sistema de medida también se trata como un sistema cuántico.

Los modelos de decoherencia permiten explicar la ausencia de superposiciones cuánticas en los estados macroscópicos de la materia, sin necesidad de la intervención de un observador (evitando todo tipo de paradojas asociadas a que el observador debe ser consciente del resultado de la medida). La decoherencia es resultado del entrelazamiento de todos los sistemas físicos con el entorno. En cada observación de un sistema hay tres subsistemas implicados: el objeto a medir, el aparato de medida y el entorno. Según los modelos de decoherencia el entrelazamiento estos tres subsistemas y, en concreto, la interacción entre el objeto a medir y el entorno, diluye la superposición de estados cuánticos; el gato de Schrödinger o está vivo o está muerto, porque al ser un objeto macroscópico su interacción con el entorno es muy fuerte.

Por ejemplo, por qué la luz en la habitación en la que estás parece una onda clásica y no muestra su carácter cuántico. Según la decoherencia, como describieron Erich Joos y el propio Zeh, que le dirigió la tesis doctoral, en 1985 («The emergence of classical properties through interaction with the environment,» Zeitschrift für Physik B Condensed Matter 59: 223-243, 1985), la razón es la interacción (dispersión) de los fotones en las moléculas del aire de la habitación. Esta dispersión provoca una decoherencia muy rápida que localiza los paquetes de luz, contrarrestando la dispersión predicha por la ecuación de Schrödinger. La luz parece formada por partículas localizadas porque el entorno está constantemente midiendo su posición.

Los trabajos de Serge Haroche y David J. Wineland, galardonados con el premio Nobel de Física 2012, sentaron las bases para la observación experimental de la decoherencia cuántica. Sin embargo, la decoherencia cuántica aún guarda muchos secretos para los físicos y todavía no podemos afirmar que se entienda en detalle la frontera que existe entre el mundo cuántico y el mundo clásico. Aún así, la mayoría de los expertos cree que el problema es la ausencia de herramientas matemáticas suficientemente poderosas y que conceptualmente el proceso está bien descrito gracias a la decoherencia. Pero volvamos al concepto de campo y al artículo de Zeh en contra de la «primera» cuantización.

Dibujo20140127 Diagram by Wayne Witzel of CMTC shows qubit electron -center- surrounded and affected by random nuclear spins of atoms in the material lattice

El principio de correspondencia de Bohr se utilizan en la primera cuantización para cuantizar un sistema clásico, pero gracias a la decoherencia se puede recorrer el camino al revés, es decir, «clasicar» un sistema cuántico, si se me permite el neologismo (Maximilian Schlosshauer, Kristian Camilleri, «The quantum-to-classical transition: Bohr’s doctrine of classical concepts, emergent classicality, and decoherence,» arXiv:0804.1609 [quant-ph]). En la teoría clásica el concepto de partícula puntual como un punto del espaciotiempo con ciertas propiedades está bien definido; al cuantizar este concepto clásico de partícula puntual resulta la idea usual de partícula cuántica como un punto del espaciotiempo con ciertas propiedades cuánticas. Las funciones de onda que describen la partícula se suelen describir en la base de autoestados del operador posición, es decir, se interpreta la función de onda de la partícula como un campo clásico que nos da en cada punto del espaciotiempo la amplitud de probabilidad de que la partícula se encuentre en dicho punto. Por supuesto, se pueden utilizar otras bases de autoestados, como los de la energía o de momento, pero la intuición clásica nos permite recurrir a la idea de campo clásico para la amplitud de probabilidad de dichas propiedades para la partícula.

Sin embargo, en la segunda cuantización, en la teoría cuántica de campos, las funciones de onda se evalúan en el espacio de funciones de onda que describen los estados de los campos y no en los puntos del espaciotiempo. De hecho, no tiene ningún sentido localizar una partícula en un punto del espaciotiempo en teoría cuántica de campos. Por ello, en la segunda cuantización se usan funcionales de onda en lugar de funciones de onda (recuerda que un funcional es una «función» cuyo dominio es un espacio abstracto de funciones). La llamada segunda cuantización de una teoría clásica de campos no es tan directa como la llamada primera cuantización de una teoría clásica de partículas. Por ello se recurre al espacio de Fock, el espacio de funcionales de onda asociadas al número de partículas en cierta región del espaciotiempo.

En segunda cuantización se considera que los estados cuánticos del campo representan partículas sobre un estado de vacío y se utiliza una formulación basada en operadores de creación y aniquilación de partículas que actúan sobre el estado de vacío, o en general sobre un estado con cierto número de partículas. Estos operadores de creación y aniquilación de partículas cambian el número de partículas asociadas al campo en cierta región del espaciotiempo. Los estados del campo se llaman estados coherentes, que corresponden a cierto número de partículas, siendo diferentes a los autoestados del hamiltoniano, a los estados con energía y momento bien definidos. El principio de correspondencia de Bohr no se aplica en la segunda cuantización de forma directa, ya que cuantizar un sistema clásico no es lo mismo que cuantizar un sistema ya cuantizado (de ahí el nombre de segunda cuantización, como una cuantización de la primera cuantización).

La teoría de la decoherencia aplicada en el contexto de la segunda cuantización nos permite intuir la existencia de campos clásicos como un límite de los campos cuánticos, pero no al revés. Y lo más importante para lo que discuto en esta serie de podcasts, la teoría de la decoherencia nos permite entender la primera cuantización como un cierto límite de la segunda cuantización. La realidad está hecha de campos cuánticos y la idea de una teoría cuántica de partículas (la primera cuantización) es resultado de una interpretación de los campos cuánticos usando la intuición clásica. Los funcionales de onda que describen los campos cuánticos no deben ser imaginados como la versión cuantizada de las funciones de onda de la primera cuantización. Más bien al contrario, las funciones de onda son ciertos límites «clásicos» de los funcionales de onda que describen los campos cuánticos.

Dibujo20140127 Understanding and Withstanding Qubit Decoherence in Interacting Spin Baths

La interpretación de la realidad como hecha de campos cuánticos requiere un esfuerzo conceptual importante, pero es necesario. Zeh y muchos otros físicos en las últimas décadas están generando un poso que acabará cuajando en una nueva visión de la realidad cuántica del universo, en la que la decoherencia sustituye al principio de correspondencia a todos los niveles y en todos los contextos. Recomiendo consultar otros artículos de Zeh sobre este asunto.



9 Comentarios

  1. Cristóbal, la luz se comporta de forma clásica cuando la intensidad (es decir, el número de fotones) es grande. Recuerda que un fotón siempre se mueve en el vacío ya que en un cristal es reabsorbido y reemitido, luego no se trata de un solo fotón.

  2. ¡Gracias por escuchar a Antonio, Francis! Una joyita de artículo. Desmitificar la mecánica cuántica no es fácil.

    Por lo pronto, yo me perdí aquí: «De hecho, no tiene ningún sentido LOCALIZAR una partícula en un punto del espaciotiempo en teoría cuántica de campos.»

    En esta otra entrada tuya (https://francis.naukas.com/2013/12/02/francis-en-trendingciencia-la-realidad-esta-hecha-de-campos-de-particulas) dices lo siguiente:

    «Todos los electrones que observamos en el universo son excitaciones LOCALIZADAS de dicho campo (el campo del electrón). Por ello todos son exactamente idénticos e indistinguibles entre sí.»

    Entiendo lo segundo pero no lo primero, y parecen contradecirse. ¿Una ayudita para este lego (que «no tiene pelo», dijera Wheeler)? 🙂

      1. Oh, ahora caigo. Te refieres a «localización» en términos de «zonas de probabilidad». En suma, te refieres a la incertidumbre de Heisenberg. Gracias, quedó clarísimo (eso creo).

  3. «No existe la primera cuantización»
    El titulo no hace sentido. Puro marketing.
    2= segunda cuantizacion,
    1= primera quantizacion
    Si 2 implica 1, que quiere decir que 1 no existe? Es lo mismo que decir que 1 es falso? Pero si 1 es falso, entonces 2 es falso. Pero 2 es cierto.

    1. Demasiada lógica Gödel termina siendo absurda. Si te molestas en LEER el artículo verás que ambas cuantizaciones son ciertas, sólo que la segunda es más general y por ende contiene a la primera.

Deja un comentario