La interacción entre luz y sonido en un nanohilo de silicio

Por Francisco R. Villatoro, el 21 julio, 2014. Categoría(s): Ciencia • Física • Mecánica • Noticias • Óptica • Physics • Science ✎ 7

Dibujo20140721 silicon wire on a pillar as an acoustic phonon cavity - arxiv

Estudiar la interacción entre luz (fotones) y sonido (fonones) requiere un dispositivo fotónico que actúe como fonónico, o viceversa. La nanotecnología permite fabricarlo usando nanohilos suspendidos sobre un nanopilar que permita sus vibraciones nanomecánicas. Por primera se ha logrado fabricar dicho dispositivo usando nanohilos fotónicos de silicio, que confinan luz infrarroja (1550 nm), cuyas vibraciones son hipersonidos de casi 10 GHz (gigahercios).

La fusión de dos campos, fotónica y fonónica en este caso, permite gran número de aplicaciones más allá de las obvias en optomecánica, como sáseres (láseres de sonidos que emiten fonones) controlados por láseres. El artículo técnico es Raphael Van Laer et al., «Interaction between light and highly confined hypersound in a silicon photonic nanowire,» arXiv:1407.4977 [physics.optics], 18 Jul 2014. En mi opinión acabará publicado en alguna revista de primer nivel, como Nature o Science.

Dibujo20140721 characterization backward brillouin scattering - arxiv

El estudio de la interacción entre la luz y el sonido nació con los estudios de difracción de Leon Brillouin en la década de los 1920, la llamada ahora dispersión de Brillouin estimulada (SBS por Stimulated Brillouin Scattering). Este efecto produce sonidos estimulados por luz; a nivel cuántico, se bombea con fotones un material no lineal adecuado en el que se crean fonones acústicos y se reflejan fotones de Stokes cuya frecuencia está desplazada al rojo. Este mecanismo permite crear fonones coherentes, es decir, sonido coherente similar a la luz coherente que emite un láser.

Los sistemas micromecánicos y nanomecánicos que actúan como guías ópticas permiten estudiar muchas otras interacciones entre luz y sonido. El problema de las guías ópticas de silicio es que tienen que estar sobre un sustrato de dióxido de silicio que actúa como un amortiguador para las vibraciones sonoras por sus propiedades elásticas. Para evitarlo hay que reducir al máximo la región de contacto entre el silicio y el dióxido de silicio.

Por ello en el nuevo trabajo se ha utilizado un nanopilar de dióxido de silicio de sólo 15 nm de grosor en la zona de contacto con el nanohilo de silicio de 450 nm de anchura y 230 nm de altura. La fabricación de este dispositivo (mostrado en la figura que abre esta entrada) es todo un alarde técnico. El nanohilo actúa como una cavidad para confinar los fotones en su dirección longitudinal y los fonones en su dirección transversal. El confinamiento simultáneo de fotones y fonones permite incrementar su acoplo mutuo mediante el efecto SBS en más de un orden de magnitud.

Dibujo20140721 xperimental characterization of the photon-phonon coupling - arxiv

En el experimento se acoplan la luz de un láser a 1550 nm y las vibraciones mecánicas a 9,2 GHz. La interacción fotón-fonón se observa de dos modos diferentes. Por un lado, gracias a las ondas de Stokes del efecto SBS que muestran una resonancia de tipo Lorentz (parte de arriba de la figura). Y por otro lado, a través de la modulación de fase cruzada (XPM por cross-phase modulation) que muestra un perfil de Fano asimétrico debido a la interacción de la SBS y el efecto Kerr en la guía óptica (parte de abajo de la figura).

Dibujo20140721 quality factor and intrinsic photon-phonon coupling - experiment vs theory - arxiv

Sin entrar en detalles técnicos, ambas observaciones confirman las predicciones teóricas (obtenidas mediante el método de elementos finitos en el simulador COMSOL para Matlab) para la interacción entre la luz y el sonido en este sistema optonanomecánico. La mayor limitación de este trabajo es la corta duración de los fonones (5,3 nanosegundos) confinados en el nanohilo de silicio. Incrementar esta duración debe ser la prioridad de futuros trabajos en esta línea si se pretende llegar a aplicaciones prácticas comerciales.

En resumen, un trabajo muy interesante que nos recuerda que luz y sonido pueden interaccionar mucho más de lo que habitualmente se piensa.



7 Comentarios

  1. Hola.
    En el sexto párrafo, donde dices «interacción fotón-fotón», ¿es correcto, o tendría que decir interacción fotón-fonón?
    Esta técnica es interesante porque supera al cerebro en un detalle. El cerebro permite ver fotones y fonones a la vez sin necesidad de su interacción, mediante su codificación en códigos compatibles (basados en descargas neuronales que no conservan las frecuencias originales de fotones y fonones), es decir, mediante su representación en otra cosa (en otras frecuencias más lentas, las de las descargas neuronales, que no pueden ser tan altas como las de los fotones), de modo que en el cerebro son los códigos representativos (que abstraen a fotones y fonones) los que interactúan para que emerjan los objetos mentales que constituyen nuestra percepción consciente de las cosas.
    Este mecanismo de interacción descrito me parece asombroso por tanto (aunque lo que ya me dejaría de piedra es que en vez de obtener fonones de fotones obtuviesen fotones de fonones, dado lo poco probable que parece a priori, ¿no?).

    1. Espoc dice: «El cerebro permite ver fotones y fonones…» No tiene sentido lo que dices. Supongo que abusas del lenguaje y quieres decir que el cerebro es capaz de interpretar imágenes y sonidos.

      Espoc dice: «Me dejaría de piedra es que en vez de obtener fonones de fotones obtuviesen fotones de fonones.» ¿Por qué te dejaría de piedra? Por supuesto que es posible, ninguna ley física lo impide. Los fonones pueden inducir la producción de fotones y de excitones en cavidades ópticas resonantes (se ha demostrado experimentalmente con puntos cuánticos).

      Salvo en procesos que violen la simetría de inversión temporal, si puede ocurrir que A produzca B, también puede ocurrir que B produzca A. Siempre.

  2. Hola.
    Gracias por la información sobre interacción entre fotones y por el resto de respuestas.

    Sí, he abusado del lenguaje, como dices. Como en el artículo se habla de interacción entre fotones y fonones me he expresado de un modo similar, pero se sobreentiende lo que dices.

    De todos modos, ver luz y sonido no sería exactamente interpretar luz y sonido. La interpretación se conoce en fisiología como parte del proceso de percepción, no de visión. La visión sería un estadio previo del proceso, sería parte de la fase de sensación, en la que la información sensorial es procesada en la vía visual. Posteriormente, al alcanzar el proceso la corteza de asociación empezaría la fase de interpretación (por ejemplo, el reconocimiento de caras) y ahí tendría ya lugar la fase de percepción, es decir, de interpretación de lo que se estaba viendo hasta entonces. Durante la fase de percepción además, se hace patente «para el yo consciente» dicha información, es decir, como sujetos conscientes, únicos e individuales, nosotros sólo somos conscientes de lo que vemos cuando lo percibimos, al final del proceso por tanto (al cabo de varios milisegundos desde que ha empezado el proceso), sólo en esa fase la conciencia adopta la forma de un yo (que percibe), esto quiere decir qe como yoes conscientes podemos ser conscientes de una bola roja que se mueve sobre una mesa de billar, pero no de manera aislada de la rojez (por ejempl) de dicha bola sin el resto de sus partes (forma, brillo, movimiento, sonido, etc.). Pues bien, lo que tiene de prodigioso el cerebro es que, por conveniencia evolutiva (dado que la percepción, por ejemplo, de un peligro inminente, es crucial para la supervivencia) ha sido capaz de aprovechar información sonora (mecánica clásica) a la vez que información lumínica (mecánica cuántica), información de dos fuentes en dos escalas de la realidad incompatibles. Y por eso este experimento me parece tan interesante, porque, como el cerebro, compatibiliza con algún éxito (ya que sólo puede hacerse con hipersonidos) dos fenómenos de dos escalas, en general, incompatibles (salvo excepciones como estas, claro). El cerebro lo consigue representando cada frecuencia, las de la luz y las de los sonidos, con nuevas frecuencias, las de las descargas neuronales. Como en el cerebro todo son neuronas, y están conectadas entre sí, las frecuencias que representan a la luz y al sonido pueden ser utlizadas a la vez, y así percibir a la vez la imagen y el sonido de un mismo objeto y tener una percepción más precisa de la realidad que nos interesa por conveniencia evolutiva (la que es efectiva a simple vista, a nuestra escala macroscópica confinada).

    Digo que me dejaría de piedra porque si el dispositivo emitiese luz visible a partir de fonones, como una bombilla, pues se habría fabricado entonces una bombilla de hipersonido, y me deja de piedra porque me parece algo original y para mí imprevisto (lo cual no me sorprende, ya que soy un ignorante en lo que a hipersonido se refiere). Para mí esto es nuevo (con lo cual, estás teniendo éxito en tu labor como divulgador, por cierto). Conozco las bombillas fabricadas con filamentos incandescentes al paso de electricidad, pero, ¿al paso de sonido, aunque sea hipersonido? Ni se me había pasado por la cabeza. Que emita calor (fotones infrarrojos), no me dejaría de piedra, porque entendería que el nanohilo se calentase con sus vibraciones mecánicas, para esto no hace falta mucha energía, por eso distinguía más arriba entre ambos tipos de fotones, pero, ¿luz visible? ¿Es posible? ¿De verdad que han conseguido fabricar una bombilla alimenada con hipersonido? A mí me parecería algo sorprendente si fuera así porque, sin ser especialista en ese asunto en absoluto, a simple vista, como mero ignorante que entra a preguntar, no podía imaginar que el hipersonido fuese tan energético como los electrones. Estoy preguntando con toda la inocencia del mundo, abusando de tu paciencia.

  3. Releyendo lo que acabo de escribir no estoy seguro de que quede totalmente claro que lo que quería era distinguir entre sensación y percepción. Me parece que he liado la cosa. Evidentemente la percepción forma parte de la visión, obviamente. Lo que quería hacer es decir que cuando interpretamos lo que vemos, cuando percibimos, ahí se hacen patentes a la vez luz y sonido, por ejemplo, como si hubiese una (abusando del lenguaje) interacción entre luz y sonido dentro de nuestras cabezas, como en el nanohilo. No hay interacción entre luz y sonido en nuestras cabezas, sino entre objetos mentales compatibles (porque pueden ser patentes a la vez) que representan a ambos con un mismo lenguaje (descargas neuronales).

Deja un comentario