Ya sabes que puedes obtener hojas de grafeno por exfoliación mecánica con una cinta adhesiva (Scotch) aplicada sobre la mina de grafito de un lápiz. Se ha publicado en Advanced Materials un curioso método de fabricación de grafeno: «Nevadas» de grafeno producidas por tormentas de «rayos» en una atmósfera de metano dentro de un horno de microondas casero. Las descargas de corona se producen en un tubo de sílice (SiO2/Si) calentado a 700 ºC. Los enlaces del metano gaseoso se rompen produciendo carbono que se conforma como nanoláminas de grafeno (CH4 → CH → C2 → G) y que caen como los «copos de nieve» depositándose sobre una superficie.

Este método barato para fabricar grafeno en fase gaseosa me resulta muy poético. Por supuesto, no es el método ideal para fabricar monocapas de alta calidad, pero al menos permite diseñar ciertos dispositivos prácticos. El artículo es Yangyong Sun, Liangwei Yang, …, Jin Zhang, ““Snowing” Graphene using Microwave Ovens,” Advanced Materials 2018: 1803189 (21 Aug 2018), doi: 10.1002/adma.201803189; me he enterado gracias a “How to make graphene ‘snow’ in a microwave,” Nature, 30 Aug 2018.

Leer más

Medir la constante de gravitación universal de Newton es muy difícil; por ello su valor es uno de los más imprecisos de todas las constantes fundamentales. Científicos chinos han publicado en Nature las dos medidas más precisas hasta ahora, usando sendos péndulos de torsión. Los valores obtenidos son G = 6.674 184(12) × 10−11 m³/kg/s², y G = 6.674 484(12) × 10−11 m³/kg/s². Difieren entre sí a casi 4 sigmas, pero son compatibles a menos de dos sigmas con el valor CODATA 2014 de G = 6.674 08(31) × 10−11 m³/kg/s². No se conoce la razón de la discrepancia, que podría ocultar nueva física; pero lo más razonable es que la causa sean efectos sistemáticos no entendidos en alguno de los dos experimentos. Futuros estudios tendrán que clarificar esta cuestión.

El artículo es Qing Li, Chao Xue, …, Jun Luo, “Measurements of the gravitational constant using two independent methods,” Nature 560: 582–588 (29 Aug 2018), doi: 10.1038/s41586-018-0431-5; más información divulgativa en Stephan Schlamminger, “Gravity measured with record precision,” Nature 560: 562-563 (29 Aug 2018), doi: 10.1038/d41586-018-06028-6. En este blog también puedes leer “La medida más precisa del valor de la constante de la gravitación universal”, LCMF, 24 Ago 2010, y “Nueva medida de la constante de gravitación universal usando átomos fríos”, LCMF, 18 Jun 2014.

Leer más

Roger Penrose popularizó su cosmología cíclica conforme (CCC) de 2005 en su libro de divulgación “Ciclos del tiempo”, Debate (2010). Predice parejas de círculos concéntricos de menos de 2º de radio en el fondo cósmico de microondas (CMB) llamados puntos de Hawking. Desde 2008 se han observado estos patrones, pero eran de mayor tamaño del esperado. En su último artículo se observan unas decenas con el tamaño esperado. ¿Confirman el modelo CCC? No, pues para los cosmólogos expertos en el análisis de los mapas del CMB de las colaboraciones WMAP y Planck se trata de simples pareidolias. Ellos no las observan, así que deben ser producto de un sesgo de confirmación.

En varios medios se han hecho eco de este trabajo (como suele ser habitual con todos los de Penrose). Se afirma a la ligera que los puntos de Hawking son señales de física anterior al big bang. Sin embargo, esta afirmación es pura especulación salvaje. El modelo CCC de Penrose no tiene una formulación teórica precisa que permita realizar predicciones firmes. Solo es un conjunto difuso de ideas, posibles soluciones a posibles problemas, sin que haya modelos matemáticos precisos que las sustenten. Por ello, aunque admiremos con pasión a uno de los grandes físico-matemáticos de los últimos 60 años, debemos ser muy escépticos sobre estas ideas. Lo siento, pero aún somos incapaces de observar señales anteriores a la inflación cósmica.

El nuevo artículo es Daniel An, Krzysztof A. Meissner, Roger Penrose, “Apparent evidence for Hawking points in the CMB Sky,” arXiv:1808.01740 [astro-ph.CO]. Más información divulgativa en Chelsea Whyte, “A glimpse of a previous universe,” New Scientist 239: 4 (18 Aug 2018), doi: 10.1016/S0262-4079(18)31451-9; James Tagg, “Hawking Points in the Cosmic Microwave Background,” PRNewswire, 16 Aug 2018; Sabine Hossenfelder, “Roger Penrose still looks for evidence of universal rebirth,” Backreaction, 21 Aug 2018; entre otros.

Leer más

La transparencia en la investigación científica es clave para la reproducibilidad; un punto clave es la publicación de los software de simulación usados. Buen ejemplo es la polémica desde 2011 entre David Chandler (Univ. California, Berkeley) y Pablo Debenedetti (Univ. Princeton) sobre el segundo punto crítico del agua. Sus grupos de investigación publicaron resultados contradictorios sobre el agua sobreenfriada usando el mismo modelo teórico (ST2). La enconada disputa finalizó en 2018 tras ceder Chandler su código a Debenedetti; resulta que contenía un error. Resuelto el error los resultados coinciden, como cabe esperar (por desgracia, Chandler falleció antes de dar su brazo a torcer).

Las simulaciones del agua por dinámica molecular son difíciles de realizar. Lo habitual es obtener resultados que discrepen según el modelo teórico usado para las interacciones entre moléculas. Aún así, si se usa el mismo modelo teórico los resultados deberían coincidir. Según las simulaciones del grupo de Debenedetti en Princeton publicadas en 2009 existe un punto crítico en el que conviven dos fases (líquida-sólida); según las simulaciones del grupo de Chandler en Berkeley publicadas en 2011 solo existe una única fase (líquida-líquida). Chandler era más prestigioso, así que gran parte de la comunidad se decantó por su resultado.

En 2013 Debenedetti hizo público su propio código y solicitó a Chandler que también lo hiciera, o que al menos le enviara el suyo. Chandler hizo oído sordos a la petición. Pero en 2016 Chandler publicó en Nature una crítica a las simulaciones de Debenedetti, quien aprovechó la oportunidad. Solicitó la mediación de los editores de Nature lo que “obligó” a Chandler a enviarle copia de su código en 2017. Gracias a ello se ha desvelado que el código de Montecarlo de Chandler es más eficiente porque usa una inicialización “secreta” (no documentada en su artículo científico). El grupo de Debenedetti ha demostrado que este “secreto” sesga la simulación y sube la temperatura efectiva de las moléculas, falseando el resultado final. Si se elimina este error resulta que ambos códigos coinciden en sus resultados.

La excusa de Chandler es que tenía recursos ni tiempo para “poner bonito” su código antes de publicarlo; por desgracia, ocultaba un “secreto” no documentado que penalizaba la reproducibilidad y la transparencia que requiere el avance de la ciencia. La publicación de los códigos de simulación debería ser lo habitual. Te recomiendo disfrutar de esta polémica en detalle en Ashley G. Smart, “The war over supercooled water. How a hidden coding error fueled a seven-year dispute between two of condensed matter’s top theorists,” Physics Today (22 Aug 2018), doi: 10.1063/PT.6.1.20180822a. El artículo clave para su solución fue D. Chandler, “Metastability and no criticality,” Nature 531: E1–E2 (2016), doi: 10.1038/nature16539]; el error se ha publicado Jeremy C. Palmer, Amir Haji-Akbari, …, Pablo G. Debenedetti, “Comment on “The putative liquid-liquid transition is a liquid-solid transition in atomistic models of water” [I and II: J. Chem. Phys. 135, 134503 (2011); J. Chem. Phys. 138, 214504 (2013)],” The Journal of Chemical Physics 148: 137101 (2018), doi: 10.1063/1.5029463].

Leer más

Cumrun Vafa ya es el nuevo gurú de la teoría de cuerdas; sustituye a su director de tesis doctoral, Edward Witten. Padre de la idea del swampland, que extiende el landscape, lidera la búsqueda de una extensa red de conjeturas que diferencian ambos espacios de soluciones de la teoría. Varias apuntan a que nuestro espaciotiempo de tipo de Sitter (dS), con constante cosmológica positiva, se encuentra en el swampland; en el landscape solo hay soluciones con un espaciotiempo de tipo anti-de Sitter (AdS), con constante cosmológica negativa, o de tipo Minkowski, sin constante cosmológica. Para describir la energía oscura Vafa propone buscar modelos de quintaesencia en el landscape; así como explorar con nuevos ojos el swampland hasta encontrar islas de landscape aisladas que esquiven las conjeturas más restrictivas.

Toda revolución se inicia con una crisis. Quizás se acerca la tercera revolución de la teoría de cuerdas —que nació hace 50 años. Muchos medios han polemizado con las ideas de Vafa, ofreciendo titulares capciosos. “La energía oscura podría ser incompatible con la teoría de cuerdas”, leemos en el popular Quanta Magazine; a pesar de curarse en salud con un “podría ser”, estos titulares confunden a muchos legos. Otros sacan saña de los debates entre expertos sobre este asunto, como el que protagonizó Arthur Hebecker contra Thomas Van Riet y Vafa en un workshop estival en el Centro Simons (Univ. Stony Brook, New York); Hebecker comentó que estas ideas son «muy peligrosas» para los teóricos de cuerdas porque en Europa podrían conducir a desconfianza y recortes en la financiación. Pero esta ola de pesimismo podría ser la antesala de un renovado optimismo.

Las conjeturas que caracterizan la diferencia entre el swamplad y el landscape tienen su lado positivo. El español Luis Ibáñez y sus colaboradores las están usando para realizar predicciones genéricas sobre la fenomenología de la teoría de cuerdas a baja energía. Una línea muy prometedora de la que tendremos un buen resumen el próximo mes en Madrid, durante el workshop “Vistas over the Swampland”, IFT UAM-CSIC, 19-21 Sep 2018. Allí volverán a coincidir Vafa, Van Riet y Hebecker, pero seguro que disfrutaremos de una visión mucho más optimista liderada por Ibáñez.

Los artículos de Vafa origen de todo este revuelo son Prateek Agrawal, Georges Obied, …, Cumrun Vafa, “On the Cosmological Implications of the String Swampland,” arXiv:1806.09718 [hep-th] (ya citado 24 veces), y Georges Obied, Hirosi Ooguri, …, Cumrun Vafa, “De Sitter Space and the Swampland,” arXiv:1806.08362 [hep-th] (ya citado 28 veces); así como Ulf H. Danielsson, Thomas Van Riet, “What if string theory has no de Sitter vacua?” arXiv:1804.01120 [hep-th] (ya citado 22 veces).

En la línea optimista liderada por Ibáñez recomiendo el vídeo de su charla “Particle Physics Constraints from WGC,” 2018 Simons Summer Workshop, 08 Aug 2018 [video], y sus artículos Luis E. Ibanez, Victor Martin-Lozano, Irene Valenzuela, “Constraining Neutrino Masses, the Cosmological Constant and BSM Physics from the Weak Gravity Conjecture,” Journal of High Energy Physics 2017: 66 (Nov 2017), doi: 10.1007/JHEP11(2017)066, arXiv:1706.05392 [hep-th], y Eduardo Gonzalo, Luis E. Ibáñez, “The Fundamental Need for a SM Higgs and the Weak Gravity Conjecture,” arXiv:1806.09647 [hep-th], entre otros.

En medios y blogs se ha generado mucho eco: Clara Moskowitz, “String Theory May Create Far Fewer Universes Than Thought,” Scientific American, 30 Jul 2018; Natalie Wolchover, “Dark Energy May Be Incompatible With String Theory,” Quanta Magazine, o9 Aug 2018; Peter Woit, “Theorists with a Swamp, not a Theory,” NEW, 13 Aug 2018, “On Status of KKLT,” NEW, 16 Aug 2018; Luboš Motl, “Vafa, quintessence vs Gross, Silverstein,” TRF, 27 Jun 2018, “Quintessence is a form of dark energy,” TRF, 10 Aug 2018, “Deep thinkers build conjectures upon conjectures upon 5+ more floors,” TRF, 15 Aug 2018; entre otros.

[PS 29 Aug 2018] Un buen libro que discute la situación actual de la fenomenología y la cosmología en teoría de cuerdas, incluyendo los problemas asociados al modelo KKLT y el universo dS en el último capítulo, es Mariana Graña, Hagen Triendl, “String Theory Compactifications,” Springer (2017) [74 pp.]. [/PS]

Leer más

D-Wave 2000Q™ es un ordenador cuántico analógico de propósito específico con 2048 cúbits de tecnología superconductora. Permite simular sistemas cuánticos que se puedan mapear en un grafo de tipo quimera. Gracias a ello D-Wave publicó en julio en Science la simulación de una transición de fase en un vidrio de espines de 8×8×8 (512) cúbits y ahora en agosto en Nature la simulación de la transición de fase topológica de Kosterlitz–Thouless en un sistema de 1800 cúbits. En ambos casos la calidad de la simulación mediante recocido cuántico ha sido verificada con simulaciones con el método de Montecarlo mediante ordenadores (clásicos). Un gran éxito de D-Wave Systems, pero todavía muy lejos de una demostración de la supremacía cuántica.

Los artículos son R. Harris, Y. Sato, …, J. Yao, “Phase transitions in a programmable quantum spin glass simulator,” Science 361: 162-165 (13 Jul 2018), doi: 10.1126/science.aat2025, y Andrew D. King, Juan Carrasquilla, …, Mohammad H. Amin, “Observation of topological phenomena in a programmable lattice of 1,800 qubits,” Nature 560: 456–460 (22 Aug 2018), doi: 10.1038/s41586-018-0410-x, arXiv:1803.02047 [quant-ph] [EPDF]; más información en Matthias Troyer, “Topological phenomena explored in a programmable quantum simulation,” Nature 560: 438-439 (22 Aug 2018), doi: 10.1038/d41586-018-05979-0.

Leer más

El oro y la plata son muy buenos conductores, pero no son superconductores (por su débil acoplamiento electrón-fonón, según la teoría BCS); los experimentos descartan una temperatura crítica por encima de un milikelvin. Dos físicoquímicos indios, Thapa y Pandey, del Indian Institute of Science, Bangalore, afirman haber observado la superconductividad en condiciones ambientales, a temperatura > 320 K (46.85º C) y presión ~ 1 atm, en nanopelículas de 25 nm de grosor de nanobolas (20-30 nm) de oro con nanopartículas (~1 nm) de plata incrustadas. El artículo está bajo revisión por pares en una revista (¿Nature?); para asegurarse la prioridad han publicado en arXiv un manuscrito con los resultados hasta una temperatura de 236 K (−37.15 ºC); más aún, han solicitado una patente. Si se confirma el hito será el inicio de una revolución; por desgracia, hay serias dudas sobre sus resultados.

La superconductividad en condiciones ambientales es el santo grial de la física de la materia condensada; no se conoce ninguna ley física que la prohíba, pero el récord actual a 1 atm lo ostenta un cuprato a 138 K (−135 °C). En las últimas décadas ha habido muchas falsas alarmas. Por ello han surgido varias voces críticas al trabajo de Thapa y Pandey, que es demasiado bueno para ser cierto. La más dura la ofrece el físico Brian Skinner (MIT), quien ha observado que a baja temperatura el ruido en la susceptibilidad magnética es mucho mayor que a alta temperatura; más aún, este ruido está correlacionado entre las diferentes muestras (cuando debería ser estadísticamente independiente). El mayor fraude científico de la física moderna fue detectado gracias a este tipo de correlaciones en el ruido de fondo (“El escandaloso fraude científico de Jan Hendrik Schön,” LCMF, 09 Dic 2017).

Skinner ha contactado con los autores por e-mail para preguntarles al respecto. Le agradecen haber detectado la correlación del ruido, que afirman que no habían notado, pero desconocen su fuente. Según parece están estudiando el asunto. Pratap Raychaudhuri (Tata Institute, Mumbai), experto en superconductividad y magnetismo, tiene una explicación (pero poco convincente) para la correlación del “ruido”; en realidad no sería ruido per se, sino una señal de un efecto de tipo memoria magnética en la muestra cuyas nanobolas . La única manera de confirmarlo es repetir las medidas, pero Thapa y Pandey no han cedido sus muestras para estudios independientes.

Sin lugar a dudas estamos ante el avance científico más polémico del año. Hay constancia de que varios laboratorios de investigación (p. ej. colegas de Skinner en el MIT) han postergado su trabajo actual para ponerse a estudiar de forma intensa las nanopartículas de plata incrustadas en oro. En los próximos meses conoceremos sus resultados. El artículo en liza es Dev Kumar Thapa, Anshu Pandey (GS), “Evidence for Superconductivity at Ambient Temperature and Pressure in Nanostructures,” arXiv:1807.08572 [cond-mat.supr-con]. La crítica más fuerte es Brian Skinner, “Repeated noise pattern in the data of arXiv:1807.08572, “Evidence for Superconductivity at Ambient Temperature and Pressure in Nanostructures,” arXiv:1808.02929 [cond-mat.supr-con]; le sigue Deepak K. Singh, “Short commentary on comparing previous claim of RT superconductivity with the data of arXiv:1807.08572, “Evidence for Superconductivity at Ambient Temperature and Pressure in Nanostructures”,” arXiv:1808.04912 [cond-mat.str-el]; y V. P. S. Awana, “Short Note on Superconductivity at Ambient Temperature and Pressure in Silver Embedded Gold Nano-particles: A Goldsmith job ahead,” arXiv:1808.01797 [cond-mat.supr-con]. Por cierto, también se ha publicado una posible explicación teórica en Ganapathy Baskaran, “Theory of Confined High Tc Superconductivity in Monovalent Metals,” arXiv:1808.02005 [cond-mat.supr-con].

Recomiendo el exitoso hilo de Twitter de Skinner. En medios se han hecho eco, entre otros, R. Ramachandran, “Did IISc team just make the ‘greatest Indian discovery after Raman effect’?” The Wire, 07 Aug 2018; Daniel Oberhaus, “Either This Data is Incorrect or These Physicists Just Changed the World,” Motherboard, 16 Aug 2018; Vimal Simha, “Hastening to Judge?” Research Matters, 16 Aug 2018; la nota de prensa del IISc afirma que Pandey ha solicitado una patente, Sandhya Ramesh, “Calling Baker Street! IISc duo’s ‘power breakthrough’ has kicked up a Sherlockian mystery,” IISc, 17 Aug 2018; Shannon Hall, “A Superconductor Scandal? Scientists Question a Nobel Prize–Worthy Claim,” Scientific American, 20 Aug 2018; etc.

[PS 27 Ago 2018] Recomiendo leer a Daniel Pérez, “Encuentran superconductividad a temperatura ambiente. Lo que sucede a continuación te sorprenderá,” Mientras en Físicas, 20 Ago 2018; Davide Castelvecchi, “Physicists doubt bold superconductivity claim following social-media storm,” Nature 23 Aug 2018, doi: 10.1038/d41586-018-06023-x [/PS].

[PS 31 Ago 2018] La correlación en el ruido podría ser producto de un fenómeno de percolación, según David Pekker, Jeremy Levy, “A comment on percolation and signatures of superconductivity in Au/Ag nanostructures,” arXiv:1808.05871 [cond-mat.supr-con]. [/PS]

Leer más

La física de los neutrinos permite buscar posibles desviaciones de la simetría de Lorentz (relatividad especial de Einstein) en extensiones del modelo estándar. El experimento EXO-200 las buscó en la desintegración nuclear beta doble [LCMF, 29 Ene 2016]. Ahora IceCube las busca usando la oscilación de neutrinos muónicos producidos por rayos cósmicos en la atmósfera que atraviesan toda la Tierra antes de ser detectados. Las desviaciones de la simetría de Lorentz implican una diferencia entre la velocidad de las funciones de onda asociadas a los estados masivos del neutrino, que produce una interferencia destructiva que afecta a su oscilación. IceCube ha buscado dicha interferencia y no la ha encontrado; gracias a ello obtiene nuevos límites para la amplitud de dicha anomalía en el modelo estándar extendido (SME).

El modelo estándar de la física de partículas es invariante Lorentz (invariante CPT). Sin embargo, se puede extender con nuevas interacciones (fuertemente suprimidas) que incumplan dicha simetría, aunque preserven otras (como la conservación del tensor de energía-momento). La teoría efectiva que las describe se puede construir de forma sistemática, siendo desarrollada por el físico V. Alan Kostelecký (Universidad de Indiana, EE UU) en 1989; por cierto, se inspiró en una posible rotura espontánea de la simetría Lorentz en la teoría de cuerdas. IceCube ha acotado varios términos de dicha teoría efectiva, destacando la nueva cota para el operador de dimensión cuatro, cuya amplitud resulta menor de 10−28 (en unidades adimensionales), que equivale a la medida más precisa de la diferencia entre dos velocidades. Así, IceCube nos ofrece uno de los tests más precisos hasta ahora de las posibles violaciones de la simetría Lorentz en la Naturaleza.

El artículo es The IceCube Collaboration, “Neutrino interferometry for high-precision tests of Lorentz symmetry with IceCube,” Nature Physics (2018), doi: DOI: 10.1038/s41567-018-0172-2, arXiv:1709.03434 [hep-ex]. Más información divulgativa en Matthew Mewes, “Special relativity validated by neutrinos,” News & Views, Nature 560: 316-317 (13 Aug 2018), doi: 10.1038/d41586-018-05931-2. El modelo SME fue introducido en V. Alan Kostelecký and Stuart Samuel, “Spontaneous breaking of Lorentz symmetry in string theory,” Phys. Rev. D 39: 683 (1989), DOI: 10.1103/PhysRevD.39.683. Las figuras sobre la oscilación de neutrinos en esta pieza están extraídas del artículo de A. Yu. Smirnov, “Solar neutrinos: Oscillations or No-oscillations?” arXiv:1609.02386 [hep-ph].

Por cierto, los buenos aficionados a la divulgación de la física en español reconocerán a Kostelecký como el director de la tesis doctoral de Jorge S. Díaz, @jsdiaz_, autor del blog Conexión Causal. La investigación de Jorge se ha centrado en la fenomenología de la teoría SME en la física de los neutrinos. Por cuestiones personales abandonó su carrera investigadora y ahora trabaja en la industria (aprendizaje automático, o machine learning).

Leer más

El fraude científico se castiga con la retracción de los artículos publicados. Los editores de las revistas solicitan una investigación, que incluye la opinión del sospechoso, sus colegas y su institución. ¿Qué pasa cuando todos callan porque ya ha fallecido? El osteólogo japonés Yoshihiro Sato se suicidó en enero de 2017. Hay evidencias de que ha publicado 33 artículos fraudulentos y sospechas sobre muchos de sus más de 200 artículos. Solo han sido retractados 21 de los 33. ¿Deberían retractarse los otros 12 artículos a pesar de haber recibido más de 1000 citas?

El fraude de Sato es uno de los mayores de toda la historia de la ciencia. Sus estudios sobre cómo reducir el riesgo de fracturas de hueso se han incluido en muchas revisiones sistemáticas (metaanálisis) que influyen en la práctica clínica de muchos médicos. Hay enfermos sufriendo en sus propias carnes el fraude cometido por Sato. ¿Deberían retractarse todos los artículos de Sato bajo sospecha? Hay cinco japoneses entre los diez científicos con más artículos retractados. Japón contribuye con el 5% de toda la ciencia publicada. ¿Por qué hay tantos científicos fraudulentos en Japón? Según Michiie Sakamoto (Univ. Keio) es una cuestión de respeto. “En Japón nadie duda de un catedrático. Todo el mundo confía en quien ocupa un cargo científico”.

¿Por qué Sato publicó tantos artículos fraudulentos? En Japón la única explicación que se ofrece es que padece(*) otaku (una obsesión compulsiva similar al enganche de los jóvenes por el manga o por los videojuegos). De hecho, Sato era el único científico de su institución, el Hospital Mitate de Tagawa, pequeña ciudad de la isla Kyushu; en los últimos 20 años todos los artículos de este hospital, salvo uno, son de Sato. ¿Cómo es posible que nadie sospechara de sus estudios con miles de pacientes en una pequeña ciudad?

Te recomiendo leer el interesante artículo periodístico de Kai Kupferschmidt, “Tide of lies,” Science 361: 636-641 (17 Aug 2018), doi: 10.1126/science.361.6403.636. El artículo que destapó el fraude (enviado a JAMA en marzo de 2013 y a otras revistas más tarde) se acabó publicando en Mark J. Bolland, Alison Avenell, Greg D. Gamble, Andrew Grey, “Systematic review and statistical analysis of the integrity of 33 randomized controlled trials,” Neurology 87: 2391–2402 (06 Dec 2016), doi: 10.1212/WNL.0000000000003387.

(*) [PS 20 Ago 2018] Me aclara Jesús Quirantes Ros‏, @hijodelprofe, que “no se padece otaku, se es otaku. Otaku (literalmente significa “que no sale de casa”) es el equivalente japonés a “friki”, aunque allí tiene una connotación más negativa”. Gracias, Jesús. [/PS]

Leer más

He participado en el episodio 175 del podcast Coffee Break: Señal y Ruido [iVoox, iTunes], titulado “Sonda Solar Parker; Materia Oscura: Polémica Científica y Luz Intracumular”, 09 Ago 2018. “La tertulia semanal ha repasado las últimas noticias de la actualidad científica”.

Leer más