Dibujo20170121 book cover cuerdas supercuerdas edelstein giribert rba

“¿Qué lugar ocupará la teoría de cuerdas dentro de un siglo? Pocas dudas caben de que en las matemáticas persistirá su importancia e interés, habiéndose garantizado con numerosos resultados en campos como la topología y la geometría un sitio permanente en su bibliografía. En física la respuesta es algo más incierta. [El] escrutinio final en una ciencia natural lo dan los experimentos. Pero es habitual que estos estén guiados por una intuición que sea fruto del ejercicio exhaustivo y riguroso de la razón pura. [Hoy] es imposible predecir si la teoría de cuerdas tendrá el destino del éter o del átomo. Sabrá comprender el lector que alberguemos una tímida y secreta esperanza de que acontezca lo segundo”.

Me ha gustado el libro de los dos físicos teóricos José D. Edelstein y Gastón Giribet, “Cuerdas y supercuerdas. La naturaleza microscópica de las partículas y del espacio-tiempo”, Un paseo por el cosmos, RBA Coleccionables (2016) [159 pp.]. Una presentación rigurosa, sin fórmulas, de dos apasionados por la teoría de cuerdas dirigida a un público general. Las ideas más importantes se sintetizan, sin detalles escabrosos. Sin lugar a dudas uno de los mejores libros de la colección de RBA.

Sus dos autores han investigado en teoría de cuerdas y a Edelstein es un gran divulgador, autor del libro “Antimateria, magia y poesía” junto al chileno Andrés Gomberoff. Ambos están preocupados por transmitir la fascinación por la física, sin banalizarla. Incluso prescindiendo de los detalles se esfuerzan por respetar el núcleo conceptual. Por ello te recomiendo este libro. Confieso que lo leí hace un par de meses, pero al releerlo ahora he disfrutado tanto como la primera vez. ¡Anímate y bucea en sus página!

Leer más

Dibujo20170118 lfdlc ivoox prog 255 podcast

Ya puedes escuchar el podcast iVoox del Programa 255 de La Fábrica de la Ciencia, “Teoría de la formación de la Luna, gluones y otras noticias de la Mula Francis-Naukas con F. Villatoro”, en el que Jorge Onsulve Orellana, @jonsulve, me ha entrevistado. ¡Qué disfrutes del podcast!

Leer más

Dibujo20170118 Experimental set-up and resonances nature ncomms14084 figure1

El experimento BASE (Baryon Antibaryon Symmetry Experiment) compara protones y antiprotones, mientras que ATRAP (Antihydrogen Trap) compara átomos de hidrógeno y de antihidrógeno. Ambos experimentos estudian la invariancia CPT en el CERN. BASE publica la medida más precisa del momento magnético del antiprotón, que coincide en 0,8 partes por millón con el del protón, como predice la invariancia CPT. Nada prohíbe que el universo no sea invariante CPT, por ello se deben seguir buscando posibles violaciones de dicha invariancia, aunque acaben siendo muy pequeñas.

El experimento BASE ha medido un valor de g/2 = 2,7928465(23), que mejora las medidas previas de ATRAP en 2013 en un factor de 6. El valor más precisos medido para el protón es de gp/2 = 2,792847350(9). Ambos valores coinciden dentro de los márgenes de error. Además, el nuevo artículo presenta nuevas cotas superiores para varios parámetros del Modelo Estándar Extendido (SME) de V. Alan Kostelecký (director de la tesis de Jorge S. Diaz, @jsdiaz_, autor del blog Conexión Causal)

El artículo de BASE es H. Nagahama, C. Smorra, …, S. Ulmer, “Sixfold improved single particle measurement of the magnetic moment of the antiproton,” Nature Communications 8: 14084 (18 Jan 2017), doi: 10.1038/ncomms14084; me he enterado gracias a un tuit de CERNtrípetas ‏@CERNtripetas. Más información en Harriet Kim Jarlett, “BASE precisely measures antiproton’s magnetic moment,” CERN News, 18 Jan 2017.

[PS 19 Ene 2017] Me gustaría pedir disculpas porque en la primera versión de este artículo titulé que ATRAP era el responsable de este trabajo (ATRAP realizó dicha medida en 2013). Esta semana estoy bastante liado. Pido disculpas por mis despistes, que no serán pocos.

Leer más

dibujo20170111-moon-formation-multi-impact-theory-nature-ngeo2866

Una vieja hipótesis afirma que el origen de la Luna habrían sido unas decenas de pequeños impactos contra la Tierra primitiva durante unos cien millones de años. Sin embargo, la hipótesis más aceptada afirma que la Luna se formó tras un gran impacto contra la Tierra primitiva. Esta hipótesis explica muchas cosas del sistema Tierra-Luna, pero tiene un grave problema, es muy improbable. Las simulaciones numéricas requieren un ajuste fino de las condiciones iniciales del impacto. Un artículo en Nature Geoscience rescata la vieja hipótesis y muestra que evita este ajuste fino. Luego la navaja de Ockham la prefiere.

Parece una hipótesis más complicada para explicar el origen de la Luna. Pero las simulaciones por ordenador indican que es un escenario más razonable. Tras cada impacto se forma un disco de escombros que acreta dando lugar a un cuerpo pequeño, una subluna. Una vez formada se aleja de la Tierra durante unos cuantos siglos. La primera subluna se alejaría más lentamente que las demás, con lo que las otras acabarían colisionando con ella. En dicho proceso se incrementa su masa y se facilita que se repita más veces. Tras varios impactos pequeños aparecería nuestra enorme Luna y un sistema Tierra-Luna con un momento angular muy similar al actual.

O bien un enorme impacto único en una Tierra muy primitiva que dio lugar a una gran Luna, o bien múltiples pequeños impactos que produjeron sublunas que acretaron hasta formar nuestra Luna. Futuros estudios tendrán que resolver esta cuestión. Recuperan la hipótesis de impacto múltiple Raluca Rufu, Oded Aharonson, Hagai B. Perets, “A multiple-impact origin for the Moon,” Nature Geoscience (09 Jan 2017), doi: 10.1038/ngeo2866. Que yo sepa, fue propuesta por primera vez en A.E. Ringwood, “Flaws in the giant impact hypothesis of lunar origin,” Earth and Planetary Science Letters 95: 208-214 (1989), doi: 10.1016/0012-821X(89)90097-6. El nuevo artículo presenta las simulaciones que la apoyan de forma más firme.

Leer más

dibujo20170109-four-bottom-quarks-held-together-by-the-qcd-strong-force-flip-tanedo-particlebites

El tetraquark de mayor masa está formado por cuatro quarks bottom (o beauty). El quark bottom es el quark de mayor masa que puede formar hadrones, ya que la vida media del quark top es demasiado corta. El tetraquark bb̅bb̅ se desintegra en una pareja de los mesones más bellos, los úpsilon Υ (bb̅). La masa del estado fundamental de este tetraquark se estima en 18,69 ± 0,03 GeV, un valor similar (aunque un poco menor) que la suma de las masas de cuatro quarks bottom (su masa 1S es 4,66 ± 0,04 GeV según el PDG 2016).

Calcular la masa de un tetraquark tipo quarkonio (hadrón formado por quarks del mismo sabor) no es fácil; se usan métodos de Montecarlo y aproximaciones efectivas no relativistas. Este año se han publicado varias estimaciones. Por fortuna sus valores son compatibles entre sí. Más aún, el resultado es menor que el doble de la masa del mesón Υ(1S), que es 9,46030±0,00026 (PDG 2016), es decir, 18,92 GeV. La búsqueda de este tetraquark en el LHC se basa en su desintegración en cuatro leptones con energía total entre 18 y 19 GeV. Este proceso ocurre vía dos mesones úpsilon, Υ(1S)Υ(1S) → ℓ++, siendo la señal más clara la desintegración en cuatro muones.

Una de las sorpresas más agradables del año 2017 sería la observación del tetraquark más bello usando colisiones del LHC Run 2 obtenidas en 2016. El artículo con la estimación de masa es Yang Bai, Sida Lu, James Osborne, “Beauty-full Tetraquarks,” arXiv:1612.00012 [hep-ph]; cálculos similares en Wei Chen, Hua-Xing Chen, …, Shi-Lin Zhu, “Hunting for exotic doubly hidden-charm/bottom tetraquark states,” arXiv:1605.01647 [hep-ph], y Marek Karliner, Jonathan L. Rosner, Shmuel Nussinov, “Production and Decay of (Q Q Qbar Qbar) States,” arXiv:1611.00348 [hep-ph].

Más información divulgativa en Roberto Vega-Morales, “Beauty-full exotic bound states at the LHC,” Particle Bites, 04 Jan 2017.

dibujo20170108-xenon100-best-fit-compared-to-dama-libra-signal-from-standard-dm-halo-arxiv-org-1701-00769

El experimento XENON100, tras 4 años de toma de datos, descarta a 5,7 sigmas que el origen de la modulación anual DAMA/LIBRA sea una partícula de materia oscura (que pueda detectar). El experimento DAMA/LIBRA, que busca materia oscura con un detector de NaI, observó tras 14 años de toma de datos una modulación anual a 9,3 sigmas. Fuera de toda duda, nadie sabe explicar dicha señal. Se han propuesto varias explicaciones sin materia oscura, pero ninguna está aceptada por toda la comunidad. Por desgracia, la mayoría de los experimentos de búsqueda directa de partículas de materia oscura descartan dicha señal.

Habrá que esperar a que ANAIS (Laboratorio Subterráneo de Canfranc, España), también un detector de NaI, observe o descarte la señal DAMA/LIBRA. Junto a otros detectores de NaI, como el australiano SABRE, tratará de desvelar el misterioso origen de la modulación anual. Quizás la materia oscura interacciona con la materia ordinaria de estos detectores de forma más exótica de lo esperado. O quizás DAMA/LIBRA está observando un nuevo fenómeno astrofísico. En ambos casos, no hay que olvidar que lo apasionante de la ciencia es la búsqueda de respuestas.

El nuevo artículo del Run II de XENON100 se ha publicado en The XENON collaboration, “Search for Electronic Recoil Event Rate Modulation with 4 Years of XENON100 Data,” arXiv:1701.00769 [astro-ph.CO] (sobre el análisis del Run I recomiendo “Duro varapalo de XENON100 a la modulación anual de DAMA/LIBRA”, LCMF, 20 Ago 2015). Por cierto, si quieres consultar el análisis de DAMA/LIBRA tras 14 años, lo tienes en R. Bernabei, P. Belli, …, Z.P. Ye, “Final model independent result of DAMA/LIBRA-phase,” Eur. Phys. J. C 73: 2648 (2013), doi: 10.1140/epjc/s10052-013-2648-7, arXiv:1308.5109 [astro-ph.GA].

Para los despistados, más información sobre la modulación DAMA/LIBRA en este blog y sobre XENON100.

Dibujo20151210 Graph Isomorphism in Quasipolynomial Time seminar lecture by Laszlo Babai university chicago

László Babai (Premio Knuth 2015) afirmó en diciembre de 2015 haber demostrado que la complejidad algorítmica del problema del isomorfismo de grafos es cuasipolinómica (LCMF, 11 Dic 2015). El matemático peruano Harald A. Helfgott ha encontrado un error en su cálculo de la complejidad de su nuevo algoritmo. Mejora estimaciones previas, pero no logra superar la barrera subexponencial. [PS 10 Ene 2017] Pero Babai afirma que ha resuelto el problema en su algoritmo, sustituye la llamada a la rutina “Split-or-Johnson” (que causaba el problema) por una modificación. Habrá que estar al tanto de lo que opinan los expertos. Recuerda que la importancia del trabajo de Babai (65 años), es que abre la esperanza a matemáticos jóvenes, que basados en su trabajo, logren avances relevantes sobre el problema P vs NP. El isomorfismo de grafos es un problema NP, que no sabemos si es NP-completo; si estuviera en P sería algo revolucionario [/PS].

Fui pájaro de mal agüero: “Imitando a la NASA, anunció sus logros en rueda de prensa antes de que el artículo científico se publicara. [Espero] que no le pase a Babai lo que le pasó a Andrew Wiles. [No] pienses mal, pero siempre hay que desconfiar de quien anuncia a bombo y platillo una demostración matemática aún sin publicar”. Todavía no se ha publicado el artículo de Helfgott. Pero Babai ha reconocido su error. El algoritmo de Babai para resolver el problema del isomorfismo de grafos tiene como complejidad temporal exp(exp(O(sqrt(log n log log n)))), donde n es el número de vértices.

Babai hizo mal los cálculos. Te recomiendo leer a Harald A. Helfgott, “Graph isomorphism in subexponential time,” The value of the variable, 04 Jan 2017; también al propio László Babai, “Graph Isomorphism update,” Univ. Chicago, 04 Jan 2017. Si quieres más información, te recomiendo “Babai dice que el isomorfismo de grafos es un problema cuasipolinómico”, LCMF, 11 Dic 2015. [PS 10 Ene 2017] László Babai, “Update: quasipolynomial claim restored,” Univ. Chicago, 09 Jan 2017 [/PS].

On January 4 I announced that Harald Helfgott pointed out an error in the analysis of my Graph Isomorphism test. The error invalidated my previous claim of quasipolynomial efficiency. The text of the announcement is appended below.

Recuerda los titulares sobre Babai como Tom Simonite, “Un informático teórico logra “el descubrimiento de la década” en su campo,” MIT Tech. Rev. 17 Nov 2015; Kanijo, “Un avance en la teoría de grafos entusiasma a los matemáticos”, Ciencia Kanija, 24 Nov 2015; Pedro Donaire, “Un nuevo algoritmo que rompe 30 años de estancamiento”, Bitnavegantes, 14 Dic 2015; Pablo Estrada, “Sacudiendo el mundo de los algoritmos”, Bit y Byte, 20 Dic 2015; etc.

dibujo20170107-papers-published-after-rejection-clinical-otolaryngology

Muchas revistas han publicado estudios sobre la vida de los artículos que han rechazado. El resultado indica que la mayoría acaba publicado en otra revista. Muchas veces en revistas de menor índice de impacto, aunque hay contadas excepciones. Muchos científicos quieren amortizar el trabajo dedicado a escribir un artículo publicándolo sea como sea.

Por ejemplo, un reciente estudio de la revista Clinical Otolaryngology sobre 917 manuscritos rechazados entre 2011 y 2013 (entre ellos 18 sin pasar por revisores) ha encontrado que el 55,7% han sido publicados en otras revistas (antes de 2015). El retraso medio en su publicación es de 15,1 meses (con desviación típica de 8,8 meses). De los 511 artículos publicados, solo 41 lo han sido en revistas de mayor impacto. Más aún, 60 se han publicado en revistas que no aparecen en PubMed, pero sí en Google Scholar.

El nuevo artículo es C H Earnshaw, C Edwin, …, S C Leong, “An Analysis of the Fate of 917 Manuscripts Rejected from Clinical Otolaryngology,” Clinical Otolaryngology (29 Dec 2016), doi: 10.1111/coa.12820; me he enterado gracias a “What Happens to Rejected Papers?” Neuroskeptic, 03 Jan 2017.

Por cierto, la mayoría de los expertos en bibliometría recomiendan enviar a otra revista todos los artículos rechazados, incluyendo los cambios sugeridos por los revisores, si los hubiese (por ejemplo, Stephen K. Donovan, “The Importance of Resubmitting Rejected Papers,” Journal of Scholarly Publishing 38: 151-155 (2007), doi: 10.3138/W706-5884-KG84-J282). También lo recomiendan los propios científicos (John P. A. Ioannidis, Athina Tatsioni, Fotini B. Karassa, “Who is afraid of reviewers’ comments? Or, why anything can be published and anything can be cited,” European Journal of Clinical Investigation 40: 285–287 (2010), doi: 10.1111/j.1365-2362.2010.02272.x).

Leer más

dibujo20170106-dc-susceptibility-function-temperature-at-different-magnetic-fields-sciencemag-org-355-6320-52

Para sorpresa de los expertos, el bismuto es superconductor con una temperatura crítica de 0,53 mK a presión ambiente. Siendo un semimetal su superconductividad no se puede explicar con la teoría de Bardeen, Cooper y Schrieffer (BCS). La aproximación adiabática usada en esta teoría no es aplicable al bismuto. Hay extensiones no adiabáticas, pero no aplican bien a los cristales 3D de bismuto. Una gran oportunidad para los físicos teóricos más intrépidos.

La teoría BCS se basa en la formación de pares de Cooper, parejas de electrones cuya atracción mutua mediada por fonones es débil, la hipótesis adiabática. La energía típica de los fonones (energía de Debye ℏωD) debe ser mucho más pequeña que la energía de los electrones (energía de Fermi EF). En el bismuto a baja temperatura (por debajo de 10 mK) ambas energías son comparables, en concreto, EF ≈ 25 meV y ℏωD ≈ 12 meV. Un valor de ℏωD / EF ≈ 0,5 exige usar una extensión no adiabática de la teoría BCS. Ya se han publicado varias, pero fallan en el caso del bismuto por su baja densidad de portadores (n ≈ 3 × 1017 cm–3 a 4,2 K) y la baja masa efectiva de dichos portadores (meff ≈ 10–3 me, donde me es la masa del electrón libre). Un terreno abonado para los teóricos.

El artículo es Om Prakash, Anil Kumar, …, S. Ramakrishnan, “Evidence for bulk superconductivity in pure bismuth single crystals at ambient pressure,” Science 355: 52-55 (06 Jan 2017), doi: 10.1126/science.aaf8227; más información divulgativa en Kamran Behnia, “The fragility of distant Cooper pairs,” Science 355: 26-27 (06 Jan 2017), doi: 10.1126/science.aal2516.

Leer más

Muchos científicos alemanes han recibido un desagradable regalo de año nuevo. Ya no tienen acceso institucional a los nuevos artículos de las revistas de la editorial Elsevier, como Cell o Lancet. El consorcio DEAL de instituciones alemanas que negocia con la editorial desde agosto no ha llegado a un acuerdo sobre la política de acceso gratuito a artículos de científicos alemanes. Exigen que el 100% de los artículos firmados por alemanes sean Open Access. Elsevier ofrece hasta el 30% en 2018. Como resultado el acceso a nuevos artículos en dichas revistas se canceló el 31 de diciembre de 2016.

Las negociaciones aún continúan. Te recuerdo que hoy en día los científicos deben pagar a la editorial por cada artículo que desean que sea Open Access. Los alemanes prefieren pagar un precio fijo porque todos los artículos lo sean, sin que medien los propios científicos. Sin acuerdo, ellos tendrán que recurrir al préstamo interbibliotecario, a solicitar manuscritos a sus autores, o a vías ilegales como Sci-Hub. Por cierto, las negociaciones de DEAL con Wiley y Springer Nature comenzarán en unos meses.

¿Tienen suficiente fuerza los alemanes como para doblegar a las grandes editoriales científicas? ¿Tienen derecho todos los alemanes a leer gratis los artículos científicos que financian con sus impuestos? Nos lo han contado Gretchen Vogel, “German researchers start 2017 without Elsevier journals,” Science 355: 17 (06 Jan 2017), doi: 10.1126/science.355.6320.17; Quirin Schiermeier, Emiliano Rodríguez Mega, “Scientists in Germany, Peru and Taiwan to lose access to Elsevier journals,” Nature News, 23 Dec 2016, Nature 541: 13 (05 Jan 2017), doi: 10.1038/nature.2016.21223.

Leer más