Arthur H. Rosenfeld (Univ. Berkeley) introdujo en 1968 el requisito de cinco sigmas para proclamar un descubrimiento en física de partículas. Pero no se popularizó hasta unos 25 años más tarde, tras el descubrimiento del quark top en el Tevatrón del Fermilab, EEUU; el quark top fue la primera partícula cuyo descubrimiento se publicó tras superar cinco sigmas en dos experimentos (CDF y DZero). Rosenfeld se dio cuenta de que conforme se incrementa el número de colisiones analizadas es más probable que aparezcan fluctuaciones estadísticas que se confundan con nuevas partículas. Así sugirió que todo exceso menor de cinco sigmas en el histograma de las colisiones exigía repetir el experimento para confirmar que no era una fluctuación estadística. En sus propias palabras: «wait for nearly 5σ
effects. (…) Any bump less than about 5σ calls for a repeat of the experiment.”
Un punto importante, que no se debe olvidar, es que la distribución probabilística de muchos resultados no es gaussiana (como sería en el límite de un número infinito de repeticiones del experimento). Por ejemplo, en 1969 se publicó en Physical Review Letters la (posible) observación de un quark con una carga eléctrica de 2/3. Si los datos se analizaban asumiendo una distribución de Poisson, la probabilidad de que se observase una fluctuación estadística era de uno en diez billones; pero si se suponía que su origen era una distribución de Poisson compuesta (la suma de de un número finito de variables regidas por distribuciones de Poisson) la probabilidad de la fluctuación aleatoria era del 92.5%. Por tanto, con absoluta seguridad se trataba de una interpretación incorrecta de los datos, a pesar de que se publicó en PRL tras pasar por una revisión por pares.
La importancia de un análisis estadístico en física de partículas nació con muchas falsas alarmas durante la década de los 1960, y continuó con muchas otras falsas alarmas hasta principios de los 1990. Solo entonces se impuso el criterio de las cinca sigmas (aunque ya muchos habían olvidado el trabajo pionero de Rosenfeld). Con el enorme número de colisiones que se analizan en el LHC, y los que se analizarán en el HL-LHC, habrá que subir el criterio unas cuantas sigmas; si no, se producirán gran número de falsas alarmas a cinco sigmas debidas a simples fluctuaciones en los datos.
Nos lo resume estupendamente Tommaso Dorigo, «Fundamental statistics for discovery in fundamental physics,» Oxford University, 24 Apr 2018 [PDF slides]; Tommaso Dorigo, «From SU(3) to 3 quark families: completing the picture of matter constituents,» Gell-Mann memorial session, ICNFP VIII, Kolymbari, 26 Aug 2019 [PDF slides]; el artículo original es Arthur H. Rosenfeld, «Are there any far-out mesons or baryons?» Lawrence Berkeley National Laboratory (LBNL), 01 May 1968 [PDF]; el artículo en PRL es C. B. A. McCusker, I. Cairns, «Evidence of Quarks in Air-Shower Cores,» Physical Review Letters 23: 658-660 (1969), doi: https://doi.org/10.1103/PhysRevLett.23.658.
En este blog puedes leer «La historia de las cinco sigmas en física de partículas», LCMF, 14 ago 2013; «Por qué cinco sigmas en un solo experimento no son suficientes para un descubrimiento», LCMF, 14 jul 2012; «Cinco sigmas de algo esperado es un descubrimiento, pero de algo inesperado no lo es», LCMF, 24 jul 2014; «Qué significan cinco sigmas para el descubrimiento del bosón de Higgs», LCMF, 29 jun 2012; y «Con cuatro nuevas partículas puedes explicar casi cualquier exceso y con cinco no digamos», LCMF, 07 jul 2014.
Que interesante, sin duda los análisis estadísticos son de gran relevancia en ingeniería y ciencias, aún con el aumento de precisión de las técnicas e instrumentos de medición actuales.
En ingeniería civil, nos conformamos con 2 sigmas para el control de calidad de la resistencia a compresión del hormigón y con 3 sigmas vamos en moto de contentos, ja, ja…