Casi todos los lectores de este blog saben que cuando los indicios sobre la existencia de un bosón de Higgs alcancen cinco sigmas se podrá afirmar que ha sido descubierto. Sin embargo, lo que casi todos ignoran es que la frase anterior, escrita como tal, es mentira. Qué significan «cinco sigmas» a secas, nada en absoluto. Hay que clarificar los parámetros de la hipótesis, es decir, en el caso de la existencia del bosón de Higgs hay que especificar en que intervalo de masas se han alcanzado cinco sigmas de significación estadística. Este intervalo de masas es diferente en el Tevatrón, que buscó el Higgs en el intervalo entre 100 y 200 GeV, y en el LHC, donde además depende de la energía de las colisiones, ya que a 7 TeV c.m. (año 2011) se buscó el Higgs en el intervalo entre 100 y 600 GeV, mientras que a 8 TeV c.m. (año 2012) se está buscando entre 100 y 800 GeV.
¿Por qué no buscar el Higgs donde creemos que está, digamos entre 115 y 135 GeV? Porque desde un punto de vista estadístico se estaría sesgando la búsqueda, con lo que fluctuaciones estadísticas muy probables entre 100 y 800 GeV, parecerían muy excepcionales en un intervalo tan pequeño. Las cinco sigmas de significación estadística deben ser globales si queremos ser rigurosos. Cinco sigmas de significación estadística local solo son del agrado de los blogueros a los que nos encanta propagar rumores con poco fundamento (estadístico, valga la redundancia).
¿Cuál es el intervalo de masas más adecuado para estudiar la hipótesis de la existencia del Higgs? La pregunta del millón de dólares no tiene una respuesta clara. En los anuncios oficiales de la dirección del CERN (así ha sido durante 2011) se ha utilizado el intervalo de masas completo utilizado en la búsqueda (recuerda, entre 100 y 600 GeV en 2011, intervalo que llegará en 2012 hasta los 800 GeV). ¿Se trata de la decisión más adecuada? No importa, se trata de la decisión más conservadora y la que más información aporta a los físicos, pues cinco sigmas en un intervalo tan grande no solo implica un descubrimiento, sino también la ausencia de otros primos del Higgs (reafirmando de forma indirecta que se trata del único bosón de Higgs predicho por el modelo estándar). ¿Por qué no usar en su lugar el mismo intervalo de masas utilizado por el Tevatrón? Pues porque no es necesario. A finales de año, incluso en el intervalo más grande disponible se podrá proclamar un descubrimiento a cinco sigmas, para qué molestarse entonces en reducir dicho intervalo antes de tiempo.
¿Qué significa todo esto en relación al anuncio del próximo miércoles 4 de julio? El anuncio oficial de diciembre de 2011 fue muy pesimista y no llegó ni a dos sigmas de significación estadística global en todo el intervalo entre 110 y 600 GeV para los dos grandes experimentos del CERN (en concreto, 1,5 sigmas en CMS, aunque alcanzó 2,2 sigmas en ATLAS). Si pensamos que es más razonable un intervalo pequeño alrededor de 125 GeV, la significación crece hasta 3,6 sigmas en ATLAS y hasta 2,6 sigmas en CMS. Y si además combinamos estos resultados con los del Tevatrón y los de LEP2, podemos estar hablando de unas 4 sigmas (solo con los datos disponibles a fecha de diciembre de 2011). Esto es casi un descubrimiento, por eso muchos blogs y yo mismo creemos que era una señal muy firme del Higgs (aunque dicha señal apunta a un primo del Higgs). Por supuesto, esta significación local es muy discutible, pues implica un sesgo (busco donde sé que se encuentra y asumiendo que se encuentra allí). Es mucho más fiable una significación global en todo el intevalo de búsqueda en el que puedo buscar, lo que oficialmente hace la dirección del CERN para no mojarse las manos.
Imagina que el próximo miércoles, 4 de julio, los dos grandes experimentos del LHC, llamados ATLAS y CMS, ofrecen indicios sobre la existencia del Higgs a cuatro sigmas (de confianza estadística para la hipótesis de que el Higgs existe en un intervalo entre 100 y 600 GeV). Combinando ambos indicios se superarán las cinco sigmas, lo que significa que se podría proclamar oficialmente un descubrimiento. ¿La dirección del CERN proclamará un descubrimiento oficial del Higgs? En mi opinión no, no lo harán. Sin realizar la combinación de forma rigurosa, no será utilizada de forma oficial.
¿Deberían combinarse los datos de ATLAS y CMS antes de publicarlos por separado? Quizás sí, es una cuestión de opiniones, pero no se hará. No se hará porque no es necesario hacerlo. En diciembre de 2012, ambos experimentos tendrán indicios sobre el Higgs a más de cinco sigmas y por tanto ambos proclamarán un descubrimiento. La combinación de sus colisiones no se realizará hasta 2013 (quizás no se publique hasta el verano de 2013).
¿Por qué no se acelera todo el proceso? Porque no merece la pena hacerlo. El trabajo teórico de Higgs tiene casi 50 años, el LHC se propuso hace unos 30 años, su diseño y construcción ha costado unos 20 años, y solo llevamos un año y medio tomando datos. ¡Solo 18 meses! La búsqueda del Higgs en el LHC acaba de empezar y confirmar de forma definitiva que se trata de la partícula predicha por el modelo estándar costará unos 20 años. ¿Por qué van a tener prisa las autoridades del CERN? ¿A quién le importa lo que algunos digan? Las cosas son así y así seguirán, ¿por qué han de cambiar?
Como nos cuenta Aidan Randle-Conde, «Why we shouldn’t combine Higgs searches across experiments,» USLHC, Quantum Diaries, June 28th 2012, la razón por la que dos experimentos están buscando el Higgs en el LHC es porque si uno de ellos proclama un descubrimiento, no estará confirmado hasta que otro lo confirme (o lo refute). Por eso, muchos experimentos se diseñan a pares, ATLAS y CMS en el LHC, CDF y DZero en el Tevatrón, UA1 y UA2 en el SPS, Belle y BaBar, etc. Combinar la información de dos experimentos en competencia solo tiene sentido una vez se ha proclamado el descubrimiento por separado en cada uno de ellos. En el Tevatrón nos hemos acostumbrado a que las combinaciones de CDF y DZero se publicaran muy poco después de su publicación por separado, quizás por la presión del LHC, en un intento desesperado por ser los primeros, pero no podemos considerar que esa costumbre excepcional deba ser la regla a seguir; el Tevatrón solo debe ser considerado como la excepción que confirma la regla: solo se combinan los datos de experimentos en competencia mutua cuando ambos han proclamado un descubrimiento. En mi opinión, así se hará en el LHC del CERN.
Lo de siempre, aunque no tenga nada que ver. Que te salgan 5 caras seguidas no significa que la moneda esté trucada y tenga dos caras. Puede que sí, puede que no. Pero que te salgan 50 caras seguidas apunta de forma muy firme a ello. Mirar solo 5 tiradas de 10 monedas da poca información sobre cuáles están trucadas y cuales no; mirar 50 tiradas de una sola moneda da mucha más información sobre si está trucada o no. Pero las sigmas se pueden calcular tanto en un caso como en otro. No es lo mismo 5 sigmas en el primer caso, que 5 sigmas en el otro.
Por todo ello la dirección del CERN prefiere una significación estadística global. ¿Qué harán el próximo miércoles? No creo que cambien de chaqueta en el último momento (como suelen hacer los políticos), sobre todo teniendo en cuenta que en diciembre de 2012 , salvo que ocurra una catástrofe, podrán afirmar que el Higgs existe con una significación global superior a 5 sigmas (y una local cercana a 10 sigmas en algunos canales en el intervalo de 120 a 130 GeV o similar). Por supuesto, ofrezco mi opinión, tan discutible como la de cualquiera.
Mucho hablar de sigmas, pero ¿qué son las sigmas de confianza en la validez de una hipótesis? Nos lo contó Aidan Randle-Conde, «A sigma here, a sigma there…,» Quantum Diaries, 9 May 2012. La palabra “sigma” se refiere a la desviación estándar, denotada por la letra griega del mismo nombre, σ. En el caso más sencillo podemos considerar una distribución gaussiana de probabilidad (también llamada distribución normal). Tomando una con media cero y desviación estándar igual a la unidad, diremos que un dato está desviado más de una sigma de la media si están en la zona rayada de la figura (su módulo es mayor que la unidad). La probabilidad de una fluctuación estadística sea responsable de señal a una sigma es igual a alrededor del 32%. De manera similar la probabilidad de fluctuaciones a dos, tres, cuatro y cinco sigmas más allá de la media es del 5%, 0,3%, 0,005% y 0,00005%, respectivamente.
En los experimentos de física de partículas hay dos fuentes de desviaciones respecto a las predicciones del modelo estándar, por un lado, los errores debidos a fluctuaciones estadísticas y los errores sistemáticos debidos a que calcular las predicciones por ordenador no se puede hacer de forma exacta, y por otro lado, la presencia de una nueva partícula o de una ley física que hace que la Naturaleza difiera de las predicciones teóricas. Para distinguir ambas posibilidades se utiliza el número de sigmas comparado con la probabilidad de que una fluctuación estadística explique dicho resultado. Esta probabilidad depende los parámetros de la hipótesis que se esté estudiando (por ejemplo, el intervalo de masas considerado en el caso del Higgs).
Esta figura muestra la simulación de 100 resultados de una distribución gaussiana junto a la banda de una sigma. Se pueden ver claramente fluctuaciones a dos sigmas de origen puramente estadístico. Si en lugar de 100 resultados tuviéramos 1000, habría alguna fluctuación a tres sigmas. Conforme el número de realizaciones del experimento crece, la probabilidad de observar un punto alejado de la media por un gran número de sigmas crece.
En el caso del bosón de Higgs encontrar una fluctuación estadística a tres sigmas en el intervalo de energías entre 100 y 800 GeV es mucho más probable que encontrarla en un intervalo entre 117 y 127 GeV, por ello el número de sigmas se corrige para tener en cuenta el efecto de la longitud del intervalo. Por tanto, si observamos una señal a cinco sigmas locales entre 117 y 127 GeV no significa que tengamos un descubrimiento, ya que dicha señal observada en el intervalo entre 100 y 800 GeV se reduce a menos de cuatro sigmas globales. O lo que es lo mismo, una señal a cinco sigmas globales que permite proclamar un descubrimiento es una señal a más de siete sigmas locales lo que nos hace estar muy seguros de lo que parece que estamos observando realmente está ahí.
Espero haber aclarado un poco este tema (hacerlo de forma rigurosa requiere recordar las técnicas matemáticas de contraste de hipótesis y hoy no quiero ser más matemático de la cuenta).
Pues gracias por la respuesta Francis, en mi opinión la explicación es muy clara.
Reblogged this on El Bioclub and commented:
Qué significan cinco sigmas para el descubrimiento del bosón de Higgs
Buena entrada Francis, se entiende la mecánica del cálculo de las probabilidad con la desviación estandar y la búsqueda del Higgs ampliando el rango, eleva la confianza estadística para asegurarlo a 5 sigma.
No recuerdo de quién era la frase: Una maquina diseñada para detectar electrones detectará electrones.
Me dejaron una pregunta: «En el caso del bosón de Higgs encontrar una fluctuación estadística a cinco sigmas en el intervalo de energías entre 100 y 800 GeV, que significa? Significa que solo el Higgs existe en este intervalo? Que tal si hay otras particulas que expliquen otros eventos en este rango?»
Gracias!
Miguel, los detectores (en realidad los disparadores de eventos o triggers) de los experimentos CMS y ATLAS del LHC están ajustados ahora mismo para buscar el bosón de Higgs. Una vez se encuentre al Higgs, habrá que dedicar parte del tiempo de estos detectores a la búsqueda de otras cosas. Puede haber muchísimas cosas en el intervalo entre 100 y 800 GeV (aunque ya sabemos que no hay ciertas cosas).
Cada predicción teórica más allá del modelo estándar (cuarta generación de partículas, nuevos bosones vectoriales, supersimetría, dimensiones adicionales, …) debe ser estudiada de forma específica. Muchas de ellas ya sabemos que están por encima de los 800 GeV, pues parte del tiempo de los detectores se dedica a estas otras búsquedas, pero ahora mismo la mayor parte de los slots de los triggers están enfocados en el Higgs.
Todo esto es un cuento chino que no engaña. La realidad no se puede crear a partir de las matemáticas. Las matemáticas solo valen,para medir la realidad, no para crearla. La realidad es otra cosa mucho mas genial, no al alcance de cuatro matemáticos que se las dan de sabiondos y engañatontos. Un saludo. José.
La matemática es solo una herramienta.
Hay mucha realidad que se encuentra allí, mucha que tal vez no nos hemos dado cuenta y ellos podríamos suponer que si.
Muy bueno
heeeelp!!! mi objetivo es entender que significa cuando dicen «descubierto a X sigmas». Lo habré leido más de unas 3 veces, la primera vez hace como un año. Ahorita ya lo he leido unas 4 veces, lentamente pero no entiendo esto de los sigmas. Todavia tengo una idea vaga sobre que es esto de los sigmas y va así: “La probabilidad de que la gráfica muestre ese pico en 125.5 GeV debido a una fluctuación estadística está a 5 sigmas del valor esperado, es decir es casi nula”. Estoy a 5 sigmas de confianza estadadística de que esta idea esta errada.
Liscano, el concepto proviene de la teoría de contraste de hipótesis. Planteas una hipótesis nula, sea H, p.ej. no hay una nueva partícula y se observa una señal ficticia (una fluctuación estadística) en los datos; planteas la hipótesis contraria, no H, que la señal no es ficticia y hay algo oculto en los datos (distinguir si es una nueva partícula u otra cosa requiere otros contrastes de hipótesis). La hipótesis nula predice cierto número de datos, sean N; el análisis estadístico de los datos observa un valor medio M (sea M<N) con una desviación típica S; simplificando un poco, una sigma significa que N-M ~ S, dos sigmas que N-M ~ 2*S, y cinco sigmas que N-M ~ 5*S. Todo esto equivale a una cierta probabilidad (valor-p), que depende de la forma esperada para la distribución de probabilidad, de que la hipótesis nula H sea la responsable del dato observado; si la distribución de probabilidad es normal (gaussiana), una sigma es una probabilidad estimada para la hipótesis nula H del ~ 32%, dos sigmas es un ~ 5%, y cinco sigmas es un ~ 0.0001%; o visto al revés, para el contrario de la hipótesis nula, cinco sigmas es una probabilidad de ~99.9999%. Pero todo esto depende de la distribución de probabilidad esperada según la teoría para la hipótesis nula.
Gracias Francis, definitivamente eres un Handbook con patas!!! jejeje, lo que viene ya es un abuso de tu tiempo pero… digamos que en la región de 120 a 130 GeV yo tengo 10 datos predichos para la hipótesis nula, N= {121, 122, 123, 124, 125, 126, 127, 128, 129, 130}, estos datos son fáciles de analizar porque no forman una gaussiana (en los 125.5) en un histograma, pero sí tienen una M=125.5 con una S=3. Por otro lado digamos que tenemos los 10 datos experimentales Ne={124, 124, 125, 125, 125, 126, 126, 126, 127, 127} y como tienen muchos 125 y 126 cojen una Me=125.5 pero con una Se=1. Entonces reparafraseandote: «La hipótesis nula predice cierto número de datos, sean N; el análisis estadístico de los datos observa un valor medio Me (sea Me<N) con una desviación típica Se; simplificando un poco, una sigma significa que N-Me ~ Se…", Aquí lo que no entiendo bien es la operación N-Me, Me o M como escalar y N como vector de datos.
Liscano, tus datos no son gaussianos, luego un contraste de hipótesis riguroso debería tenerlo en cuenta; para simplificar, olvidemos este detalle. La hipótesis nula es que los datos esperados según la teoría deben estar en M ± S a 1 sigma y en M ± 2*S a 2 sigmas, asumiendo una distribución gaussiana G(M,S), que se suele llamar normal N(M,S). El número de sigmas para tus datos experimentales Ne viene determinado por la máxima desviación respecto a la predicción teórica, o sea, max(N-Me)/S = 0.5; por tanto tus datos están a 0,5 sigmas de la predicción teórica (asumida gaussiana) y están de acuerdo con la hipótesis nula.
Por cierto, Liscano, si te interesa el tema, ¿por qué no consultas un libro de estadística? Basta consultar el capítulo de contraste de hipótesis (que debería aparecer en todos los libros de estadística).
Antes de esta conversación me daban miedo los libros de estadística!!!, jejeje. Ahorita no tanto puede siga tu consejo. Gracias por todo.
Es una forma de cuantificar la magnitud del efecto observado.
Empemamos con una hipótesis:
Suponemos que no existe ningún efecto real…
Aún así, las diferentes mediciones sí que podrían dar un valor distinto de cero, por la aleatoriedad.
Podemos calcular la distribución de esas posibles medidas, que tendrá de media cero.
Entonces, para la medida de mi experimento, en vez de indicar su valor absoluto lo que hacemos es decir cuántas desviaciones típicas me alejo de la media hipotética (cero).
Si estamos a muchas desviaciones típicas quiere decir que es una medida muy poco probable, incompatible con la hipótesis nula. Y por tanto digo que mi hipótesis es incorrecta, y por tanto afirmamos que sí hemos detectado un efecto significativo.
Además, no se suele trabajar con medidas individuales (muestras de tamaño 1) sino con muestras de N>1, idealmente N>20. Esto tiene una ventaja: aunque no conocemos la distribución de las medidas individuales sí que conocemos la distribución de las medias muestrales, que es aproximadamente normal, y conocemos su desviación. (Teorema central del límite). De este modo podemos estimar la probabilidad de que una medida sea igual o mayor que un cierto valor.