El sesgo sistemático en el análisis de datos de colisiones de alta energía

Por Francisco R. Villatoro, el 17 junio, 2012. Categoría(s): Ciencia • Física • Physics • Science

El análisis de los datos de las colisiones a alta energía es muy difícil y muchas veces presenta sesgos sistemáticos en los que incurren los físicos sin saberlo. Conforme pasan los años y se acumulan más colisiones, además de reducirse los intervalos de error, también se mejoran los algoritmos de análisis y se corrigen muchos de estos sesgos (repito, que al principio ni siquiera se sabía que existían y que todo el mundo pensaba que no existían). Una buena ilustración son las figuras de abajo. No importa lo que sean estas dos magnitudes asociadas a la violación de la simetría CP en la física de los quarks encanto, lo que quiero contar es otra cosa. Me interesa que mires los valores medios (el punto gordo) y los intervalos de error.

Mira la figura de la izquierda. El dato de E791 1999 es un resultado muy excepcional porque su valor medio casi coincide con el valor actual (0,866 ± 0,155), aunque su error sea enorme (0,73 ± 0,30). Muy pocas veces ocurre esto, aunque muchos físicos realizan su trabajo como si esto ocurriera siempre. El dato de FOCUS 2000 también es excepcional, pero por otra cosa, su intervalo de error no incluyen al resultado actual (0,866 no está incluido en el intervalo 3,4 ± 1,6 observado). Esto mismo ocurrió con los neutrinos superlumínicos en MINOS en 2007. Este tipo de medidas indican que hay sesgos o errores sistemáticos que no han sido tenidos en cuenta en el análisis, pero nadie lo sabe en el momento en que son publicadas. Todo el mundo confía (y sabe) que los físicos han hecho su análisis de la mejor manera posible, pero el paso del tiempo (y nuevas medidas) demuestran que no tuvieron en cuenta todos los detalles y que su análisis podría haberse realizado mejor. En el caso de MINOS 2007, la nueva reestimación de las fuentes de error ha mostrado que los intervalos de error que se publicaron estaban subestimados en casi un factor de dos. No es que la física de los neutrinos sea excepcional en este sentido (por la dificultad de detectar neutrinos), este efecto ocurre en toda la física cuando se analizan los últimos resultados experimentales con las últimas técnicas de análisis disponible. Con la figura de arriba lo he querido ilustrar con una rama de la física bien conocida, la física de las partículas que tienen quarks encanto (charm).

Otra cosa interesante que quiero destacar de la figura de arriba (izquierda) es lo que muestran los datos de CLEO 2002, Belle 2009 y LHCb 2012. Vuelve a mirar la figura. El valor más actual se encuentra cerca de uno de los extremos del intervalo de error; esto es lo habitual en física experimental, por lo que tomar el valor medio con valor fiable de la magnitud no es adecuado; siempre hay que tener en cuenta los intervalos de error y conviene considerar muy seriamente los valores extremos de dichos intervalos, en especial, los que son más compatibles con las predicciones teóricas del momento. Esto mismo ha pasado en los neutrinos superlumínicos de OPERA. El adelanto de los neutrinos no significa que sean más rápidos que la luz, ya que el valor predicho se encuentra en uno de los extremos del intervalo de error y eso es lo que uno espera que ocurra normalmente con los datos experimentales.

Por otro lado, la figura de arriba (izquierda) también muestra algo muy habitual en el análisis experimental de errores, al comparar los datos de Belle 2009 y Belle 2012. El nuevo valor medio de 2012 está fuera del intervalo de error de 2009; además, los dos intervalos de error tienen una intersección que no incluye a ninguno de los valores medios. El valor de 2012 tiene menor error que el de 2009 y podría pensarse que debe ser más próximo al valor actual, sin embargo, siempre se debe de interpretar un nuevo resultado teniendo presente todos los resultados previos. Como vemos en la figura, el mejor valor actual se encuentra en el extremo derecho del intervalo de 2009 y en el izquierdo de 2012. No siempre pasa esto, mira la figura de arriba (derecha).

Te animo a observar la parte derecha de la figura de arriba y a plantearte qué conclusiones sacar a partir de los pocos datos presentados. ¿Cómo evolucionará en el futuro? ¿Cómo usarías dicho parámetro si fueras físico teórico?

Para acabar, otra cosa que no hay que olvidar es que el mejor valor actual para un parámetro cambia con el tiempo, no siempre los intervalos de error se reducen y por tanto la interpretación del resultado con respecto a las predicciones del modelo estándar (que depende de más de 20 parámetros adicionales) ha de ser muy cuidadosa. Cualquier predicción del modelo estándar depende del software que realice la predicción (hay muchos ajustados de forma ligeramente diferente) y de los parámetros del modelo estándar que se utilicen en dicha predicción. Cualquier predicción teórica del modelo estándar cambia con el tiempo, al ritmo de los resultados experimentales.

Interpretar resultados experimentales es todo un arte. No lo olvidemos, donde algún físico teórico ve un Antoni Tàpies, quizás solo haya un Mark Rothko.



Deja un comentario