Nueva medida de la masa del bosón W apunta a confirmar señal del Higgs

Por Francisco R. Villatoro, el 24 febrero, 2012. Categoría(s): Bosón de Higgs • Ciencia • Física • Noticia CPAN • Noticias • Physics • Science ✎ 27

El nuevo valor medio mundial para la masa del bosón W es 80390 ± 16 MeV tras la publicación hoy del último valor obtenido por la colaboración CDF del Tevatrón. Este nuevo valor es más pequeño que el valor anterior, como debe ser si el bosón de Higgs existe y tiene una masa entre 115,5 y 127 GeV (como indican los datos del LHC). El valor de la masa del bosón W es mucho más difícil de estimar que la masa del quark top, por lo que su valor es el que más afecta a las estimaciones de la masa del Higgs en el plano W/top, que muestra la figura que abre esta entrada. Esta figura mejora ha cambiado como debía cambiar si el Higgs existe. La figura aparece en la charla de Ashutosh Kotwal (Duke Univ.), «W Mass Measurement at CDF with 2.2 fb-1 of data,» Wine & Cheese, Fermilab, 23 Feb. 2012. Obviamente, mucha gente se ha hecho eco de este gran resultado; recomiendo la lectura de Tommaso Dorigo, «An Exquisite New W Mass Measurement From CDF !,» AQDS, Feb. 23rd 2012.

Ahora mismo todos los aficionados a la física de partículas estamos impacientes esperando la publicación de la estimación de la masa del bosón W por parte de la colaboración DZero del Tevatrón. La media mundial anterior a este nuevo resultado tenía un error de 23 MeV, que se ha reducido a 16 MeV; yo estimo que este error bajará a unos 10 MeV tras la publicación del resultado de DZero. Para los que son legos en estos asuntos hay que recordarles que el LHC (ni ATLAS, ni CMS, ni LHCb) tienen sensibilidad suficiente para mejorar los valores de la masa del bosón W y del quark top que se obtendrán con el Tevatrón. Para mejorar estos valores, jóvenes físicos brillantes tendrán que idear alguna manera de superar las limitaciones intrínsecas que tiene el LHC para determinar estos valores (por cierto, ya hay algunas ideas publicadas); en mi opinión, no creo que el LHC logre mejorar los valores finales que obtenga el Tevatrón este año por lo menos en una década de análisis de colisiones. De ahí, la enorme importancia de estos valores para asegurar que todo cuadra al 100% con el modelo estándar, porque cualquier desviación, por pequeña que sea será una pista clave para el futuro de la física de partículas en el siglo XXI.



27 Comentarios

  1. La respuesta a la pregunta «What comes beyond the SM of particle Physics?» depende crucialmente de este tipo de medidas.
    Me estoy volviendo un incrédulo con la edad. Pero lo que se oculta en la escala TeV, o más allá, ¿podremos verlo con LHC o el ILC o el muon collider? Si hay un SM Higgs de baja masa debe haber partículas de alta energía que lo estabilicen. Sin embargo, no sabemos a qué distancia exacta en «una regla» de energía se encuentran dichas partículas. SUSY diría que no demasiado lejos de nuestro alcance, pero algo tan feo como el MSSM me niego a pensar que exista, incluso como teoría efectiva es horrible pese a algunas de sus bonitas propiedades. Igual con el CMSSM o sus variantes.

    Me pregunto si algún modelo tipo preónico predice un Higgs (no recuerdo ningún modelo tal ahora mismo). Little-Higgs, tecnopiones, higgs-dilatón, y otro tipo de partículas de modelos GUT pueden ser algo como eso. De ahí la importante de una vez que se encuentre «Higgs-candidate» medir sus propiedades:

    1) Masa.

    2) Carga eléctrica.

    3) Momento angular J. ( Espín).

    4) Propiedades bajo P, C, T y combinaciones de dos y las 3 simetrías discretas.

    5) Modos de desintegración.

    6) Acoplos al resto de partículas ( Comparar con la predicción del SM, proporcionales a la constante de acoplamiento del Higgs con el fermión y la masa del bosón de Higgs, y las expresiones análogas para los bosones W y Z).

    LHC podrá hacer relativamente buenas medidas de 1-5, dependiendo de las características del bosón de Higgs será o no un SM Higgs. Para 6, necesitamos el colisionador lineal o un colisonador de muones (ambos en desarrollo).

  2. Juas, hace unos años, cada vez que salia un nuevo valor, lo solia comparar a la cuartica de hans de vries, a ver como se iba de su prediccion semiclasica del angulo de weinberg (Hans comparaba las velocidades de una particula en una orbita de spin 1/2, sea eso lo que sea, y en una de spin 1). Era muy curioso, cuando le metias como input el valor de Z, a 91.1874 GeV, las otras tres raices eran una real, de 80.372 GeV, y dos imaginarias, de 176.15 y 122.38 GeV. Hoy en dia el valor central de Z esta un poco mas arriba, y el error es todavia pm 0.0021, asi que sigue la cosa dentro de la prediccion, y de hecho el bajar la masa de W le beneficia.

    Lo gracioso es que Hans no se habia fijado en las soluciones imaginarias de su cuartica, pero como el Higgs acabe por esos 122 y pico, sera gracioso.

      1. Alejandro, ¿te has fijado que el término de raíz cuadrada es esencialmente el mismo tipo de término que aparece en el operador área de LQG? Una curiosidad, posiblemente…Ya que G no aparece por ningún lado obvio.

      2. amarashiki, no no me habia fijado. Voy a mirar algo de LQG pero si tienes a mano alguna referencia donde el operador area tenga esa pinta, ¿me la podrias mandar por gmail (usuario al.rivero)? De todas formas hay algo peculiar en la forma de calcular lo de Hans, las unidades parece que se metan con calzador.

      3. Ah, via JFGH ya he mirado lo del operador area, pero esto de Hans es mas raro. Basicamente se usa el momento angular «semiclasico» este para plantear la ecuacion
        beta^2 / sqrt(1-beta^2) = sqrt(j(j+1))
        y resolver para beta, en funcion de j. Parece que el lado derecho tenga dimensiones, de momento angular, pero en realidad no es asi, como se puede ver en los pasos 15 a 18 del articulo (que conviente leer, por cierto, en orden inverso, primero la seccion 3, luego la 2, y la primera tan solo opcional), ya que la cte de Plank ha salido fuera y se ha simplificado con otras ctes del lado izquierdo. El descubrimiento de Hans fue que las soluciones de beta^2 para j=1/2 y j=1 estan en la misma proporcion que los cuadrados de las masas de W y Z. Los otros dos numeros salen si ademas consideramos -sqrt(j(j+1)), o la rotacion al eje complejo de la beta^2.

    1. Adrián, asumo que te refieres a la teoría electrodébil y su ruptura espontánea en el electromagnetismo y la teoría débil, parte fundamental del modelo estándar. Para entenderla bien necesitas saber bastante de física y matemáticas (cualquier libro de teoría cuántica de campos te la explica, pero su nivel será de último curso de la carrera de Física). Si es tu caso, dímelo y te recomiendo los que más me gustan a mí.

      Suponiendo que no sepas mucho de física y que seas un aficionado que quiere aprender las ideas más que los cálculos te recomiendo en español:

      Frank Close, «La cebolla cósmica» (el original es de 1983, traducido al español en 1988 y hay varias ediciones). Se trata de un libro delicioso que utiliza la historia durante el s. XX de cómo se descubrieron las partículas y las interacciones para explicar el modelo estándar. No te dejes engañar por el título, el libro no defrauda ni a los físicos.

      Francisco Ynduráin, «Electrones, neutrinos y quarks» (2001). Los que me conocen saben que le tengo un cariño especial a Ynduráin, así que no puedo obviar recomendar su libro, que está muy bien. Francisco en este libro se luce y lo borda. Tampoco te defraudará.

      Gilles Cohen-Tannoudji y Michel Spiro, «La materia-espacio-tiempo» (original de 1986, traducción de 1988). No puedo dejar de recomendar este maravilloso libro de Cohen-Tannoudji, el maestro. Su libro hace fácil cosas que son extremadamente difíciles y el texto fluye como la seda.

      Por supuesto, hay muchos más. Pero para empezar, cualquiera de estos tres no te defraudará.

      Por cierto, no creas que son libros antiguos, el modelo estándar se culminó en 1973 (y la teoría electrodébil en 1967).

      1. Muchísimas gracias!!

        Estoy haciendo el doctorado en física de partículas experimental (en CMS) pero la verdad es que voy muy flojillo en teoría :$ Tras leer el Halzen & Martin y el Peskin tengo la sensación de que o he sido muy descuidado en mi lectura o se quedan cortos para entender todo esto. ¿Me recomiendas releerlos o leerme otros libros?

        Por otra parte, me apunto tus tres recomendaciones sin dudarlo.

        Gracias por tomarte tu tiempo en responderme y por mantener al día un blog tan riguroso y esclarecedor.

        1. Adrián, tanto Haltzen & Martin como Peskin & Schroeder tratan la teoría electrodébil al final y no entran en muchos detalles (BTW a mí el Peskin & Schroeder me gusta bastante y le tengo cierto cariño).

          Me lo pones difícil. En tu entorno en CMS seguro que hay quienes te pueden recomendar mucho mejor que yo y sobre todo lecturas más a tiro fijo para tu trabajo. En cualquier caso, acepto el reto.

          Hay un libro que a mí me gusta mucho porque explica muy bien los porqués en teoría cuántica de campos y te hace tener una sensación de que entiendes la QFT, por supuesto es:

          Anthony Zee, «Quantum Field Theory in a Nutshell» (te recomiendo la segunda edición de 2010). Cuando lees el libro con atención te das cuenta de que es el libro ideal para complementar el Peskin & Schroeder.

          Por otro lado, intuyo que tu labor será más experimental que teórica y como conoces la teoría cuántica de campos a nivel básico, mi primera recomendación es ir a tiro fijo:

          Gunion, Haber, Kane, and Dawson, «The Higgs hunter’s guide» (2000). Que no te engañe el título, es un libro (monografía) dedicado íntegramente a la física del Higgs, incluyendo los modelos supersimétricos más elementales (MSSM). No detalla todos los cálculos, pero se entiende bien cómo han sido obtenidos.

          No creo que te cueste leer el libro de Gunion et al. (en su caso, tendrías que recurrir a alguno de teoría electrodébil, hay varios). Uno moderno que está muy bien ilustrado (y que me gustó mucho por ello) es el de Arno Straessner, «Electroweak Physics at LEP and LHC» (2010).

          Tras leer el Gunion et al. deberías pensar en leerte los Physics Reports de Abdelhak Djouadi, cada uno tiene 340 páginas, o sea, que son como dos libros enteros, pero para trabajar con seguridad en teoría electrodébil son casi imprescindibles. Los tienes gratis en ArXiv.

          «The Anatomy of Electro-Weak Symmetry Breaking. I: The Higgs boson in the Standard Model» http://arxiv.org/abs/hep-ph/0503172

          «The Anatomy of Electro-Weak Symmetry Breaking. II: The Higgs bosons in the Minimal Supersymmetric Model» http://arxiv.org/abs/hep-ph/0503173

          Espero haber sido de ayuda.
          Saludos
          Francis

      2. Precisamente acabo de terminar de leer el libro de Ynduráin «electrones, neutrinos y quarks» y me ha parecido excelente. Personalmente (y no soy para nada un experto) tengo una gran predilección por las teorias GUT y también por la Supersimetría: si la fuerza débil y la electromagnética son en realidad la misma fuerza a altas energías ¿Por que no iban a poder unificarse también la fuerza fuerte e incluso la gravedad?
        En este libro de Yndurain se detallan algunos de los pros y los contras de las GUT, pero en mi opinión los pros superan a los contras. Una pequeña lista de los pros:
        – Explican porqué todas las cargas eléctricas son múltiplos de 1/3e
        – Explican la intensidad relativa entre las 3 fuerzas (con SUSY es incluso mejor)
        – Eliminan ciertos problemas de autoconsistencia de la electrodinámica cuántica
        – Unifican 3 de las fuerzas fundamentales, poseen elegancia matemática
        Contras:
        – Predicen la desintegración del protón con una vida media de unos 10exp29 años mientras que los datos experimentales marcan más de 10exp33 años.
        – Tienen ciertos problemas de coherencia interna: las jerarquías
        – Nuevos cálculos dicen que la intensidad relativa de las 3 fuerzas no se cumple con la suficiente exactitud.
        Sin embargo si añadimos SUSY LOS 3 PROBLEMAS anteriores de las GUT se solucionan. ¿Casualidad? Además GUT+SUSY proporcionan un mecanismo natural por el que parte de la energía del big-bang se transformó en materia sin la ayuda de antimateria
        ¿Casualidad? El tiempo y los datos experimentales dirán si realmente la naturaleza escogió o no este escenario, lo que no se puede negar es que es muy tentador para los amantes de la simetría.

  3. José, en cuanto a tus dudas:

    Duda 1.- «¿El bosón de Higgs será parte de la estadística de partículas del Modelo Estándar?» Ya lo es. No hay modelo estándar sin Higgs. Solo falta encontrarlo de forma definitiva. Igual pasó con el quark top o el neutrino tau antes de que fueran descubiertos eran parte íntegra del modelo estándar.

    Duda 2.- «¿Cómo va a ser posible entender…?» Estudiando la física de partículas. Resumiendo mucho, el Higgs da masa a las partículas por interacción, es decir, una partícula interacciona con el campo del Higgs y adquiere masa, una masa proporcional a su constante de acoplamiento con dicho campo. Por ejemplo, esta constante es igual a 1 para el quark top (con un error más o menos del 1%) y menor de 1 para el resto de las partículas.

    Duda3.- «¿Cómo y qué genera al campo de Higgs?» ¿Cómo y qué genera el campo cromodinámico de un quark top? Un quark top tiene una vida media similar a la del bosón de Higgs (del orden de un yoctosegundo). Nadie sabe por qué los campos son como son. El modelo estándar es un «modelo» pero no conocemos el «modelo subyacente» que lo explica.

    Duda 4.- «¿Cómo se entenderá la existencia de la energía oscura?» Nadie sabe lo que es la energía oscura y no tiene nada que ver con el campo de Higgs en el modelo estándar (con un error de 120 órdenes de magnitud). Hay algunas propuestas en SUSY y SUGRA para explicar la energía oscura que solo fallan en unos 40 órdenes de magnitud. Ahora mismo nadie sabe qué es la energía oscura y qué tiene que ver con el modelo estándar (si es que tiene algo que ver, que parece que no).

    En mi opinión, explicar la energía oscura será el gran éxito de la teoría cuántica correcta de la gravedad. La teoría de cuerdas no la explica (porque falla igual que SUGRA por unos 40 órdenes de magnitud, lo que significa que es 80 órdenes de magnitud más exacta que el modelo estándar si lo miras por el otro lado).

    Saludos
    Francis

  4. José, el concepto de campo es difícil de explicar sin matemáticas. Llamar «fluido» a un campo no es correcto.

    Toma el ratón de tu ordenador, levántalo unos centímetros y suéltalo; cae. ¿Por qué cae? Porque hay un campo gravitatorio que le hace caer. ¿Te imaginas dicho campo como un «fluido»?

    El campo gravitatorio es un campo (tensorial) y el campo de Higgs es un campo (escalar); a la hora de «imaginar» que es un campo es más fácil imaginar el campo de Higgs que el de la gravedad, pero un campo es un campo.

    ¿Por qué no se «diluye» la gravedad «derramándose» en algún lugar del espacio? Pues lo mismo para el campo de Higgs, el campo de un electrón, de un quark, o cualquier otro.

    ¿Por qué alguna gente «ve muy claro» qué es un electrón y no ve nada claro qué es un Higgs? Salvando ciertas diferencias técnicas son la misma cosa, un campo cuantizado que se localiza en algo que llamamos partícula.

    No sé si te he confundido más. Mi intención es aclararte una cosa importante. Nadie sabe qué es el tiempo, qué es el espacio, qué es un campo, … pero los físicos tenemos definiciones matemáticas muy precisas de estos conceptos y las usamos para describir la realidad.

    Y José, no te cortes, pregunta lo que quieras; yo no puedo contestar todas las preguntas… pero las que estén a mi alcance trataré de contestarlas lo mejor que pueda.

  5. Jose German. Yo he dicho lo de Feynman como crítica CONSTRUCTIVA a las teorías actuales, no como una crítica negativa ( de la que incluso Feynman era más partidario con su dicho «Estoy esperando que rompa la supercuerda») pero son muy precisas en todo lo demás salvo la constante cosmológica y esa Materia Oscura y Energía Oscura para los que nuestros modelos actuales no dan una explicación «natural». Quizás no porque ellos mismos estén mal, sino porque como teoría efectiva, el Modelo Estándar tiene sus limitaciones.

    Yo pienso que el método científico es la única respuesta posible a la supervivencia de la Humanidad y de otras muchas cosas. Pero, dicho esto, mi visión de la Física de partículas es en general no estándar porque pienso que en ocasiones se calculan las cosas de forma muy tosca. Y estoy de acuerdo con Francis en muchas cosas que comenta. Y lo siento por mucha gente que entra aquí y vierte comentarios despectivos y sinsentido hacia la ciencia y la manera en que se hacen las cosas. Si no fuera por gente «ultra» religiosa y fanática, no diré que toda la gente de fé y pseudociencia sea así, ya estaríamos dando vueltas por el espacio. Siglos de retraso, guerras sin motivo. Lo dicho: pérdida de tiempo y recursos para la Humanidad. Han muerto matemáticos jóvenes en duelos absurdos, químicos decapitados por defender sus ideas monárquicas (nunca hubo una mente igual a la de Lavoisier en Química, en su momento histórico), y gente muy capaz ha muerto en guerras o por ser bastante radical en la defensa de unas posiciones que un avezado humano, al menos en mi caso, no consideraría defender.

    La Física es probablemente la Ciencia más importante a nivel fundamental. Si lo piensas, ella ha traido la electricidad, la energía nuclear, la electrónica, Internet, la carrera espacial, …Y sus aplicaciones se extienden también a otras áreas como la Biología, la Genética, la Biofísica, … Donde las matemáticas y la computación también son herramientas igual de poderosas.
    Había un escrito en la Academia de Platón, que decía…»No entre aquí quien no sepa geometría.» A mí me gusta hacer una analogía, de mi etapa como jugador de ajedrez. Para un amateur, el ajedrez (aperturas, medio juego o final) es como una selva, mientras para un profesional, se parece a su casa: es dificil encontrar novedades.

    El conocimiento humano, y la Física en particular, es particularmente cercano a esa imagen. Una vez adquieres los conocimientos físicos y matemáticos ( cada vez más background es necesario para dominar y entender realmente algunas ramas y especialidades), te encuentras en que es particularmente dificil encontrar una manera de hacer las cosas que no haya sido hecha antes. Hay que tener mucha imaginación e intuición para determinar en qué sentido la Ciencia o la especialidad evolucionarán, aunque los expertos y los físicos top-ten suelene tenerlo bastante claro. Por eso, Francis, los divulgadores de la Ciencia y la gente aún más experta, es especialmente precavida acerca de los datos que son presentados ante la comunidad internacional. Resultados o teorías extraordinarias, requieren evidencias extradordinarias.

    1. Estimado Germán. El principio de falsabilidad, no conocia al filósofo Bunge pero gracias por citarle, es conocido en el sentido de Popper desde hace años (círculo de Viena), y ya hace tiempo que se incorporó al ideario del método científico. Todo conocimiento científico es provisional. Si no puedes refutar algo experimentalmente, o a traves de los principios fundamentales del razonamiento lógico-matemático ( que personalmente yo entiendo como un subcaso de la falsación «experimental», pero de índole más teórica), ese algo no es ciencia. Es otra cosa, llámalo Metaciencia, Religión o como quieras. Incluso muchas teorías actuales, o incluso modelos, son difíciles de testar experimentalmente, pero dan predicciones que pueden ser susceptibles de falsación. Muchas teorías «pseudocientíficas» no se basan en eso, sino en el «creo esto y aquello, y me invento esto». Cualquier teoría que se construya debe recuperar como casos límite las teorías anteriores. Por eso es fácilmente descartamente la inmensa mayoría de hipótesis y teorías de lo que aquí la gente llama «magufos». Si tu propones algo, de lo que se pueda derivar toda teoría actual de forma «emergente», un paradigma que sale de las ideas de Sakharov de gravedad inducida y algunos modelos mecánicos de la teoría de la relatividad (sí, la relatividad especial, en sí misma, no es al final tan opuesta a la idea de algo «parecido» a un éter) y que parece que está cogiendo bastante fuerza en los últimos tiempos.

      Sobre lo que dice Bunge de que una teoría perfecta no tiene validez científica discrepo. No sé si habrás sacado la cita de contexto ni lo que quieres decir con ello. Una teoría perfecta ¿qué es?¿Quieres decir que una teoría final no tendría sentido?Validez científica tienen la mayoría de teorías efectivas que conocemos como la Relatividad General (o la propia gravitación newtoniana), la Mecánica Cuántica o su encarnación en el Model Estándar. Las teorías de las que disponemos actualmente son efectivas, válidas en ciertos regímenes de energía, velocidad y escalas de distancia. Así que no puede ser que una teoría «perfecta» no tenga validez científica. Lo que no tiene validez científica son los argumentos de la fe, religiosa o no, o bien la mayoría de conspiranoias…Puede que estén basadas en alguna intuición que sea real, pero no son ciencia. Y eso es imperfección. No puedo concebir una teoría final que carezca de validez científica. Eso no puede ser. Es un contrasentido o la cita no significa eso al estar fuera de contexto. Hay tres posibles respuestas a la de si existe o no una última teoría de las interacciones o del cosmos:

      1)No existe tal teoría. Todo lo que hay es una colección desordenada de leyes y fenómenos inconexos. Al final todo es un caos. Evidentemente, eso choca con lo que conocemos, la trayectoria de la Física, y los propios avances del conocimiento humano.

      2)No existe tal teoría, pero si existe una sucesión sin fin de teorías cada vez más precisas. Esto cuadra con las observaciones y la trayectoria del conocimiento humano. Sin embargo, Hawking últimamente parece que se ha movido a esta actitud, que desde el punto de vista positivista lógico, y un enfoque bayesiano estricto a la manera en que se obtienen datos y leyes de los experimentos, parece el más conservador y realista para el tiempo de vida humano.

      3)Existe una teoría unificada del Universo/Poliverso que explica su estructura, interacciones, origen, destino y evolución. De hecho, nuestros modelos actuales funcionan bastante bien, salvo algunas cuestiones que no somos capaces de entender, incluso a nivel fundacional, de nuestras mejores teorías, hasta la época de Planck. Ahí, cualquier teoría actual falla porque el espacio-tiempo no tiene sentido cuánticamente ahí. Probablemente, a esas escalas, o a las que se haga la gravedad comparable al resto de fuerzas (algo que se debate desde tiempos de la Relatividad General y las teorías Kaluza-Klein), viven los grados fundamentales de la realidad, y de ellos de alguna forma pueden derivarse los principios relativistas y cuánticos. Realmente, el matrimonio complicado es el de la gravedad cuántica, no el de la relatividad especial ya que la QFT es una teoría relativista especial de campos cuánticos.

      Sobre lo de que una teoría perfecta no tiene validez, si lo que quieres decir es que una teoría general es indemostrable, la ciencia tiene el experimento para evadir el teorema de Gödel, luego sí puede demostrarse la validez de una teoría Y además ser demostrable que es completa y autoconsistente. Una teoría es válida si explica tu fenomenología y nuevos fenómenos que pueden ser comprobados una y otra vez. Piensa en cómo surgieron los modelos atómicos, cada cual más «perfecto» que el anterior.

      El problema es dar con la tecla. Por ejemplo, de nuevo: la teoría de la Relatividad General de Einstein admite muchas extensiones: la teoría Kaluza-Klein, la gravedad con torsión ( realmente, la teoría de Einstein-Cargan es el único modelo viable actual que reproduce las predicciones de la relatividad general incluyendo el campo de torsión asociado al transporte paralelo de un vector y hubo un debate muy bonito por correspondencia entre Einstein defendiendo la métrica como objeto fundamental y Cartan, defendiendo sus vielbein y las conexiones afines como verdaderas variables. El punto de discusión era, atención, en si era más importante la simplicidad de los postulados o la simplicidad de las variables dinámicas de las teorías. Hoy, ese debate, es menos conocido pero igualmente fundamental, ya que la métrica, tal como la entendemos, no puede ser a priori el objeto fundamental de una teoría cuántica de la gravedad, pero debe poder derivarse de forma «clara» de cualquier teoría que aspire a sucederla).

      Personalmente, yo pienso que las opciones son 2 y 3. Antes era más orgulloso y pensaba que vería 3 realizado en mi tiempo de vida, pero me temo que no será así. La Humanidad se enfrenta a sí misma y problemas derivados de sus interacciones sociales y políticas(económicas) que lastran un avance más rápido hacia 3. Así que, me temo que sólo podré ver la opción 2 y si tengo suerte, aportar algo para la realización de la opción 3.

      Un saludo.

      JFGH

  6. El punto clave de la «falsabilidad» de Popper, y por lo que la «falsabilidad» es esencial en Ciencia, haciéndola diferente de la Metaciencia o la religión, es que da un criterio necesario, aunque no es suficiente, para la veracidad de una hipótesis científica.
    He leido algo sobre Bunge ahora desde que lo mencionaste, pero creo que Bunge está equivocado, con todos mis respetos, respecto a la idea de «falsabilidad», o al menos, lo que yo entiendo por eso. La «falsabilidad» o si quieres algo que es más conocido desde hace más tiempo «la reproducibilidad» de tus datos y su acomodo en un modelo o teoría es lo que nos diferencia como científicos de otra gente que hace «aseveraciones» que «hay que creerse sin más». La Ciencia opera con una idea muy distinta. Y los teóricos como yo, al menos en lo que yo sé, sabemos que los modelos o teorías deben en última instancia estar sometidos al escrutinio experimental, como cualquier otro conjunto de datos. La gente ha metido mucha caña al experimento de OPERA, pero no se puede negar que operaron con método científico, pese a que lo que obtuvieron, aparentemente fue un error. Pero desde el punto de vista científico, no fue malo: «Oye, chicos. Tenemos unos datos que no cuadran sobre neutrinos. Sabemos que no puede ser, pero ahí tenéis el experimento y los datos. Trataremos de revisar todo para ver si ha habido errores». ¡Ojalá todo el mundo se diera cuenta de que es la manera de proceder! ¡Cuántas cosas absurdas y sinsentido se evitarían si la gente adoptara una actitud consecuente con sus actos! Por supuesto, probablemente se precipitaron un poco en presentarlo, yo hubiera hecho otro experimento independiente similar, quizás otro grupo en la colaboración, para que comprobara los resultados, pero incluso así eso estimuló aún más el área de neutrinos y la imaginación de los teóricos. Y atención, hay que saber, dado un resultado experimental, lo que significa. Así como tus propias teorías entenderlas. Si no entiendes lo que haces, no puedes hacer nada nuevo. «What I can not create, I can not understand»(Feynman). Mucha gente que elabora teorías absolutamente «geniales» o «descabelladas» olvida lo importante que es ser capaz de explicarlas, entenderlas y más aún, demostrar que son compatibles con los datos y teorías anteriores válidas por aproximación en cierto límite.
    Un saludo,
    JFGH

  7. José German, le diré lo mismo que el otro chiflado que postea sus teorías chifladas y sinsentido aquí: cállese y haga propaganda de sus ideas EN SU BLOG…Deja a los físicos a los que sabemos algo más que Vd. hacer su trabajo. Aquí se discuten ideas científicas no CHORRADAS COMO LAS QUE VD. y el señor Wood tratan de colar por todas partes. Háganlo en otro sitio, y dejen a los blog científicos serios o de divulgación en paz de sus PARANOIAS MENTALES… Si tanto dicen que pueden hacer, escriban un artículo a una revista a ver qué les dicen, pero les anticipo que ni se molestarán en leer sus argumentos. Destilan ilógica y contradicciones por todas partesl. DEJEN EN PAZ ESTE BLOG Y CUALQUIER OTRO DE DIVULGACIÓN, céntrense en sus propias webs, y dejen a las nuestras en paz… NO tenemos por qué aguantar sus ignorancias…

  8. Sobre el principio de falsabilidad de Popper anoto lo siguiente. En primer lugar dice que las teorías científicas son provisionales porque son falsables y mejorables. En segundo lugar, no hay que confundir la falsabilidad de una teoría con su inconmensurabilidad o blindaje. El paradigma científico propuesto por Kuhn que explica que ciertas teorías se imponen porque explican mejor la naturaleza, que es lo mismo que decir que un paradigma no es mensurable por otro paradigma y su familia de teorías, está sometido a crítica. Es perfectamente posible que dos teorías consistentes coexistan en el tiempo y el espacio cultural, ahí tenemos la teoría relativista y la cuántica, el paradigma cartesiano versus einsteniano, el debate Newton-Leibniz sobre las fluxiones y el cálculo diferencial, o el debate entre la hipótesis inflacionaria y el modelo cósmico estacionario. El falsacionismo popperiano no conduce a blindar teorías y paradigmas porque cada teoría depende de su axiomática.

  9. Una aclaración. Mi comentario no tiene nada que ver con totalitarismos ni con cruces de insultos (que deploro) sino con la superación de la teoría del paradigma cultural propuesta por T. S. Kuhn. Aunque en su última etapa giró hacia el darwinismo y abandonó casi por completo el discurso acerca de los paradigmas restringiendo el concepto de revolución científica al de un proceso de especialización por el cual una disciplina científica va acotando los márgenes de su objeto de estudio alejándose de los horizontes de otras especialidades. En este último sentido, como una forma de holismo restringido que afecta las distintas ramas del desarrollo científico, reaparece el concepto de inconmensurabilidad teórica, el único que Kuhn parece haber mantenido incólume hasta el final de sus días.

    Lo que está sometido a crítica es el concepto de inconmensurabilidad, esto es así porque dos teorías tienen sus propias axiomáticas (cuántica versus relatividad o inflación versus modelo estacionario) y por tanto coexisten en el mismo plano cultural con igual consistencia. Otra cosa es que el mainstream privilegie a una teoría en detrimento de otra pero ambas teorías no son inconmensurables sino analizables y sujetas a falsación en base al método científico. Einstein erró en algunas de sus críticas a la mecánica cuántica blindándose en la inconmensurabilidad de su teoría relativista.

    1. En efecto, Kuhn ha enseñado mucho, fue un autor respetado en su época y lo es ahora. Pero el tiempo posmoderno que vivimos tiende a relativizar los conceptos, no sólo por razones científicas, también por aspectos políticos, económicos y de otra índole. Las “verdades científicas”, la “inconmensurabilidad de las teorías” y otras expresiones similares han perdido el dogmatismo de tiempos pretéritos y se analizan a la luz de la ola posmoderna por la que nos deslizamos. ¿Esto es positivo o negativo? Pues no lo sé, pero es lo que nos toca estudiar.

  10. Me parece que estamos de acuerdo en los puntos básicos de tu último comentario.

    “Desde la antigüedad a la fecha, se ha reducido gradualmente el período de tiempo en que una teoría pudiera subsistir en función de oponentes a ella, que tendrían que desaparecer para que finalmente resultara exitosa, según lo planteado por Kuhn habiendo tomada la cita de Max Planck”.

    Hum…, el modelo cósmico de Aristóteles, que fue el eslabón de una cadena más antigua, sigue sometido a debate. La conjetura del big bang y su versión refinada, la hipótesis inflacionaria, choca con la eternidad e infinitud universal propuesta por Aristóteles. Por eso los defensores del modelo inflacionario y los estacionarios no se ponen de acuerdo. Entonces a) seguirán en disputa, b) confluirán tarde o temprano, o c) surgirá un tercer modelo que los reconcilie o bien los refute.

    “Se establece de esta manera un sistema constructivista de crecimiento científico, que tienden a deplorar los investigadores profesionales de carrera. Será porque la competencia se ha vuelto demasiado abundante como para que pudieran mantenerse felices, cotidianamente”.

    Dudo que tres o cuatro o veinte internautas audaces y creativos marginen a los investigadores profesionales, tampoco le veo utilidad a esa marginación, pero sí parece cierto que voces críticas procedentes de la red hagan más fértil y creativo el trabajo de los profesionales.

  11. «¿Existe alguna ÉTICA definida que cada participante … en este blog?»

    José Germán, nunca me he planteado que fuera necesaria una «ética» para la gestión de comentarios en este blog. Por supuesto, exigo el respeto mutuo, la buena educación en sentido amplio, el respeto a la ciencia y el amor por el método científico. No sé si es exigir mucho.

Deja un comentario