La lotería de Navidad, el bosón de Higgs y los neutrinos superlumínicos

Por Francisco R. Villatoro, el 18 diciembre, 2011. Categoría(s): Bosón de Higgs • Ciencia • Física • LHC - CERN • Matemáticas • Mathematics • Noticia CPAN • Physics • Science ✎ 23

 

La ciencia es el arte de lidiar con la incertidumbre; no existe la certeza absoluta, toda verdad científica tiene una probabilidad no nula de ser falsa. Considera la siguiente hipótesis: «existe al menos una persona que ganará el gordo de la lotería de Navidad.» ¿Cómo puedes realizar un experimento para verificar esta hipótesis? Piensa un poco y recuerda que a los ganadores les gusta el anonimato. Imagina un experimento para verificar, el día después del sorteo, que ha habido al menos un afortunado ganador del gordo. Cuando la televisión dice que el número premiado fue vendido en una ciudad, ¿cómo sabes que no te están mintiendo, incluso sin saberlo? Podría ocurrir que ese número nunca hubiera sido impreso; nadie hubiera podido comprarlo, nadie ganaría el premio gordo y nadie lo sabría.

Hay muchos experimentos que se pueden realizar para verificar la hipótesis. Podrías escoger al azar mil personas y comprobar la hipótesis, o diez mil, o un millón. ¿Cuál es la probabilidad de que entre ellos se encuentre un ganador? ¿Con qué certeza puedes verificar la hipótesis? Podrías escoger solo personas que hayan comprado al menos un décimo de lotería. Experimentos que puedes realizar hay muchísimos, pero la cuestión es que todos ellos tienen resquicios por los que se puede escapar la hipótesis. Verificar una hipótesis no es fácil y los matemáticos han desarrollado las técnicas de contraste de hipótesis para lograrlo. Pero nunca se puede estar seguro al 100%, siempre hay un resquicio para la incertidumbre.

El seminario conjunto ATLAS+CMS en el CERN que ha anunciado los últimos resultados sobre el Higgs obtenidos tras el análisis de las colisiones en el LHC durante el año 2011 ha sido la noticia mediática de esta semana. La hipótesis de que existe el bosón de Higgs comparte algo muy importante con la hipótesis de que existe un ganador del gordo de Navidad. Sería muy sorprendente para casi todo el mundo que nadie ganara el gordo y que Loterías y Apuestas del Estado nos engañara a todos. Para casi todo el mundo, pero seguro que hay escépticos, incluso entre los compradores de lotería. Para la mayoría de los físicos de partículas experimentales sería muy sorprendente que no existiera el bosón de Higgs, aunque hay algunos físicos teóricos que así lo creen. Observar algo inesperado requiere pruebas extraordinarias, pero no son necesarias para observar lo que todo el mundo espera observar. Y esto subyace a la manera de presentar nuevos resultados en física de partículas.

Un resultado esperado, que confirme el modelo estándar, requiere pocas pruebas para ser considerado un resultado definitivo; bastará con 5 sigmas de confianza estadística para el descubrmiento del bosón de Higgs. Un resultado inesperado, que confirmase la existencia de leyes físicas más allás del modelo estándar, requiere pruebas extraordinarias, e incluso con ellas muchos dudarán de que se trata de un resultado definitivo; el resultado de OPERA sobre los neutrinos superlumínicos, incluso con 6 sigmas de confianza estadística, sigue siendo un resultado dudoso y difícil de creer. Quizás puedan parecer dos ejemplos extremos, pero me gustaría que quedara claro lo que quiero decir. Tú esperas que haya un ganador de la lotería de Navidad y aceptaras como válidas pruebas poco firmes de que lo ha habido. Lo mismo pasa con la partícula de Higgs y una señal a favor de 3,6 sigmas en ATLAS a muchos nos parece una prueba firme de que el bosón de Higgs será encontrado el año próximo en el LHC del CERN.

Todo esto viene a cuento por un comentario en Twitter de Fernando Blanco (@FBpsy) que decía «Veo que en física también está empezando a calar el enfoque bayesiano frente al frecuentista.» En física de partículas se lleva usando el enfoque bayesiano casi desde siempre. Los experimentos nos dan información a posteriori (ratificar lo ya conocido o nuevos descubrimientos) condicionada a información a priori (lo que predice el modelo estándar). El enfoque bayesiano es imprescindible en física de partículas para poder avanzar. Pero una vez se ha realizado un descubrimiento, el objeto descubierto es estudiado desde un punto de vista frecuentista, tratando de no asumir a priori la información mínima necesaria, lo mínimo que no pueda sesgar sus propiedades. La mecánica cuántica es esquizofrénica y la interpretación estadística de los nuevos resultados también lo es.

Traducción libre y resumen de Amedeo Balbi, «Higgs?,» Keplero, 6 dec. 2011.

La medida de cualquier magnitud física está sujeta a incertidumbre. Si su valor es, pongamos, igual a 1, diferentes medidas pueden dar valores como 1’3, 0’8, 0’7, 1’2, etc. La «desviación estándar» denotada por el símbolo σ es una estadístico que nos permite determinar un intervalo en el que se encuentra el valor «verdadero» de la magnitud con cierta probabilidad. Por ejemplo, si σ = 0’3 se sabe que el valor «verdadero» se encuentra en el intervalo [0’7, 1’3] a 1 sigma, es decir, con una probabilidad del 68%, en el intervalo [0’4, 1’6] a 2 sigma o con una probabilidad del 95’5%, y en el intervalo [0’1, 1’9] a 3 sigma o con una probabilidad del 99’7%. Nunca se está completamente seguro del valor, pero un intervalo pequeño con un número alto de sigmas nos da mucha confianza en el valor medio obtenido.

Supongamos que queremos decidir si cierta hipótesis es verdadera. La hipótesis podría ser, por ejemplo, «existe el bosón de Higgs.» Necesitamos un modelo teórico que prediga qué pasa cuando el bosón de Higgs no existe, es decir, una hipótesis nula; la teoría predice el valor medio y la desviación estándar de las medidas. Ahora bien, el análisis estadístico de los datos experimentales puede que nos de un valor medio diferente a la predicción teórica para la hipótesis nula. Hay dos posibilidades, por un lado, que una fluctuación aleatoria de los datos esté en nuestra contra y, por otro, que estemos ante una señal de la existencia del Higgs. ¿Cómo decidir entre ambas posibilidades? Lo más fácil es acudir al número de desviaciones estándares σ, es decir, a la probabilidad de que hayamos tenido mala suerte y los datos apunten hacia un falso positivo. Si la confianza estadística en la hpótesis nula es de 1 σ, hay un 32% de posibilidades de que nuestro resultado sea debido al azar; una de cada tres repeticiones del experimento nos dará este resultado. Si la confianza en la hipótesis nula es de 3 σ, la probabilidad de un resultado azaroso es solo del 0,3%; en otras palabras, repitiendo el experimento 1000 veces, se llega a ese resultado por azar solo 3 veces (o mejor, repitiendo muchas veces series de 1000 repeticiones del experimento en promedio se observará 3 veces de cada 1000 dicho resultado). Cuanto mayor sea el número de sigma, mayor será la confianza de haber hecho un descubrimiento.

El número de sigmas necesarios para proclamar un descubrimiento depende del campo de conocimiento considerado. En física de partículas, en los 1980 se consideraba que bastaban al menos 3 sigmas, pero tras varias falsas alarmas (como el falso descubrimiento del quark top con 44 GeV anunciado por el CERN en 1984), se decidió en los 1990 que había que considerar al menos 5 sigmas (por eso se clausuró el LEP2 para dar paso al LHC incluso con una evidencia a 3 sigma de un Higgs con una masa de 115 GeV); en la actualidad, las falsas alarmas a más de 3,5 sigma están indicando que 5 sigmas es poco para los resultados de experimentos tan complejos como el LHC. En mi opinión personal es posible que no se conceda un Premio Nobel al descubrimiento del Higgs hasta que haya una evidencia de al menos 7 sigmas (al ritmo actual, si se confirma la existencia del Higgs, el Nobel tendría que caer en 2015 como pronto).

Traducción libre y resumen de G. D’Agostini, «Probably a discovery,» Arxiv, 15 Dec. 2011.

El 4 de abril de 2011 apareció en ArXiv un artículo de la Colaboración CDF, uno de los dos experimentos del Tevatrón en el Fermilab, que mostraba un pico centrado alrededor de 140 GeV que no se podía explicar mediante el modelo estándar. El pico era pequeño, unos 232 eventos entre 120 y 160 GeV de un total de 10777, pero significativo. Aplicando técnicas de contraste de hipótesis se obtienen 3,2 sigmas de confianza estadística para la hipótesis de que este pico no está descrito por el modelo estándar y por tanto apunta a nuevas leyes físicas. En ciencias sociales se considera «verdad» lo que tiene un valor p menor de 0,01 y aunque este resultado de CDF tiene un valor p de 0,00076 los físicos de partículas dudan de él. ¿Cómo es posible? Porque un valor p no es la probabilidad de que la hipótesis nula sea verdadera, no se puede aplicar una interpretación frecuentista a este resultado. La interpretación correcta requiere un enfoque bayesiano. El valor p puede ser muy próximo a cero y la hipótesis nula puede tener un valor muy próximo a la unidad, para ello basta que no haya ninguna hipótesis alternativa que una probabilidad suficientemente grande que explique dicho resultado. D’Agostini se está refiriendo a la paradoja de Jeffreys-Lindley [wikipedia]. El valor p no es la probabilidad de que al replicar el experimento no se obtenga la misma conclusión, ni el valor 1-p es la probabilidad de que sea verdadera la hipótesis contraria. El nivel de significación estadística de un resultado no viene dado por el valor p.

Hay que recordar que la probabilidad de algo no es indicativa del grado de creencia en dicho algo. No tiene ningún sentido afirmar que la «probabilidad de que el bosón de Higgs tenga una masa mayor de 114 GeV y menor de 130 GeV es tal o cual, o incluso que ha crecido desde 1999 hasta 2011.» No se puede hablar de probabilidades, cuando lo que tenemos son grados de certeza. Hay que cuidar mucho las palabras cuando se habla del significado de una expresión como 95% C.L. (un nivel de confianza para una hipótesis del 95%). Uno tiende (y yo, Francis, me incluyo) a realizar una interpretación frecuentista, a tratar de explicar esta expresión en términos de probabilidades. El resultado de LEP2 que excluye al 95% C.L. un Higgs con una masa menor de 114,4 GeV, no implica nada respecto a la probabilidad de que la masa del Higgs sea mayor o menor que 114,4 GeV. Estos límites de confianza son el apoyo a la toma de decisiones racionales sobre los experimentos.

Retomando el caso de la señal del Higgs a 115 GeV que se obtuvo a 2,9 sigma (es decir, a 99,4% C.L. o con un valor p de 0,006) en LEP2 justo antes de su cierre. Interpretar este valor como que hay un 99,4% de probabilidades de que el Higgs tiene una masa de 115 GeV es un gravísimo error y no hubiera justificado de ninguna manera el cierre de LEP2. Pero esta interpretación frecuentista es completamente errónea. Una conversión de estos valores bayesianos a frecuentistas nos indicaría que la probabilidad de que el Higgs tenga una masa de unos 115 GeV es de solo unos pocos tantos por cientos. Con una probabilidad tan baja era una locura continuar con LEP2 en funcionamiento. Los físicos que tomarón la decisión lo hicieron porque tenían que hacerlo (utilizando la interpretación estadística correcta de lo que había descubierto LEP2).

Un lector de este blog se preguntaba por el error estadístico del error estadístico. D’Agostini nos recuerda que un valor como 99,4% C.L. (2,9 sigmas) está sujeto a un error que no es pequeño y que el valor correcto puede ser 99,1%, o 98,5%, o incluso 97%, pero no podemos saberlo con seguridad (el razonamiento bayesiano no nos permite llegar tan lejos). Tener una certeza casi absoluta sobre un valor como 99,4% C.L. es prácticamente imposible.

D’Agostini recomienda seguir una recomendación de Kant sobre estos asuntos e intepretar el grado de creencia en función de apuestas. Tu creencia en algo es proporcional a lo que tú apostarías por ello. Todo valor probabilístico P(E) debe ser entendido como un valor P(E | I), donde I corresponde a la información a priori que se tenga (que puede cambiar con cada persona, que evoluciona con el tiempo, etc.). La interpretación de las probabilidades es subjetiva (lo que no quiere decir que sea arbitraria). Hay que pensar en apuestas y no en ideales vacíos sobre la objetividad del resultado que nos llevan a la metafísica, que no nos permite distinguir entre lo que es real y lo que es pura creencia.

Recuerda, una evidencia a 6 sigma de que los neutrinos muónicos son superlumínicos no ha llevado a todos los físicos a cambiar la relatividad de Einstein; más bien al contrario, la mayoría cree que el resultado de OPERA tiene que ser debido a un error sistemático no considerado. Esta interpretación común a la mayoría de los físicos se basa en la información a priori que se tiene sobre la teoría de la relatividad especial, una de las teorías más y mejor verificadas de toda la historia de la ciencia.

La moraleja para el público en general

La ciencia se basa en un conjunto de creencias y un conjunto de resultados experimentales que apoyan dichas creencias. Los científicos utilizan la estadística y la probabilidad para cuantificar estas creencias y para cuantificar cuando un nuevo resultado experimental requiere cambiar en parte estas creencias. El problema es que sin un conocimiento claro de cuales son estas creencias a priori, la interpretación de estos cuantificadores es vacía y no tiene sentido. Muchos periodistas y muchos divulgadores científicos (como yo mismo) tendemos a interpretar los resultados probabilísticos sobre estas creencias de manera abstracta, sin especificar las creencias que subyacen (tenemos la excusa de que son tantas que es imposible estar repitiéndolas una y otra vez). Pero esta labor es como engañar al público en general, que desconoce en detalle las creencias que apoyan las interpretaciones. El público cree que sabe que un 68% es muy poco, un 95% es mucho más y un 99,9996% es igual a 100%. Pero están equivocados. Depende de las creencias que se asuman en cada caso. En ciertos campos, un 99,9996% es una simple fluctuación estadística, un resultado que no alterará nuestras creencias. 

Los divulgadores científicos transmitimos una falsa impresión sobre la ciencia y deberíamos pensar mejor cómo contamos lo que contamos.



23 Comentarios

  1. Hay que tener muchísimo cuidado con la aplicación y la interpretación de los métodos estadísticos. Como creo que dijo Francis,la estadística recuerda a veces más a un arte que a una ciencia. La mala aplicación de las herramientas estadísticas conduce a aparentes paradojas que desafían el sentido común. Por ejemplo: El efecto Monty Hall (juego maletas): http://revolucioncientifica.com/increible%20pero%20cierto/el%20juego%20de%20las%20maletas.asp o este otro: http://revolucioncientifica.com/matematicas%20y%20realidad/estadisticas%20realidad%20e%20intuicion%20humana.asp

  2. Como contable, pertenezco a la masa que se acerca a estos conocimientos con una gran curiosidad, un enorme respeto y mucha superficialidad. O sea un practicamente infinito desconocimiento. No sé si me estoy explicando bien, pero gracias por tu explicación sobre los métodos estadísticos. Me ha aclarado muchas cosas. Ahora me doy cuenta de lo poco que me he comprendido hasta este momento. Es una entrada estupenda, llena de autocrítica, pedagogía y mucha sinceridad. Genial como siempre Francis.

  3. Francis, sin ánimo de peloteo: creo que este es el mayor artículo de DIVULGACIÓN (sí, con mayúsculas) científica que he leído, no ya en tu blog, sino en la blogosfera hispana entera en mucho tiempo. Gracias, y sigue así.

  4. Francis respecto ‘El público cree que sabe que un 68% es muy poco, un 95% es mucho más y un 99,9996% es igual a 100%. Pero están equivocados. Depende de las creencias que se asuman en cada caso. En ciertos campos, un 99,9996% es una simple fluctuación estadística, un resultado que no alterará nuestras creencias’ ¿Puedes poner un ejemplo científico que demuestre tal afirmación?

    Un saludo.

  5. ¡Estás que te sales Francis… !

    Una pregunta: Estoy interpretando mal el significado de la frase

    «Una conversión de estos valores bayesianos a frecuentistas nos indicaría que la probabilidad de que el Higgs tenga una masa de unos 115 GeV es de solo unos pocos tantos por cientos.»

    o tiene los términos «bayesianos» y «frecuentistas» cambiados?.

    Saludos y es un placer leerte.

  6. Me uno a las felicitaciones, Francis.

    Respecto a este tema, en el cap. 5. del libro de Jaynes «Probability Theory. The Logic of Science» se propone el ejemplo de la percepción extrasensorial (PES) (antes el libro estaba libremente disponible en la web, pero veo que lo han retirado.) ¿Cuántas veces tendría que adivinar la carta un vidente en un experimento controlado para que Jaynes creyera en la PES? Sea cual sea el número de veces, Jaynes seguiría sin creer en ella; pues la hipótesis de PES es para él a priori más débil que la de fraude-sin-descubrir (FSD); y, digamos, 1000 aciertos consecutivos aumentarían la creencia en PES… pero también la creencia en FSD, que seguiría siendo mayor.

    Ya Laplace decía algo parecido en su «Essai Philosophique sur les probabilités» (1819) (podría dármelas de erudito, pero confieso que estoy copiando de Jaynes):
    «… el inmenso peso de testimonios que es necesario para admitir una suspensión de las leyes naturales»;
    Los que enumeran milagros «disminuyen más que aumentan la confianza que inspiran; pues esa enumeración hace muy probable el error o la falsedad de sus autores».

    1. ¿Y cuánta es tu creencia a priori en que el experimento está _absolutamente_ controlado, Javier?
      ¿Un 99,99999999%, quizás? Pero nunca 100%, supongo. Pues a partir de ese insignificante, digamos, 1e-10 es posible plantear el argumento que plantean Laplace, Jaynes y -si lo reflexionas bien- todos nosotros en las circunstancias adecuadas.

  7. La única razón por la que no podemos estar plenamente seguros de que haya tocado la loteria, es porque la gente tiene la capacidad de mentir. Y en principio no podemos saber si estan mintiendo o no…
    Pero los bosones de Higgs, existan o no, se presupone que no tienen la capacidad de mentir… Por lo tanto, sí podríamos estar completamente seguros. A no ser que los científicos nos mientan o que nos mintamos a nosotros mismos… Pero eso no puede pasar… Los científicos ni nos mienten ni se mienten a sí mismos para no aceptar la realidad, ¿no?

  8. Javier, la ciencia es razonablemente inmune a los datos que se salen de lo esperado; pero no absolutamente inmune.

    La ciencia es una empresa colectiva basada en la reproducibilidad de los resultados. Si otros laboratorios obtienen resultados análogos, ten por seguro que los neutrinos superlumínicos del Gran Sasso pasarán a la historia de la Ciencia, al lado del experimento de Michelson y Morley.

    En caso contrario, también pasarán, pero en letra pequeña, como los rayos N y tantos otros hallazgos prodigiosos.

    Nada que ver con el abogado que razona sobre un solo y único caso, esencialmente irrepetible.

    Filosofete, quien se bautiza con tal apodo debería -creo- pensarlo mejor antes de llamar nihilismo a la teoría expuesta en este envío. ¿Nihilistas Popper, Lakatos, Kuhn? Vale, y el pulpo es un animal de compañía.

    Si tú aludes a Nietzsche, yo contraataco con el conocidísimo fragmento DK 18 de Jenófanes: «A los mortales no enseñaron los dioses todo desde el principio; pero ellos, en su búsqueda a través del tiempo, van encontrando lo mejor».

  9. Creo que éste es un buen artículo sobre el uso de la inferencia estadística en Física experimental, pero también creo que está sesgado, pues lo considera aplicable a toda la ciencia, cuando sólo es de aplicación a las experimentales, y no a las ciencias exactas.
    Cuando publicamos un artículo científico matemático en el cual enunciamos y demostramos teoremas, no hay ninguna incertidumbre estadística respecto a su corrección; si el formalismo es correcto y las premisas también, las conclusiones son ciertas, de modo determinista.
    La Física es una ciencia a la vez exacta y experimental, en la cual los modelos matemáticos y los datos experimentales son como las caras de una moneda. Así, el conocimiento científico del bosón de Higgs se basa en un modelo – el modelo estándar – y unos datos experimentales sujetos a errores y a incertidumbre. Pero notemos que el modelo es determinista: basándose en consideraciones de consistencias, de elegancia teórica, de simetrías, etc, predice (más bien exige) la existencia del Higgs. Sin esta predicción nunca encontraríamos el Higgs … !simplemente porque no lo hubiéramos buscado! En buena parte nuestro conocimiento del Higgs se basa en el modelo, la experimentación completa el conocimiento, no es todo el conocimiento.
    Además, el caso de las partículas fundamentales, y en especial del bosón de Higgs, es especialmente delicado de corroborar experimentalmente, pues no observamos directamente la partícula, sino que tenemos que inferir su existencia indirectamente; es por eso que se pide una confianza estadística muy elevada. No es éste siempre el caso: la comunidad científica creyó confirmada la relatividad general simplemente con unas pocas mediciones de la desviación de la luz debido a la gravedad del Sol, junto con la explicación de la precesión de la órbita de Mercurio, y en ámbos casos se hicieron escasas mediciones. Hay muchos más ejemplos en los cuales la teoría se considera básicamente correcta sin la fuerte dependencia de la estadística que sugiere Francis.
    Saludos.

    1. Estoy de acuerdo jca. Si bien, creo que se refleja implícitamente en el artículo que se refiere a la ciencia experimental. Lo de más, solo queda en nuestros pensamientos (algo tan concreto para nuestra consciencia y tan abstracto para la naturaleza física).

      Sin embargo, no se llamaría ciencia teórica si no se basase en premisas tomadas de la ciencia experimental. Incluso las definiciones axiomáticas se nutren de nuestra experiencia a la hora de observar la naturaleza. Nuestros pensamientos se nutren de lo observado. Y empezamos a construir axiomas de comportamiento natural con no del todo ciertas interpretaciones de lo observado.

      En la práctica, no seríamos capaces de avanzar, de dar un solo paso en la aplicación de reglas de inferencia en un razonamiento, si para ello, no recurrimos a las interpretaciones intuitivas o gratuitas. Las propias premisas son interpretaciones en cuanto a la ciencia se refiere.

      La pureza nos deja inertes. No hay degeneración… ni transformación, ni avance, ni rectificación, ni superación, ni perfeccionamiento. Nuestros pensamientos están mal interpretando en mayor o menor grado siempre en cuanto al entendimiento de la naturaleza, por muy estrictas reglas de inferencia que nos impongamos en el análisis de lo que observamos o medimos.

      Saludos.

  10. Gran artículo, sí señor.

    Pues claro que existen certezas absolutas, totalmente absolutas, firmes como nada más. De hecho, yo diría que la más de todas ellas es nuestra total certeza de que algún día estaremos muertos y desapareceremos, como tantos miles de millones de congéneres antes (y después) de nosotros, y el significado de esta -quizá la única certeza- a niveles profundos de nuestra conciencia y nuestra cultura nunca ha estado clarificado del todo. Pero no lo apunto por mosca cojonera, lo apunto porque es cierto. No deja de ser una ironía que la única certeza total, absoluta, que tengamos sea esa. Es posible que hasta la misma idea de certeza esté muy impregnada (o venga directamente de) ese conocimiento.

    Por decir algo más tangible, tampoco estoy seguro de que un divulgador científico pueda solucionar problemas de ignorancia gravísimos debidos a multitud de factores. Pero lo que sí se puede intentar es tender puentes y dejar puertas abiertas. El resto, tampoco será más que contingencia.

  11. Albert, tu comentario se sale del asunto que trata el artículo en el que lo has puesto.

    Te aconsejo que lo expongas como propuesta en foros de física. O si tienes alguna ambición con ello cuelgalo como arxiv.

    Saludos.

  12. Ahh, no sabía eso de ArXiv… pues haz trampa y di que Einstein tenía razón. Una vez publicado manda una errata diciendo que te olvidaste el NO entre Einstein y tenía. 😉 Salu2

    1. Pues yo tengo entendido que en ArXiv no rechazan nada, aceptan todo, de eso se trata. Lo que si que los que tienen contenido dudoso los clasifican en cierta categoría que ya todos saben que no deben ser nada bueno, en cierta forma para filtrar, pero aun así, el documento queda ahí y es posible consultarlo, no se le borra.

      1. Aitor, ArXiv tiene dos mecanismos para evitar que se publiquen artículos no científicos o políticamente incorrectos. Por un lado, en enero de 2004, se implantó el sistema de «respaldo» para evitar que cualquiera publique cualquier cosa que no sea científica; quien no publicara antes, para publicar necesita el «visto bueno» de alguien que le «respalde» («endorser»); más información en «The arXiv endorsement system.» Por otro lado, se creó el sistema de moderadores; un artículo enviado no aparece en la web hasta el día siguiente; durante este tiempo un conjunto de moderadores tienen derecho a borrar el artículo y a cambiarlo de sitio; más información en «The arXiv moderation system

        Como respuesta a la arbitrariedad en la toma de decisiones en ArXiv se han creado varios sistemas de preprints alternativos, entre los que destaca viXra.

Deja un comentario