El papel de los revisores para evitar los errores en ciencia

Por Francisco R. Villatoro, el 10 julio, 2014. Categoría(s): Bibliometría • Ciencia • Noticias • Peer Review (Revisión por pares) • Science ✎ 33

Dibujo20140530 errors in science - reviewers role - economist com

Muchos científicos opinan que el papel más importante de los revisores de artículos científicos es evitar la existencia de errores y con ello garantizar la calidad de todo lo que se publica. Sin embargo, hoy en día, el sistema de revisión por pares tiene fallos y muchos artículos publicados contienen errores. ¿Cómo se puede corregir esta situación? Los expertos opinan que lo mejor es introducir un sistema de control de calidad del proceso de revisión de tal forma que cada revista, además de un factor de impacto, tenga  un índice de calidad de las revisiones. De esta manera los autores podrán elegir la revista con mayor impacto pero que además tenga mejor revisión. Parece fácil implantarlo, pero muchos editores de revistas estarán en contra, les resta poder de decisión. Nos lo cuentan Tamás Székely, Oliver Krüger, E. Tobias Krause, «Errors in science: the role of reviewers,» Trends in Ecology & Evolution, AOP 27 May 2014.

¿Podrían esforzarse más los revisores? Según algunos la calidad de las revisiones está decayendo porque los revisores tienen demasiadas ocupaciones y no pueden «perder» demasiado tiempo. Los revisores deben recordar que su papel es fundamental y que deben evitar todo tipo de sesgos. Lo único que deberían evaluar es la calidad del manuscrito. Todos debemos aplicarse cierta dosis de autocrítica enfocada a que nuestras revisiones sean de la más alta calidad posible. Nos lo cuentan muchas voces, como Kyeong Sam Min, «Reviewers are not perfect but could they try harder?,» Journal of Business Research 67: 1967–1970, 9 Sep 2014.

En el proceso de revisión por pares influye la toma de decisión por parte del editor relativa al revisor elegido para un manuscrito concreto. En las revistas que publican gran número de artículos, una herramienta automática de toma de decisiones con incertidumbre podría ser de utilidad. Quizás pueda parecer exagerado, pero muchos ya están atacando este problema desde el punto de vista informático. Las tecnologías borrosas (fuzzy) pueden ser de utilidad, como nos proponen G. Sena Daş, Tolunay Göçken, «A fuzzy approach for the reviewer assignment problem,» Computers & Industrial 72: 50–57, Jun 2014.

La editorial SAGE publica la revista Journal of Vibration and Control (factor de impacto 1,966 en el 2012 JCR de Thomson Reuters) editada por Ali H. Nayfeh (famoso investigador en métodos de perturbaciones para sistemas oscilatorios). SAGE ha anuncia que ha retractado 60 artículos publicados en dicha revista en los últimos 14 meses [PDF con el listado de los 60 artículos]. Muchos de los autores de estos artículos, que se citan los unos a los otros en forma de anillo, son ficticios, inventados por un tal Peter Chen, que estaba afiliado a la Universidad Nacional de Educación Pingtung, Taiwán (NPUE), y quizás otros autores en la NPUE. Más información en «SAGE statement on Journal of Vibration and Control. SAGE announces the retraction of 60 articles implicated in a peer review and citation ring,» SAGE Press Room, 08 Jul 2014. Por cierto, me he enterado gracias a un tuit de José Cuesta (aka @InerciaCreativa).

¿Ha fallado la revisión por pares? ¿Deberían los revisores haberse dado cuenta del fraude? Algunos revisores eran ficticios, inventados por el propio Chen. ¿Cómo se puede evitar este problema? ¿Realmente el papel de los revisores es evitar el fraude en ciencia?

Preguntas al aire que podéis contestar, si os apetece, en los comentarios.

[PS 11 Jul 2014] 60 artículos retractados son muchos para que la noticia no logre eco mediático. Fred Barbash, «Scholarly journal retracts 60 articles, smashes ‘peer review ring’,» The Washington Post, 10 Jul 2014. Además, recomiendo leer, como no, a Ivan Oransky, «Tracking retractions as a window into the scientific process SAGE Publications busts “peer review and citation ring,” 60 papers retracted,» Retraction Watch, 08 Jul 2014.



33 Comentarios

  1. Yo creo que una cosa que estaría bien es algún tipo de remuneración por revisión por pares. Actualmente ser revisor está bastante cerca a ser una obra de caridad. Por una parte bajan los sueldos a los investigadores a niveles de precariedad, por otro lado existe una competición desenfrenada por tener que publicar y pocas expectativas de futuro para los jóvenes investigadores. O bien existe alguna remuneración económica o bien que cada artículo revisado cuente de forma similar a un artículo publicado.

      1. Hola,

        lo que queria decir es que para participar en muchas becas o entrar en puestos de trabajo se valora el numero de artículos en revistas de alto percentil y el factor de impacto del autor. De igual forma se podría valorar el número de artículos revisados. Está claro que no con el mismo baremo ya que hacer una publicación lleva mucho más tiempo, pero seria interesante, más allà de poner en el currículum «Revisor de talicual».

        Otra idea relacionada es que aparezca el nombre de lo revisores en las publicaciones, esto haria al revisor más responsable del resultado final y ninguno querria ver su nombre relacionado con una publicación retractada. Aunque para hacer esto, revisar artículos tendria que ser un premio lo suficientemente suculento.

      2. Francisco, en un foro como éste, decir que algo «no tiene sentido» sin explicar el motivo es paradójico.
        Por otra parte, creo que si se valorase desde el punto de vista académico (aunque usando un baremo paralelo), tal y como comenta nuestro colega Gabriel, la dedicación a la revisión sería más exhaustiva y profesional.

  2. Buf, tema complejo el de los revisores y los editores. Por un lado, a menudo en nuestro papel de revisor no recibimos las respuestas que como autores escribimos para matizar cuestiones que pudieran no estar claras en el artículo original o para incorporar o no nuevos datos a la discusión. En realidad, falta esa parte de discusión que entiendo enriquecedora y sobre todo que ya que uno escribe un «rebuttal» a los revisores pues lo mínimo es que les llegue. En este sentido me parece que independientemente del sistema seguido para el peer review (estoy pensando ahora en doble ciego y demás) sería razonable, que acompañase a cada artículo la discusión tenida con los revisores, identificando a final del proceso los nombres de quienes han tenido la capacidad de decisión en su momento.

    Y por otra parte, el papel de los editores. Tengo la sensación de que es más importante la decisión del revisor de poner major revision/reject que las objeciones que pongan en sí mismas. Recientemente me han aceptado un paper con tres revisores, un «minor» un «reject» y un «major revision», pero el revisor que opinaba que el artículo no debía ser publicado ponía unas objeciones absurdas (en cinco líneas) que incluían objeciones de formato tales como que las referencias solo se debían poner en la bibliografía, mientras que el que opinaba «major revision» justificaba en dos páginas sus objeciones, que en algunos casos se incorporaron y en otros no, pero que eran razonables. Pero en otros casos, con el «reject» del que lo leyó por encima te tiran un paper sin posibilidad de refutarlo. ¿El editor no mira si lo que escriben justifica o no la decisión que toman? Tengo la convicción de que no. Y efectivamente, revisar un paper lleva tiempo, y si es un tema ligeramente colateral más, pero es que a veces te encuentras algunos comentarios…
    Dice Pedro Etxenique en sus charlas de consejos a los científicos jóvenes que el revisor es el lector que más a fondo va a leer tu artículo (y añade que a veces el único lector) pero creo que a veces lo único que quieren es quitárselo de encima cuanto antes. Pues no aceptes revisarlo, c***, que es voluntario. Ni que te exigieran 3 revisiones por cada artículo que publiques…
    Y lo dicho antes, si al final apareciese el nombre de los revisores junto a su informe a lo mejor nos molestábamos todos un poco más.

    1. Gracias, Teresa. Ya hay unas pocas que incorporan el open peer review (es decir, «que acompañan a cada artículo la discusión tenida con los revisores, identificando a final del proceso los nombres de quienes han tenido la capacidad de decisión en su momento»). «¿El editor no mira si lo que escriben justifica o no la decisión que toman?» Depende mucho del caso, pero conozco muchos editores que sí lo hacen. Además, siempre puedes ponerte en contacto con el editor y discutir con él sobre su decisión (si tu razonamiento contra el «reject» le convence muchos editores cambian de opinión).

      «El revisor es el lector que más a fondo va a leer tu artículo (y añade que a veces el único lector).» Todos los estudios cienciométricos y bibliométricos sobre la revisión por pares así lo atestiguan. «A veces lo único que quieren es quitárselo de encima cuanto antes. Pues no aceptes revisarlo.» Ahora mismo los editores tienen un grave problema. Muy poca gente buena acepta revisar artículos y acaban actuando de revisores gente «no tan buena» (por no decir mala). Un grave problema que requiere una actitud activa por parte del autor a quien rechazan un artículo (si de verdad tiene interés en publicarlo en dicha revista).

      Saludos
      Francis

      1. He estado mirando lo del «open peer review» y es algo meramente testimonial, a nivel experimental y que afectan a un número muy bajo de artículos.
        Es cierto que puedes discutir con el editor, pero no coincido contigo en que muchos editores cambien de opinión, al menos en las revistas en las que nos movemos nosotros…
        Si los revisores no son tan buenos, o no se molestan lo suficiente, pues razón de más presionarles o presionarnos haciendo públicas las objeciones y las respuestas.
        En cualquier caso, las «soluciones» que se proponen por ahí son similares a las que discutimos aquí. Un par de enlaces: http://www.scilogs.com/academianet/whats-up-with-peer-review/
        https://storify.com/RubriqNews/the-future-of-scientific-peer-review/elements/f377bac7ff0474c9f882dd76?utm_source=sharmanedit.wordpress.com&awesm=sfy.co_dlGR&utm_content=storify-elementsharetwitter&utm_campaign=&utm_medium=sfy.co-twitter

  3. El problema de base es el negocio que hacen las grandes (y pequeñas) editoriales a costa del esfuerzo y la buena voluntad de la comunidad científica. Se ha discutido muchas veces aquí. Personalmente no creo que sea justo que los grupos editoriales cobren una salvajada a Universidades y Centros de Investigación públicos, cuyos científicos (muchas veces en paro) nutren y aseguran la calidad de las revistas sin recibir ninguna recompensa más allá de la satisfacción personal.

    Si se desea una mayor exigencia en el proceso de revisión por pares (velocidad y rigor) en este tipo de revistas, deberían plantearse repartir los «beneficios» aunque sea de forma simbólica, como descuentos en los precios de las suscripciones o incluso la gratuidad del acceso a los grupos de investigación que colaboran con las revistas.

    Personalmente, me molesta trabajar gratis para inflar los bolsillos de las editoriales.
    Es un modelo de negocio extremadamente descompensado.

    En un mundo en el que el coste de hacer accesible una revista de prestigio ya no es más que el de un servidor web, debería hacerse algo para democratizar la ciencia y derribar estas barreras.
    Creo que se debería apoyar a las revistas Open Access que no cobran ni a los autores ni a los lectores. Enviando más artículos y ofreciendo ayuda con revisiones de calidad, de modo que su impacto e influencia cambie esta triste situación.
    Lamentablemente, estas revistas se pueden contar casi con los dedos de una mano y suelen estar sobredesbordadas, cuando no son compradas por las grandes editoriales en cuanto alcanzan cierto impacto.
    ¿Qué pensais?

          1. Daniel, las revistas de física son más baratas que las de biología/bioquímica (Teresa es doctora en Ingeniería Química).

            Current PLoS Publication Fees:
            PLOS Biology $2,900 USD
            PLOS Medicine $2,900 USD
            PLOS Computational Biology $2,250 USD
            PLOS Genetics $2,250 USD
            PLOS Pathogens $2,250 USD
            PLOS Neglected Tropical Diseases $2,250 USD
            PLOS ONE $1,350 USD

            Saludos
            Daniel

        1. David, siento discrepar. No dudo de la calidad científica de los artículos que se publiquen ahí. Pero no es una revista que se pueda calificar como muy buena. No está indexada, no tiene factor de impacto y han publicado pocos artículos 26 artículos en un año. Esto es testimonial.
          Los problemas que yo le veo ahora mismo al open access son fundamentalmente 2.
          1) la proliferación de revistas open access, algunas con títulos superespecíficos, con pocos artículos publicados y aún no indexadas. Esto hace que cuando buscas bibliografía los artículos no aparezcan y por tanto sea más difícil llegar a tu público objetivo. Por ejemplo Hindawi ahora mismo tiene 434 revistas open access, y en temas de química e ingeniería química alrededor de una docena. Pero si yo en scopus/WoK hago una búsqueda y no me aparecen estas revistas es dificil que encuentre la información que me pueda interesar, con lo que cuando tengan IF será bajo y todos intentamos publicar en revistas del mayor índice de impacto posible. Adicionalmente, si se publican pocos artículos en cada revista al año es probable que los IF varíen bastante. Aquí es cierto que algunas revistan son gratis total y otras cobran entre 600-1200$ por artículo.
          2) Las revistas de «reconocido prestigio» piden más del doble porque tu artículo sea de open access. Pagas por el acceso de todo lo demás, pagas por que tu artículo sea libre, y les haces el trabajo de revisor… ya les vale. Así que es mejor optar por esquemas tipo digital-csic en los que se publica en abierto las últimas versiones previas a la aceptación.

        2. David, JCGT no es una revista científica stricto sensu. No sé si conoces la serie de libros Graphics Gems. Tras el quinto los editores decidieron no publicar ningún libro más y crear una revista open access( JCGT o The Journal of Computer Graphics Techniques) para sustituir a los libros, pero manteniendo su filosofía: Técnicas probadas y fiables. En otras revistas (p.ej. ACM TOG) se publica la investigación detrás de estas técnicas. Pero JCGT no es una revista de investigación.

          Saludos
          Francis

    1. Pienso en un híbrido Wikipedia-ArXiv fundado y regulado por un consorcio de universidades de todo el mundo.

      Me refiero básicamente a un proyecto open access, pero para garantizar su viabilidad y calidad debería implementar publicidad estilo Google, que no molesta en absoluto.

      También podría implementar un sistema de módicas suscripciones que otorguen niveles de privilegio, como navegar con publicidad OFF, acceso a un «chat room» para comentar y debatir, etc.

      La recaudación obtenida por esos medios permitiría, entre otras muchas cosas, remunerar como es debido a los revisores de los papers.

      Y para estimular aún más la calidad y seriedad del trabajo de los revisores, sus nombres deberían figurar junto a los autores del paper.

      Todo con nombre y apellido, todo cuantificado (cantidad de consultas, de referencias, de refutaciones, etc.), constituyendo un sistema de auto-ranking para los papers, sus autores y sus revisores.

      Más aún, el proyecto debería tener dos grandes secciones: una de Papers Aprobados y otra de Papers Rechazados.

      Efectivamente, opino que todos los papers rechazados deberían ser publicados para evitar o mitigar dos cosas: la labor compulsiva, apresurada y/o fraudulenta de los autores, y el rechazo impropiamente justificado de los revisores.

      Es la única manera que se me ocurre para prevenir o reducir la hojarasca hueca, los fraudes, los plagios, los sesgos personales y los antagonismos institucionales: ventilándolo todo públicamente.

      Saludos.

      1. Me parece una excelente idea.
        La infraestructura software no puede ser difícil de montar.
        Se pueden analizar las relaciones entre autores y revisores para asegurar la imparcialidad (proyectos en común, grados de separación en coautoría).
        Incluso las revisiones podrían ser puntuadas y «metamoderadas» por la comunidad. De manera que cuando un artículo haya sido revisado y modificado a lo largo de varias iteraciones, tenga la oportunidad de alcanzar un grado de excelencia / calidad que le permita «salir a portada» y considerarse publicado a partir de cierto momento.
        Del mismo modo, si se detecta una anomalía (plagio…) se podría retractar y reducir la «reputación» de sus autores.

        El proceso sería mucho más transparente y justo que el actual. Tanto para los autores, como para los revisores. Y las agencias de calificación no necesitarían depender de medidas diseñadas para recomendar revistas a los bibliotecarios (como el JCR).

  4. El tema de los revisores es casi de conversación diaria en el ámbito de la universidad. Como bien decía Francis, «Ahora mismo los editores tienen un grave problema. Muy poca gente buena acepta revisar artículos y acaban actuando de revisores gente “no tan buena” (por no decir mala)». Me ha sucedido que algún artículo de mi grupo es rechazado o recibe un «major revision», con algunas revisiones durísimas, donde por poco se te pide que expliques la historia de la ciencia desde Newton para acá. Luego, cuando reproduzco ese mismo tipo de evaluación sobre algunos de los trabajos de referencia sobre el tema, me encuentro con que hay cosas publicadas, y bastante citadas, que no hubiesen podido pasar la revisión a la que sometieron mi trabajo (y en la misma revista). Esa disparidad en los criterios de evaluación, en el ámbito de la misma revista y la misma temática, es injusto por un lado, y desmotivador por otro, porque uno termina pensando que la posibilidad de publicar depende de que te toquen revisores «laxos».

    Me gusta la idea que propuso David sobre la compensación no necesariamente monetaria sino de acceso a las bases de datos o descuentos en los productos. Creo que serían un justo reconocimiento a la tarea del revisor, que cuando se tiene que poner, le lleva un buen tiempo.

    Saludos

  5. El tema de los revisores a veces resulta como los falsos positivos en los antivirus, por ejemplo a Peter Higgs la primera vez le rebotaron la publicación de su trabajo.

    1. Leo, el primer artículo se lo aceptaron sin problemas, pero el segundo (sobre lo mismo y enviado una semana más tarde a la misma revista) se lo rechazaron. No creo que sea un buen ejemplo. Añadió algunos cambios (entre ellos mencionar la partícula) y lo envió a otra revista donde fue aceptado.

  6. La verdad que el tema es complicado. Si no lo fuese, ya estaría resuelto xD.

    El problema no es la Ciencia en sí y su método. Es la sociedad donde opera el mecanismo. En el siglo XVIII o XIX estos problemas eran diferentes (muy diferentes). Nosotros ahora operamos bajo un sistema de acumulación de capital, y lo que no sea capaz de acumularlo por sí mismo (de forma genuina o encubierta bajo subvenciones), tendrá que ser subvencionado directamente. Esto trae unas consecuencias de cara a la opinión pública, y la batalla por su control por parte de intereses de todo tipo. Sería interesante conocer un poco más el sistema que funcionó en su momento en la URSS (que con seguridad presentaría un sesgo de tipo personalista, disfrazado de político), pero tampoco estoy seguro de que ayude mucho.

    Como el sistema va a seguir estrechando márgenes, cualquier sistema que pensemos que opere bajo su lógica (y si llega a colapsar la producción científica puede verse dañada con mucha seguridad) tendrá que responder reduciendo costes, y al igual que en todas partes, dado que los costes de tipo estructural ya se han reducido al máximo sólo se pueden tocar los salarios, y pretender que la gente trabaje gratis… es posible que en un campo como la Ciencia mucha gente esté dispuesta (que de hecho lo está), pero desde luego lentejas en el plato tiene que haber.

    Así que la pregunta es jodida. Una solución inmediata sería cargarse por completo el sistema, pero el riesgo de que cualquiera pueda publicar cualquier cosa sin control de forma generalizada puede llevar (y posiblemente lleve) a una dispersión y mala gestión de recursos si no existe un filtro inicial (como si lo que tuviésemos ahora no fuese algo mejor que un caos con arrebatos puntuales, pero la verdad es que la entropía siempre permite ir a peor). La solución más obvia es instalar un sistema público (los monopolios es lo que tienen, siempre dan el máximo beneficio posible), o mejor aún mundial, el problema es organizar esto a gusto de todos y que funcione. Respecto a posibles abusos, no creo que fuese peor que lo que ya hay, que en muchas cosas funciona como un oligopolio y hay temas donde la industria lleva la batuta de forma descarada. No estoy sugiriendo que haya censura (que en algún caso puntual bochornoso sí es posible), pero sí lo que le duele a todo el mundo: que te cierren el grifo (que vale, es una forma de censura).

    Luego está la solución milagrosa, que requiere la intervención divina (con la implantación previa de un ser todopoderoso con ciertos superpoderes), que la propia comunidad se organice con un sistema abierto y que la revisión por pares corra a cargo de voluntarios por turnos (que por supuesto, enlazando con lo de arriba, no cobrarían) etc.etc. xD, lo dejamos correr porque entra la risa floja.

  7. el problema ahora mismo del sistema de revisión por pares es que se ha convertido en un foro de opiniones por culpa de que los editores no saben, o no quieren, hacer bien su trabajo:
    Detectar fraudes: es trabajo del editor.
    Decidir si un articulo debe ser publicado: es trabajo del editor. El trabajo del revisor debe ser solo el de aconsejar y argumentar sobre el articulo.

    Cual es la situación actual? el editor delega absolutamente todo su trabajo a los revisores. Si un revisor decide oponerse (por interés profesional) a lo que presentas, el editor se lava las manos y el trabajo no se publica. Aunque no esté justificado; aunque presentes evidencias (empíricas, numéricas y analíticas) de que el revisor se equivoca el editor obedece al revisor, y no al revés.
    No hablo de editoriales pequeñas, sin decir el nombre, estoy hablando de la reina de las editoriales de física.

    La pregunta esta clara, tal y como dice Teresa: porque uno tiene sueldo y el otro no? Por que es tan caro publicar en éstas revistas?

    1. Espaidual, estoy de acuerdo contigo, «decidir si un articulo debe ser publicado es trabajo del editor.» Y muchos no hacen bien su trabajo poniendo la excusa de que el número de artículos que recibe su revista es inmanejable. Pero claro, luego su revista publica dos números al mes y así ellos cobran más de la editorial.

      Saludos
      Francis

  8. Hola,
    Creo que el problema de la publicación científica tiene, a grandes rasgos, una solución más simple de lo que pensáis: la clave está en otorgar, de una vez por todas, la mayoría de edad, dignidad y gobierno a los científicos, lo que se traduce en que sean ellos mismos los que decidan qué es bueno, y qué deja de serlo, y que nadie decida por ellos qué pueden leer, y qué no.
    Es obvio que con la tecnología decimonónica de divulgación de la producción científica (actualmente en vigor) este planteamiento es inviable, pero con Internet las cosas cambian radicalmente. Lo único que se requiere es que:
    1) Cada especialidad científica (esto es vital) tenga su propio repositorio.
    2) Acceso acreditado, con derecho a voto acreditado (positivo o negativo), con breve justificación del porqué del voto. Opcionalmente (habría que meditar los pros y contras), se exigiría la identificación del votante.
    3) Acceso no acreditado, con derecho a voto no acreditado (+/–). Opción a expresar el porqué del voto.
    4) n carpetas, tantas como grados se establezcan para el estado de la revisión, en función de los revisores que haya tenido.
    5) Un enlace en cada artículo a su historial de revisión.
    6) Disponibilidad de toda serie de herramientas para la localización, clasificación, etc. etc. etc.
    Este es solo uno de los posibles planteamientos para realizar la revisión científica, y si tiene algún fallo, es seguro que puede modificarse, mejorarse o eliminarse, hasta dar con el sistema perfecto de revisión.
    Por otro lado, si algo parecido (aunque no tan sofisticado) se utiliza actualmente para evaluar todo tipo de productos (a base de estrellitas), o de puntos (o meneos) para evaluar los artículos de los blogueros, ¿por qué no iba a funcionar igualmente de bien (o incluso mejor) en la evaluación de la producción científica?
    Tengo claro que, por defectuoso que pudiera ser un sistema de evaluación implantado en Internet, nunca sería peor que el sistema actual, donde todo depende de lo que opine un solo revisor (a los sumo dos o tres).
    Saludos

    1. » la clave está en otorgar, de una vez por todas, la mayoría de edad, dignidad y gobierno a los científicos, lo que se traduce en que sean ellos mismos los que decidan qué es bueno, y qué deja de serlo, y que nadie decida por ellos qué pueden leer, y qué no.»

      Eso ya existe, mediante las citas. Si un artículo tiene muchas citas, es que ha atraído mucho interés. Si no tiene citas es que a nadie le importa. Listo. No nos compliquemos más la vida.

  9. Yo no sé cómo será en otros campos, pero en física teórica los revisores no estamos para comprobar que el resultado sea o no correcto. Muchos papers tienen simulaciones numéricas y desarrollos matemáticos que llevarían mucho tiempo rehacer, por lo que el revisor valora ante todo que el paper sea consistente, que sea interesante o no y que no se haya hecho eso mismo antes. Luego la responsabilidad de que el paper sea correcto o no la tiene exclusivamente el autor.

    Por eso existe otro mecanismo de las editoriales, que son los comments. Si alguien publica algo incorrecto siempre puedes enviar una corrección a la revista e intentar que salga publicada junto al artículo.

  10. En mi carácter de investigador e inventor que ha logrado en el pasado obtener patentes de invención, considero que debido a que las nuevas tecnologías resultan desconocidas para los revisores de artículos científicos, éstos no tienen interés en divulgarlas. Entonces, la publicación y divulgación de algo que tiene gran potencial y múltiples aplicaciones útiles y valiosas se ignora y se desperdicia. Corregir esto es difícil, pues los revisores tendrían que entender profundamente los fenómenos que hacen posible lo que se está creando. http://www.youtube.com/watch?v=6fw_OzDZYBY

  11. HIPOCRESIA total a mi me han denegado articulos matematicos que eran correctos y otras veces ni me han respondido a los comentarios de porque estaba rechazado

  12. Revisores? acabo de evaluar un cv de un aspirante a un cargo de profesor, que está terminando su doctorado, tiene menos de 10 artículos publicados, pero ya es revisor de más de 10 revistas. Incluyendo Phys. Rev. Lett., prestigiosa revista en la cual no ha publicado ningún artículo. Y por cierto no es el caso de un fenómeno que ha escrito artículos muy valiosos. Esta situación en la cual los revisores son finalmente ya no especialistas sino integrantes de grupos que se reparten beneficios de todo tipo es lamentable….en particular por la responsabilidad de los editores.

Deja un comentario