Comprendre les modèles d’évaluation par les pairs d’un article scientifique

5 - Vers une autre chronologie : publier puis évaluer

Le système publier puis évaluer — publish then review ; appelé parfois (primary) post-publication peer review (PPPR) — consiste à déposer en libre accès le manuscrit original de l’auteur (appelé preprint) sur le site de la revue, ou dans une archive ouverte, ou sur une plateforme dédiée à l’évaluation, puis à effectuer l’évaluation par les pairs et, le cas échéant, à publier la version finale acceptée par une revue. Les modalités sont variées et une des originalités est le portage de l’évaluation : elle peut être portée par une revue ou par une plateforme externe.

Evaluation portée par la revue. Des revues publient en libre accès sur leur propre site les manuscrits des auteurs en attente d’évaluation — exemples : plateforme F1000 Research, revues de Copernicus Publications, plateforme Open Research Europe (adossée à F1000 Research), etc. D’autres revues (eLife, PLOS, SciPost, épi-revues d’Episciences, etc.) demandent aux auteurs qu’ils déposent, avant soumission à la revue, leurs manuscrits en libre accès dans une archive ouverte acceptant les preprints (ArXiv, BioRxiv, MedRxiv, HAL, Zenodo, etc.).
Ces revues sont souvent en libre accès total (voir la fiche CoopIST : Publier dans une revue en libre accès) et certaines demandent des frais de publication aux auteurs (Article Processing Charges) (voir la fiche CoopIST : Comprendre les modèles économiques des revues scientifiques).
Leurs modalités d’évaluation par les pairs sont diverses, souvent avec des options ouvertes. Par exemple, F1000 Research, Copernicus Publications ou SciPost appliquent une évaluation totalement transparente et ouverte, pouvant même faire intervenir en ligne la communauté scientifique. Pour F1000 Research, les auteurs invitent les relecteurs selon un cadre précis (Finding Article Reviewers). Pour certaines revues de Copernicus Publications, l’évaluation est publique, elle fait intervenir des relecteurs désignés par la revue et tout scientifique intéressé s’enregistrant auprès de la revue (exemple de Biogeosciences : Interactive review process).
Les épi-revues (overlay journals) ont été précurseurs du système « publier puis évaluer » (les premières sont nées à la fin des années 1990). Leur modèle de publication était alors original : revues électroniques, le plus souvent en libre accès et sans frais pour les auteurs, publiant des articles soumis via le dépôt préalable du preprint en archive ouverte. Lorsque le preprint est révisé et accepté par l’épi-revue, l’auteur actualise sa page dans l’archive ouverte en ajoutant la version finale publiée et sa référence, dont l’url DOI attribué par la revue ; de son côté, le site de l’épi-revue crée une page pour l’article avec les éléments d’identification pérenne dont le lien vers l’archive ouverte.
De plus en plus de revues, en libre accès ou non, encouragent le dépôt en libre accès du preprint avant soumission (Biology Open, EMBO Press, PeerJ, etc.), ou le rendent obligatoire (eLife, PLOS, etc.) — pour ces dernières, on pourrait sans doute parler d’un fonctionnement d’épi-revue.

Evaluation portée par une plateforme externe (dite aussi processus d’évaluation découplé, délégué, portable, portable peer review). Les auteurs font évaluer leurs preprints par une plateforme dédiée, puis proposent, ou non, à une revue la version révisée associée aux documents d’évaluation.
La base ReimagineReview (créée en 2019 par ASAPBio) recense ce type d’initiatives, souvent lancées par des scientifiques associés ou non à des revues. Exemples : Peer Community in (réseau de chercheurs évaluant des preprints, lancé en 2016 en France) ; Review Commons (évaluation indépendante avant soumission à une revue, lancée par ASAPbio et EMBO Press en 2019, affiliée à 17 revues de différents éditeurs).
Ces plateformes sont en principe gratuites pour les auteurs (mais quelques-unes ont des frais d’adhésion ou de service). La plupart demandent aux auteurs de déposer au préalable leurs preprints dans des archives ouvertes. Leurs modalités d’évaluation sont diverses, elles peuvent proposer la transparence des identités et l’ouverture des documents d’évaluation.
Certaines d’entre elles ont des partenariats avec des revues qui tiennent compte de l’évaluation effectuée, évitant ainsi des évaluations successives et du temps perdu. Exemple de Review Commons (rubrique Submitting to an affiliate journal) : si la première revue choisie par l’auteur ne retient pas le manuscrit révisé associé aux rapports d’évaluation, l’auteur peut présenter le dossier à une autre.

Le partage et la diffusion des contenus de l’évaluation entre revues peuvent faire gagner beaucoup de temps et d’effort aux auteurs, aux relecteurs et aux revues. Mais ces pratiques amènent des questions concrètes d’organisation des revues et aussi d’intégrité scientifique.
En dehors de l’évaluation découplée décrite ci-dessus, le partage des documents d’évaluation se fait déjà entre revues d’un même éditeur (notamment les grands éditeurs commerciaux ; on parle de publication en cascade, Cascading peer review, Peer review cascade, Article transfer service, Transfers and Portable Reviews Policy). Cela pourrait, pourquoi pas, se faire entre revues d’éditeurs différents. De même, l’auteur devrait-il indiquer à une revue à laquelle il soumet que son manuscrit a déjà été refusé par une première revue ? Devrait-il joindre à cette deuxième soumission les documents d’évaluation ? Le COPE considère que la confidentialité de l’évaluation doit être respectée et que les documents ne devraient être transmis qu’avec l’accord des acteurs initiaux (Who “owns” peer reviews? Version 2, 2017).