Nous avons évoqué dans les deux précédents articles plusieurs dangers menaçant l’édition scientifique : la piètre qualité de l’évaluation par les pairs, laissant passer fraudes et erreurs manifestes, et la barrière financière qui freine trop souvent la libre circulation des savoirs. Voici venu l’enfant terrible de l’édition scientifique, au croisement de ces deux vices : les “revues prédatrices”.
Pas d’évaluation par les pairs digne de ce nom. Pas de transparence sur le fonctionnement de la revue, qu’il s’agisse des choix éditoriaux ou de ses finances. Des sites Internet indigents, peu ergonomiques, plein de fautes d’orthographes et mal référencés. En revanche, imposition de frais de publication, certes le plus souvent modestes, sur le modèle de la plupart des revues en libre accès de la voie dorée. Les revues prédatrices cumulent tous les travers qui menacent l’édition scientifique. Et cela pose un réel problème : en permettant de publier à peu près n’importe quoi pour gagner de l’argent, ces éditeurs prédateurs donnent un vernis de respectabilité lié à la publication dans une revue scientifique à des résultats qui n’auraient pas été acceptés dans une revue honnête. Exemple avec la thèse relayée dans les médias par Luc Montagnier sur l’origine humaine du SARS-CoV-2 et son lien supposé avec le VIH : pour étayer ses propos, le Prix Nobel s’appuyait d’une part sur une étude indienne ayant été depuis retirée de la plateforme de preprint bioRxiv et d’autre part sur une analyse d’un “chercheur” français en informatique, publié dans International Journal of Research – GRANTHAALAYAH, une revue prédatrice.
Des chercheurs piégés à l’insu de leur plein gré
Si certains chercheurs peu scrupuleux sont bien heureux de trouver ces revues prédatrices pour donner libre cours à leurs élucubrations, d’autres chercheurs se “font avoir” en soumettant leur article, de bonne foi, dans ces revues, financent ainsi sur fonds publics des truands et condamnant leur publication à une moindre visibilité auprès de leurs pairs, ces revues n’étant pas référencées dans les outils utilisés par la communauté scientifique. Ces chercheurs se font piéger le plus souvent par les intenses campagnes de spams lancées par les éditeurs prédateurs, en quête de proies naïves, appâtées par des promesses de reviewing rapide et des coûts modérés, comme le dénoncent de nombreux chercheurs sur Twitter.
Second problème, d’autres chercheurs prennent pour argent comptant les articles publiés dans ces revues et les citent dans leurs propres travaux, publiés à leur tour dans des revues légitimes, comme l’a montré une étude de 2019 s’intéressant à la littérature dans les soins infirmiers. Ainsi, les articles publiés dans ces revues prédatrices infectent la production scientifique comme un virus, pour reprendre l’analogie développée sur le site Predatory Publishing. Heureusement, pourrait-on dire, les articles publiés dans ces revues ont peu d’impact, 60 % d’entre eux n’ayant jamais été cité 5 ans après leur publication, probablement car ces revues sont mal référencées.
Mettre des mots sur le mal
Le problème est de taille : selon l’entreprise américaine Cabell, qui dénombre les revues prédatrices depuis 2017, la barre des 12 000 revues prédatrices aurait été franchie fin 2019 (soit près de 30 % des 42 500 revues existantes). Première étape pour contrer ce fléau : le définir précisément. C’est dans ce but qu’un comité d’une quarantaine de chercheurs, de bibliothécaires et d’éditeurs (entre autres) s’est réuni en avril 2019 à Ottawa (Canada). À la clé, une première définition consensuelle de ce terme apparu en 2010 :
Journaux et éditeurs prédateurs sont des entités qui donnent la priorité à leur intérêt personnel aux dépens du savoir académique et qui se caractérisent par des informations fausses ou trompeuses, un écart aux meilleures pratiques éditoriales et de publication, un manque de transparence et/ou l’usage de pratiques de démarchage aveugles et agressives.
Deuxième étape : aider les chercheurs à identifier rapidement ces revues prédatrices pour les fuir, que ce soit au moment d’y soumettre leurs travaux ou d’entamer la lecture d’un de leurs articles. La première solution consiste à consulter un annuaire des revues suspectes : une première tentative a été lancée par Jeffrey Beall, à l’Université du Colorado, qui a du y renoncer après quelques années sous la menace d’un procès intenté par un éditeur indien mécontent de se retrouver sur cette liste noire. Puis l’entreprise Cabell a pris le relais, créant sa propre liste… payante.
Repérer les prédateurs dans la jungle des revues
Plusieurs guides ont été mis au point pour aider les chercheurs à identifier ces revues, reposant sur des check-lists énumérant les principales caractéristiques d’une revue prédatrice (qualité du processus d’évaluation par les pairs, indexation sur les moteurs de recherche, frais de publication…). Une étude récente s’est intéressée, sous l’impulsion de David Moher, directeur du Centre de journalologie de l’Institut de recherche de l’hôpital d’Ottawa, à ces différents guides. L’équipe canadienne a identifié 93 check-lists, trouvées sur les sites universitaires (comme celle du Cirad ou de Sorbonne Université), dans des revues scientifiques (un des guides ayant été publié dans une revue prédatrice…) et sur YouTube. Ce nombre à lui seul témoigne de l’inquiétude qui existe dans la communauté scientifique face à ce fléau, et du besoin d’y voir plus clair.
Ainsi, la première recommandation de l’équipe de David Moher est… d’arrêter de créer de nouvelles listes. Si la majorité des listes étudiées se recoupent sur les critères énoncés, leur préférence va à celles se basant sur des travaux de recherche (ils n’en ont trouvé que 3). Enfin, plutôt qu’une simple liste de critères à cocher sans conclusion claire, ils privilégient les guides aboutissant à un score global : par exemple, si une revue remplit au moins 3 des critères définis par le guide en questions, il vaut mieux éviter d’y soumettre son article. Ainsi, seul le guide présenté en 2019 par deux médecins de l’Université de Sienne (Italie), reposant sur la construction d’un indice de prédation, répond à l’ensemble des recommandations formulées. Populariser ce type d’outils devrait permettre de trier de façon plus efficace le bon grain de l’ivraie et de garantir la légitimité de la production scientifique, à une époque où il est de bon ton de remettre en cause toute parole émanant d’une quelconque autorité.
Crédit photo : Tom Conger – Flickr (CC BY-NC 2.0).