Anne Chailleu
Vice-présidente du Formindep, association pour une formation et une information médicales indépendantes
L’auteure déclare n’avoir aucun lien d’intérêt direct ou indirect avec les entreprises intervenant dans la santé, l’assurance, ou leurs conseils.
La médecine, comme la politique, a ses spin doctors ou doreurs d’image. Connaître leurs techniques de communication permet de limiter et dénoncer leur influence.
Tous les jours sont vantés des médicaments « prometteurs », alors que nombre d’entre eux n’ont été étudiés que sur des rongeurs. Tous les ans, au mois de novembre, on tente de remettre une pièce dans la machine du dépistage du cancer de la prostate et tous les ans, début juin, on a enfin vaincu le cancer. Ces marronniers suivent le calendrier des congrès et des campagnes de sensibilisation aux maladies (disease awareness).
Le champ de la médecine n’a en effet pas échappé à cette invasion de la « communication » : les universités, les centres de recherche, qu’ils soient publics ou privés, disposent tous de communicants employés à « vendre » le résultat des recherches aux médias.
Force est de constater que les approximations et les exagérations que l’on retrouve dans la presse proviennent souvent des communiqués universitaires eux-mêmes. Le Centre national de la recherche scientifique (CNRS) en a donné un exemple frappant en présentant dans un communiqué de presse le Lupuzor®, un médicament immunosuppresseur, comme le premier traitement « sans effet secondaire » contre le lupus. Le CNRS a été épinglé par le Canard Enchaîné qui dénonce dans son édition du 20 juin 2018 : « Le CNRS a vanté un médicament bidon à coups de ‘’fake news’’ ».
Ce discours « vendeur » est-il une nécessité imposée par la vulgarisation des connaissances et leur diffusion dans les médias généralistes ? Le problème est plus profond, puisque même les articles de recherche sont atteints par cet enthousiasme de camelot. Comment en est-on arrivé là ?
L’idée d’une mesure de l’impact des journaux médicaux est née dans les années soixante et le Journal Impact Factor (JIF), indice qui mesure cet impact, est la propriété du Center of Medecines Research (CMR) International qui était une filiale du syndicat de l’industrie pharmaceutique britannique. Le CMR est aujourd’hui la propriété de Clarivate Analytics. L’idée de mesurer la performance de la recherche s’est inscrite dès l’origine dans un agenda plus large de façonnage de la réglementation à l’avantage des industriels. Le site de Clarivate Analytics le dit clairement : c’est le rôle même de CMR International, que de « remettre en cause les politiques publiques et réglementaires qui pourraient affecter le développement des médicaments ».
Le JIF, indice développé par un lobby, est donc aujourd’hui promu par une société qui vend également des conseils à l’optimisation du facteur d’impact, et garde jalousement le détail de son calcul secret. Les tentatives de reverse engineering ont démontré l’incohérence des JIF publiés au regard des données brutes rendues publiques par un nombre croissant de revues.
C’est pourtant à cette boîte noire, sur laquelle se sont penchées des fées très intéressées, qu’a été donné le pouvoir exorbitant de faire et défaire la carrière des chercheurs du monde entier et de déterminer l’allocation des budgets de recherche. En France, comme dans bien d’autres États, un système de points, tenant compte du nombre de publications, du JIF de la revue et de la position du chercheur dans la liste des auteurs, décide de l’accès aux postes de chercheurs universitaires, et conditionne les budgets de recherche des hôpitaux. Avec des effets tragicomiques : ainsi un étrange mercato voit des centres hospitaliers universitaires embaucher des chercheurs juste le temps de collecter leurs points SIGAPS (Système d’interrogation, de gestion et d’analyse des publications scientifiques, points dépendant, entre autres, du JIF de la revue dans laquelle ces chercheurs auront publié) et les financements attribués en fonction du nombre de points. Mais que l’article soit refusé, et adieu veaux, vaches, SIGAPS…
Or, les revues sont des entreprises à but (très) lucratif. Elles ont une nette préférence pour les articles vendeurs : les nouvelles molécules, les études « positives » et celles à sponsor industriel faisant espérer la commande ultérieure de tirés à part par milliers, ont tout naturellement leur préférence.
Les études de réplication (qui essaient de reproduire une étude précédente), les études peu susceptibles de contribuer à développer un marché, les études « négatives » suscitent peu leur enthousiasme. La course à la publication « Publish or perish » (publier ou périr) est non seulement quantitative, mais s’aggrave d’une course à la « positivité ».
La valeur p de 0.05 de « significativité » statistique a en effet été érigée en couperet donnant accès à la publication, bien qu’elle n’ait « jamais été pensée pour être un substitut de raisonnement scientifique » déplore la société américaine de statistique, l’ASA, qui s’est fendue dans un article de juin 2016 d’un rapport sur son mésusage et d’un appel à l’abandon de cette pratique, source de fraudes et de biais éditorial.
Les techniques d’embellissement des résultats sont bien connues. Le data-dredging consiste ainsi à « nettoyer » les données afin de réduire la valeur p. Le p-harking, lui, consiste à définir, dans un second temps, l’hypothèse une fois toutes les données amassées, dessiner la cible autour des flèches déjà tirées, en somme. Cette dernière pratique est particulièrement tentante dans les études observationnelles (études qui suivent une population de patients sans tirage au sort), et le Big Data en multiplie les opportunités.
Le jeu de bonneteau des critères de jugement (outcome switching) est un autre de ces demi-mensonges qui peuvent affecter la recherche biomédicale. Il consiste à passer sous silence les critères n’ayant pas atteint le seuil de « significativité » statistique, et à mettre en avant d’autres critères, secondaires pré-spécifiés voire introduits dans un second temps, plus « présentables », même si l’étude n’a pas été conçue et dimensionnée pour cela. Le projet Compare du Center for Evidence Based Medicine d’Oxford est dédié à l’étude de cette pratique. En moyenne, selon ses données, chaque essai ne rapporterait que 58,2 % des critères spécifiés au protocole. Symétriquement, chaque article ajoute 5,3 critères non spécifiés, définis a posteriori, toujours sans en informer le lecteur. [1]
D’autres techniques, plus littéraires, consistent à produire du « spin », une présentation tendancieuse des résultats. Cette tendance se serait imposée : 84 % des articles sont touchés ; la moitié des conclusions des résumés sont même fortement enjolivées. [2]
Sans aller jusqu’à ces travestissements, un nombre croissant d’auteurs troque l’objectivité scientifique pour un discours aux accents publicitaires, au moment de rédiger leurs articles : le nombre d’adjectifs laudateurs, tendant à exagérer le caractère inédit ou l’importance des résultats est en constante augmentation, particulièrement dans les journaux à fort facteur d’impact. [3]
Le traditionnel numéro de Noël du British Medical Journal offrait en 2018 un « guide à l’usage des leaders d’opinion pour enjoliver les résultats décevants d’un essai clinique ». Listant les « excuses » fournies par des leaders d’opinion durant cinq années de congrès internationaux de cardiologie, cet article est un grand moment de réjouissance.
Comment sortir de cette inflation communicante ? L’association américaine de biologie cellulaire a lancé en 2013 DORA (Declaration on Research Assessment), un ensemble de recommandations, déclaration signée depuis par de nombreuses institutions, dont en France l’INSERM, pour retirer au facteur d’impact son rôle structurant.
Une autre piste est le préenregistrement des études : le processus de revue par les pairs et d’acceptation par les revues se fait alors sur la qualité du protocole, indépendamment de la direction des résultats. Cent quarante revues proposent aujourd’hui cette possibilité. Les premiers résultats sont intéressants, et bien qu’ils présentent sans doute un biais de sélection, ils tendent à indiquer en creux le potentiel de distorsion de la connaissance médicale lié à cette recherche constante de « positivité » : alors qu’en moyenne 5 à 20 % des essais publiés sont « négatifs », ce taux monte à 55 à 66 % parmi les essais préenregistrés. [4]
« Être journaliste, c’est imprimer quelque chose que quelqu’un d’autre ne voudrait pas voir imprimé. Tout le reste n’est que relations publiques. » écrivait George Orwell. Une leçon à méditer pour la presse biomédicale également ?