Edito
Déclaration de positionnement sur l'utilisation de l'intelligence artificielle (IA) dans la synthèse des données probantes de Cochrane, la collaboration Campbell, JBI et la Collaboration for Environmental Evidence 2025.
Ella Flemyng, Anna Noel-Storr, Biljana Macura, Gerald Gartlehner, James Thomas, Joerg J. Meerpohl, Zoe Jordan, Jan Minx, Angelika Eisele-Metzger, Candyce Hamel, Paweł Jemioło, Kylie Porritt, Matthew Grainger
Déclarations d'intérêt des auteurs et autrices
Version publiée : 11 novembre 2025
https://doi.org/10.1002/14651858.ED000178

Principaux messages :
- Les spécialistes en synthèse des données probantes sont responsables en dernier ressort de leurs synthèses, y compris de la décision d'utiliser l'intelligence artificielle (IA) et l'automatisation, et de veiller au respect des normes juridiques et éthiques.
- Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence soutiennent les objectifs des recommandations de Responsible use of AI in evidence SynthEsis (RAISE, utilisation responsable de l'IA dans les synthèses des données probantes), qui fournissent un cadre pour garantir une utilisation responsable de l'IA et de l'automatisation dans tous les rôles au sein de l'écosystème de la synthèse des données probantes.
- Les spécialistes en synthèse des données probantes qui élaborent et publient des synthèses avec Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence peuvent utiliser l'IA et l'automatisation tant qu'ils et elles peuvent démontrer que cela ne compromettra pas la rigueur méthodologique ou l'intégrité de leur synthèse.
- L’utilisation de l'IA et l'automatisation dans la synthèse des données probantes doit être supervisée par un être humain.
- Toute utilisation de l'IA ou de l'automatisation qui émet ou suggère des jugements doit être signalée de manière complète et transparente dans le rapport de synthèse des données probantes.
- Les personnels développeurs d'outils d'IA devraient veiller de manière proactive à ce que leurs systèmes ou outils d'IA adhèrent aux recommandations RAISE afin que nous disposions d'informations claires, transparentes et accessibles au public pour éclairer les décisions sur si un système ou un outil d'IA pourrait et devrait être utilisé dans la synthèse des données probantes.
Les synthèses de données probantes, y compris les revues systématiques, sont un type de recherche qui utilise des méthodes systématiques et reproductibles pour évaluer toutes les données disponibles sur une question spécifique. Elles reposent sur les principes de l'intégrité de la recherche, notamment la rigueur, la transparence et la reproductibilité. Il est largement reconnu que l'intelligence artificielle (IA) et l'automatisation ont le potentiel de transformer la façon dont nous produisons des synthèses de données probantes, en rendant le processus considérablement plus efficace. Cependant, cette technologie est potentiellement perturbatrice, caractérisée par une prise de décision opaque et des prédictions en boîte noire, susceptible d'être surajoutée, potentiellement intégrée à des biais algorithmiques et exposée au risque de résultats fabriqués et d'hallucinations. Afin de préserver la synthèse des données probantes en tant que pierre angulaire d'une prise de décision fiable et fondée sur des données probantes, Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence (CEE) se sont réunies pour collaborer à une approche responsable et pragmatique de l'utilisation de l'IA dans la synthèse des données probantes.
Par « IA », nous entendons différents types d'automatisation, tels que décrits dans les recommandations de Responsible use of AI in evidence SynthEsis (RAISE) [1]. Plus précisément, il s'agit de « technologies avancées qui permettent aux machines d'accomplir efficacement des tâches très complexes - qui nécessiteraient de l'intelligence si une personne devait les accomplir ». Cela va des applications d'automatisation générales, telles que les algorithmes d'apprentissage automatique basés sur des règles ou formés, aux grands modèles de langage plus récents et aux approches d'IA générative.
L'intégration de l'IA dans la synthèse des données probantes s'accompagne de défis, mais aussi d'opportunités. S'il est clair que nous devons mieux utiliser l'IA pour que la synthèse des données probantes devienne plus opportune, abordable et durable, nous devons également reconnaître les coûts environnementaux et sociaux associés à certaines formes d'IA, en particulier les grands modèles de langage. Il existe des risques qu'une mauvaise utilisation puisse éroder les normes méthodologiques en exacerbant les biais existants et en réduisant la fiabilité [1, 3]. Ces préoccupations sont d'autant plus pertinentes que les développements actuels de l'IA sont souvent motivés par des intérêts commerciaux et, en tant que tels, sont souvent opaques en ce qui concerne les limites et manquent d'une validation et d'une évaluation appropriées. Dans l'ensemble, cela compromet la fiabilité et la reproductibilité des résultats obtenus grâce à l'IA.
À cette fin, Cochrane, la Campbell Collaboration, JBI et le CEE se sont réunis pour former un groupe méthodologique commun sur l'IA [4]. Le groupe soutient officiellement les objectifs RAISE [1], selon lesquels nous devons travailler ensemble pour veiller à ce que l'IA ne compromette pas les principes d'intégrité de la recherche sur lesquels la synthèse des données probantes a été construite. RAISE propose des recommandations adaptées aux rôles de l'ensemble de l'écosystème de la synthèse des données probantes : des spécialistes en synthèse des données probantes aux méthodologistes ; des équipes de développement de l'IA aux organisations ou équipes d’édition impliquées dans la synthèse des données probantes. Il s'agit d'une première étape visant à clarifier les responsabilités de chacun et chacune afin de garantir une utilisation sûre et responsable de l'IA. Bien que chacune de nos organisations dispose de ressources et d'infrastructures différentes et que, par conséquent, notre approche de la mise en œuvre des recommandations RAISE puisse différer, notre objectif est de nous aligner sur les principes des meilleures pratiques et de partager les enseignements tirés des approches efficaces.
Les recommandations RAISE et notre position sur l'utilisation de l'IA pour les personnes qui rédigent des synthèses de données probantes avec nos organismes (tableau 1) continueront d'évoluer au fur et à mesure de l'évolution du domaine et des données probantes. Nous recommandons que la version la plus récente des recommandations RAISE [1] et cette prise de position publiée soient systématiquement utilisées.
Tableau 1. Position de Cochrane, de la Campbell Collaboration, de JBI et de la Collaboration for Environmental Evidence pour les spécialistes en synthèse des données probantes sur l'utilisation de l'IA basée sur les recommandations de la Responsible use of AI in evidence SynthEsis (RAISE) (version 2.1 en cours de développement au 22 septembre 2025).
Recommandation RAISE | Orientations complémentaires |
|---|---|
Rester responsable en dernier ressort de la synthèse des données probantes |
|
Signaler de manière transparente l'utilisation de l'IA dans votre manuscrit de synthèse des données probantes. |
|
Veiller au respect des normes éthiques, juridiques et réglementaires lors de l'utilisation de l'IA | Veiller au respect des normes éthiques, juridiques et réglementaires dans le cadre de l'application de l'IA à votre synthèse. Par exemple, être conscient des questions relatives au plagiat, à la provenance, aux droits d'auteur, à la propriété intellectuelle, à la juridiction, aux licences ; et aux responsabilités en matière de confidentialité, de conformité et de respect de la vie privée, y compris les lois sur la protection des données [6]. |
La manière de justifier l'utilisation de l'IA dans une synthèse spécifique est un domaine clé pour lequel des orientations supplémentaires sont nécessaires. Lors de l'élaboration d'un protocole, les spécialistes en synthèse des données probantes doivent prendre en compte de nombreux compromis potentiels, souvent liés à l'équilibre entre la capacité et la disponibilité des ressources et les questions d'urgence, de pertinence et de portée. Il peut être utile de considérer l'utilisation de l'IA comme une décision de compromis supplémentaire que vous devez prendre. Dans le cadre de cette décision, les spécialistes en synthèse des données probantes doivent tenir compte du contexte de leur synthèse (par exemple, qui l'utilisera et à quoi elle servira), de la tolérance au risque d'erreurs affectant les résultats ou les conclusions de la synthèse, et des stratégies potentielles d'atténuation des risques disponibles.
Dans certains contextes, l'utilisation de l'IA peut améliorer la qualité de la synthèse des données probantes et aider à résoudre certains des compromis inhérents à l'accélération des délais. Le groupe systématique Cochrane sur les méthodes de revue systématique Cochrane a rédigé une prise de position distincte à ce sujet (actuellement en cours d'examen rédactionnel). Par exemple, la sélection des résumés dans les revues rapides est souvent effectuée par un seul auteur de la revue, ce qui comporte un risque estimé à 13 % d'exclure à tort une étude pertinente [13]. L'utilisation de l'IA comme seconde « revue » pourrait contribuer à réduire ce risque.
Pour que les spécialistes en synthèse des données probantes puissent prendre des décisions éclairées, les personnels développeurs d'outils d'IA doivent veiller à ce qu'il existe des informations accessibles au public et transparentes sur le système ou les outils d'IA [6]. Nos organisations appellent donc les personnels développeurs d'outils d'IA à adhérer de manière proactive aux recommandations RAISE [1], en veillant notamment à ce qu'il y ait :
- des informations claires et publiques sur le fonctionnement du système ou de l'outil d'IA, ainsi que les conditions d'utilisation ;
- des évaluations des essais, de la formation et de la validation accessibles au public, avec des rapports complets et transparents, y compris la portée, le domaine, les sources, les méthodes, etc. des données utilisées dans chaque évaluation. [5] ; et
- des informations publiques et transparentes sur les forces et les limites du système ou de l'outil d'IA, y compris les éventuels biais, qui concernent la portée, les domaines et l'étendue des données utilisées pour la formation, les tests et la validation.
Les études d'évaluation et de validation sont essentielles pour déterminer si un système ou un outil d'IA fonctionne à un niveau adéquat pour les synthèses de données probantes en général, ainsi que pour les sujets spécifiques abordés dans une synthèse donnée. Bien que les concepteurs d'outils d'IA soient responsables de l'évaluation de leurs outils et systèmes, des évaluations par des méthodologistes indépendants qui n'ont pas de conflit d'intérêts dans leur performance devraient également être envisagées chaque fois qu'elles sont disponibles. Des conditions claires sont essentielles pour garantir que les spécialistes en synthèse des données probantes puissent respecter les normes éthiques, juridiques et réglementaires. Les informations sur le système et sur l'étendue et les domaines des données utilisées pour la formation, les essais et la validation aideront les spécialistes en synthèse des données probantes à comprendre les points forts et les limites du système, et à déterminer dans quelle mesure il s'appliquera à leur synthèse. Par exemple, plus le champ d'application et les domaines sont similaires à votre synthèse, plus vous pourrez l'utiliser en toute confiance. Les biais peuvent inclure l'utilisation de données en anglais uniquement ou en accès libre uniquement dans les étapes de formation et de test, ce qui peut être important ou non dans le contexte de la synthèse. Par ailleurs, l'utilisation dûment justifiée d'un système ou d'un outil d'IA dans une autre synthèse de données probantes de portée similaire pourrait constituer la base de votre justification pour l'utiliser. Selon le degré de certitude d'une personne réalisant des synthèses de données probantes quant à l'utilisation d'un système ou d'un outil d'IA dans sa synthèse, elle peut avoir besoin de piloter (ou de calibrer) le système ou l'outil d'IA pour valider sa performance dans sa synthèse de données probantes, afin de s'assurer que son utilisation ne nuira pas à la fiabilité ou à la fiabilité de la synthèse ou de ses conclusions. Cela nécessite un investissement initial de la part de l'équipe d'auteurs en termes de temps, d'efforts et de compétences, de sorte qu'une décision devra être prise pour déterminer si l'effort vaut le gain potentiel.
Ce processus de prise en compte du compromis est la base pour assurer une supervision humaine dans la décision et l'application de l'IA dans la synthèse des données probantes. Des travaux sont en cours pour développer un cadre qui guide les spécialistes en synthèse des données probantes à travers ces considérations, afin que les décisions puissent être prises de manière transparente et cohérente.
La décision d'utiliser l'IA doit être prise en compte et signalée dans le cadre de l'élaboration du protocole. Vous trouverez ci-dessous un modèle de rapport générique qui pourrait être utilisé :
Nous utiliserons [nom du système/outil/approche d'IA, version, date] développé par [organisation/développeur] pour [objectif(s) spécifique(s)] dans [le processus de synthèse des données probantes]. Le [système/outil/approche d'IA] [indiquera qu'il sera utilisé conformément au guide de l'utilisateur et inclura une référence, et/ou décrira brièvement toute personnalisation, formation ou paramètre à appliquer]. Il est justifié d'utiliser les résultats du [système/outil/approche AI] dans notre synthèse parce que [décrivez comment vous avez déterminé qu'il est méthodologiquement valable et qu'il ne nuira pas à la fiabilité de la synthèse ou de ses conclusions et comment il a été validé ou calibré pour garantir qu'il est approprié pour une utilisation dans le contexte de la synthèse des données probantes spécifique, s'il n'est pas couvert dans le guide de l'utilisateur, les évaluations ou ailleurs]. Les limites [du système, de l'outil ou de l'approche d'IA] comprennent [décrire les limites connues, les biais potentiels et les préoccupations éthiques] / [sont incluses dans les documents complémentaires]. Une description détaillée de la méthodologie, y compris les paramètres et les procédures de validation, est disponible dans [matériel supplémentaire].
Nous comprenons qu'il s'agit là d'une nouvelle frontière à franchir pour les spécialistes en synthèse des données probantes. Comment savoir s'il est approprié et sûr d'utiliser l'IA dans votre synthèse ? Outre les recommandations pour les différents rôles dans l'écosystème de la synthèse des données probantes, RAISE comprend également des orientations pour la mise en œuvre des recommandations dans la pratique, couvrant la construction et la validation des systèmes et outils d'IA, la réalisation d'évaluations pour construire une base de données probantes cumulatives pour l'utilisation de l'IA, les mesures de performance pour les évaluations de l'IA, l'état actuel de l'IA disponible pour la synthèse des données probantes, la sélection et l'utilisation de l'IA dans votre synthèse des données probantes, et les considérations éthiques, juridiques et réglementaires lors de l'utilisation de l'IA [1, 5, 6].
En fin de compte, les spécialistes en synthèse des données probantes sont responsables de leur travail, de la manière dont ils utilisent l'IA et de toutes les implications, y compris sociales et environnementales. Nos organisations et le groupe des méthodes communes s'engagent à améliorer les connaissances de nos auteurs et éditeurs en matière d'IA afin de les aider à prendre les décisions relatives à l'utilisation de l'IA. Nous alignons notre travail sur les développements en cours dans l'écosystème, y compris l'Infrastructure collaborative de synthèse des données probantes. [14], l'initiative RAISE [1] et le projet Digital Evidence Synthesis Tool INnovation for Yielding Improvements in Climate & Health (DESTINY). [15], entre autres. Il s'agit de s'assurer que les membres de Cochrane, de la Campbell Collaboration, de JBI et de CEE, ainsi que le domaine plus large, disposent des ressources et des conseils nécessaires pour utiliser l'IA de manière responsable, efficace et équitable dans le cadre de leurs synthèses de données probantes.
--
Flemyng E, Noel-Storr A, Macura B, Gartlehner G, Thomas J, Meerpohl JJ, Jordan Z, Minx J, Eisele-Metzger A, Hamel C, Jemioło P, Porritt K, Grainger M.
Position statement on artificial intelligence (AI) use in evidence synthesis across Cochrane, the Campbell Collaboration, JBI and the Collaboration for Environmental Evidence 2025.
Cochrane Database of Systematic Reviews 2025, Issue 10. Art. No.: ED000178.
DOI: 10.1002/14651858.ED000178.