Déclaration de positionnement sur l'utilisation de l'intelligence artificielle dans la synthèse des données probantes

Edito

Déclaration de positionnement sur l'utilisation de l'intelligence artificielle (IA) dans la synthèse des données probantes de Cochrane, la collaboration Campbell, JBI et la Collaboration for Environmental Evidence 2025.

Ella FlemyngAnna Noel-StorrBiljana MacuraGerald GartlehnerJames ThomasJoerg J. MeerpohlZoe JordanJan MinxAngelika Eisele-MetzgerCandyce HamelPaweł JemiołoKylie PorrittMatthew Grainger

Déclarations d'intérêt des auteurs et autrices

Version publiée : 11 novembre 2025

https://doi.org/10.1002/14651858.ED000178

original image

Principaux messages :

  1. Les spécialistes en synthèse des données probantes sont responsables en dernier ressort de leurs synthèses, y compris de la décision d'utiliser l'intelligence artificielle (IA) et l'automatisation, et de veiller au respect des normes juridiques et éthiques.
  2. Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence soutiennent les objectifs des recommandations de Responsible use of AI in evidence SynthEsis (RAISE, utilisation responsable de l'IA dans les synthèses des données probantes), qui fournissent un cadre pour garantir une utilisation responsable de l'IA et de l'automatisation dans tous les rôles au sein de l'écosystème de la synthèse des données probantes.
  3. Les spécialistes en synthèse des données probantes qui élaborent et publient des synthèses avec Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence peuvent utiliser l'IA et l'automatisation tant qu'ils et elles peuvent démontrer que cela ne compromettra pas la rigueur méthodologique ou l'intégrité de leur synthèse.
  4. L’utilisation de l'IA et l'automatisation dans la synthèse des données probantes doit être supervisée par un être humain.
  5. Toute utilisation de l'IA ou de l'automatisation qui émet ou suggère des jugements doit être signalée de manière complète et transparente dans le rapport de synthèse des données probantes.
  6. Les personnels développeurs d'outils d'IA devraient veiller de manière proactive à ce que leurs systèmes ou outils d'IA adhèrent aux recommandations RAISE afin que nous disposions d'informations claires, transparentes et accessibles au public pour éclairer les décisions sur si un système ou un outil d'IA pourrait et devrait être utilisé dans la synthèse des données probantes.

Les synthèses de données probantes, y compris les revues systématiques, sont un type de recherche qui utilise des méthodes systématiques et reproductibles pour évaluer toutes les données disponibles sur une question spécifique. Elles reposent sur les principes de l'intégrité de la recherche, notamment la rigueur, la transparence et la reproductibilité. Il est largement reconnu que l'intelligence artificielle (IA) et l'automatisation ont le potentiel de transformer la façon dont nous produisons des synthèses de données probantes, en rendant le processus considérablement plus efficace. Cependant, cette technologie est potentiellement perturbatrice, caractérisée par une prise de décision opaque et des prédictions en boîte noire, susceptible d'être surajoutée, potentiellement intégrée à des biais algorithmiques et exposée au risque de résultats fabriqués et d'hallucinations. Afin de préserver la synthèse des données probantes en tant que pierre angulaire d'une prise de décision fiable et fondée sur des données probantes, Cochrane, la Campbell Collaboration, JBI et la Collaboration for Environmental Evidence (CEE) se sont réunies pour collaborer à une approche responsable et pragmatique de l'utilisation de l'IA dans la synthèse des données probantes.

Par « IA », nous entendons différents types d'automatisation, tels que décrits dans les recommandations de Responsible use of AI in evidence SynthEsis (RAISE) [1]. Plus précisément, il s'agit de « technologies avancées qui permettent aux machines d'accomplir efficacement des tâches très complexes - qui nécessiteraient de l'intelligence si une personne devait les accomplir ». Cela va des applications d'automatisation générales, telles que les algorithmes d'apprentissage automatique basés sur des règles ou formés, aux grands modèles de langage plus récents et aux approches d'IA générative.

L'intégration de l'IA dans la synthèse des données probantes s'accompagne de défis, mais aussi d'opportunités. S'il est clair que nous devons mieux utiliser l'IA pour que la synthèse des données probantes devienne plus opportune, abordable et durable, nous devons également reconnaître les coûts environnementaux et sociaux associés à certaines formes d'IA, en particulier les grands modèles de langage. Il existe des risques qu'une mauvaise utilisation puisse éroder les normes méthodologiques en exacerbant les biais existants et en réduisant la fiabilité [13]. Ces préoccupations sont d'autant plus pertinentes que les développements actuels de l'IA sont souvent motivés par des intérêts commerciaux et, en tant que tels, sont souvent opaques en ce qui concerne les limites et manquent d'une validation et d'une évaluation appropriées. Dans l'ensemble, cela compromet la fiabilité et la reproductibilité des résultats obtenus grâce à l'IA.

À cette fin, Cochrane, la Campbell Collaboration, JBI et le CEE se sont réunis pour former un groupe méthodologique commun sur l'IA [4]. Le groupe soutient officiellement les objectifs RAISE [1], selon lesquels nous devons travailler ensemble pour veiller à ce que l'IA ne compromette pas les principes d'intégrité de la recherche sur lesquels la synthèse des données probantes a été construite. RAISE propose des recommandations adaptées aux rôles de l'ensemble de l'écosystème de la synthèse des données probantes : des spécialistes en synthèse des données probantes aux méthodologistes ; des équipes de développement de l'IA aux organisations ou équipes d’édition impliquées dans la synthèse des données probantes. Il s'agit d'une première étape visant à clarifier les responsabilités de chacun et chacune afin de garantir une utilisation sûre et responsable de l'IA. Bien que chacune de nos organisations dispose de ressources et d'infrastructures différentes et que, par conséquent, notre approche de la mise en œuvre des recommandations RAISE puisse différer, notre objectif est de nous aligner sur les principes des meilleures pratiques et de partager les enseignements tirés des approches efficaces.

Les recommandations RAISE et notre position sur l'utilisation de l'IA pour les personnes qui rédigent des synthèses de données probantes avec nos organismes (tableau 1) continueront d'évoluer au fur et à mesure de l'évolution du domaine et des données probantes. Nous recommandons que la version la plus récente des recommandations RAISE [1] et cette prise de position publiée soient systématiquement utilisées.

Tableau 1. Position de Cochrane, de la Campbell Collaboration, de JBI et de la Collaboration for Environmental Evidence pour les spécialistes en synthèse des données probantes sur l'utilisation de l'IA basée sur les recommandations de la Responsible use of AI in evidence SynthEsis (RAISE) (version 2.1 en cours de développement au 22 septembre 2025).

Recommandation RAISE

Orientations complémentaires

Rester responsable en dernier ressort de la synthèse des données probantes

  1. Un auteur ou autrice est responsable du contenu, des méthodes et des résultats de sa synthèse de données probantes, y compris de la décision d'utiliser l'IA, de la manière dont elle est utilisée et de son impact sur la synthèse.
  2. Lorsque vous envisagez d'utiliser un système ou un outil d'IA, soyez critique à l'égard de ses évaluations [5], afin de comprendre s'il fait ce qu'il dit à un niveau adéquat, ainsi que ses limites et s'il peut être appliqué au contexte de la synthèse spécifique [6].
  3. L'utilisation de l'IA doit être justifiée et devrait démontrer que les outils sont méthodologiquement valables, qu'ils ne nuisent pas à la fiabilité de la synthèse ou de ses conclusions, et qu'il est approprié d'utiliser un système ou un outil d'IA spécifique dans le contexte de la synthèse des données probantes en question.

Signaler de manière transparente l'utilisation de l'IA dans votre manuscrit de synthèse des données probantes.

  1. Les auteurs et autrices peuvent utiliser l'IA dans leurs synthèses et pour préparer leur manuscrit [78910].
  2. Les auteurs et autrices doivent déclarer qu'ils et elles ont utilisé l'IA si celle-ci émet ou suggère des jugements, notamment en ce qui concerne l'admissibilité d'une étude, les évaluations (y compris les évaluations du risque de biais), l'extraction de données bibliographiques, numériques ou qualitatives d'une étude ou de ses résultats, la synthèse de données provenant de deux études ou plus, les évaluations de la certitude des données (y compris les domaines GRADE ou les notes de certitude globales pour un résultat ou une constatation), la rédaction d'un texte résumant la force globale des données probantes, les implications connexes pour la prise de décision ou la recherche, ou les résumés en langage clair. En général, l'IA utilisée pour améliorer l'orthographe, la grammaire ou la structure du manuscrit ne doit pas être mentionnée, mais nous recommandons aux auteurs et autrices de vérifier la politique spécifique de la revue pour s'assurer qu'elle est respectée.
  3. Respecter les normes de rapport établies utilisées par chaque revue, telles que PRISMA [11] ou ROSES [12]. PRISMA, par exemple, comprend des éléments sur les outils d'automatisation des rapports utilisés à différents stades du processus de synthèse. Cela doit être indiqué dans la section spécifiée par chaque revue, comme les remerciements, les méthodes ou une section spécifique pour la divulgation de l'utilisation de l'IA. Si ces détails sont nombreux ou si l'IA est utilisée à plusieurs étapes du processus de synthèse, envisagez d'utiliser des documents supplémentaires ou une présentation sous forme de tableau, ou les deux. En général, les auteurs et autrices doivent signaler les éléments suivants.
    1. Le nom du ou des systèmes, outils ou plateformes d'IA, la ou les versions et la ou les dates d'utilisation.
    2. L'objectif de l'utilisation de l'IA et les parties du processus de synthèse des données probantes qui ont été affectées. Citer ou référencer le guide de l'utilisateur ou indiquer comment l'IA a été utilisée, y compris les modifications apportées.
    3. La justification de l'utilisation de l'IA, y compris la preuve que le système ou l'outil d'IA est méthodologiquement solide et ne nuira pas à la fiabilité de la synthèse ou de ses conclusions (par exemple, en citant ou en référençant des évaluations de ses performances qui détaillent l'impact des erreurs, les limites et la généralisabilité) et la façon dont il a été validé (et piloté, le cas échéant) pour s'assurer qu'il est approprié pour une utilisation dans le contexte de la synthèse de données probantes spécifique. Chaque fois que cela est possible et pratique, il convient de mettre à la disposition du public et gratuitement les intrants (par exemple, le développement rapide), les résultats, les ensembles de données et le code (par exemple, dans des référentiels ou en tant que matériel supplémentaire) et de décrire toutes les mesures prises pour vérifier les résultats générés par l'IA.
    4. Tous les intérêts financiers et non financiers que les spécialistes en synthèse des données probantes ont dans le système ou l'outil d'IA, ainsi que les sources de financement du système ou de l'outil d'IA.
    5. Les limites éventuelles de l'utilisation de l'IA dans les processus de revues, y compris les biais potentiels. Commenter l'impact potentiel de chaque limitation.

Veiller au respect des normes éthiques, juridiques et réglementaires lors de l'utilisation de l'IA

Veiller au respect des normes éthiques, juridiques et réglementaires dans le cadre de l'application de l'IA à votre synthèse. Par exemple, être conscient des questions relatives au plagiat, à la provenance, aux droits d'auteur, à la propriété intellectuelle, à la juridiction, aux licences ; et aux responsabilités en matière de confidentialité, de conformité et de respect de la vie privée, y compris les lois sur la protection des données [6].

La manière de justifier l'utilisation de l'IA dans une synthèse spécifique est un domaine clé pour lequel des orientations supplémentaires sont nécessaires. Lors de l'élaboration d'un protocole, les spécialistes en synthèse des données probantes doivent prendre en compte de nombreux compromis potentiels, souvent liés à l'équilibre entre la capacité et la disponibilité des ressources et les questions d'urgence, de pertinence et de portée. Il peut être utile de considérer l'utilisation de l'IA comme une décision de compromis supplémentaire que vous devez prendre. Dans le cadre de cette décision, les spécialistes en synthèse des données probantes doivent tenir compte du contexte de leur synthèse (par exemple, qui l'utilisera et à quoi elle servira), de la tolérance au risque d'erreurs affectant les résultats ou les conclusions de la synthèse, et des stratégies potentielles d'atténuation des risques disponibles.

Dans certains contextes, l'utilisation de l'IA peut améliorer la qualité de la synthèse des données probantes et aider à résoudre certains des compromis inhérents à l'accélération des délais. Le groupe systématique Cochrane sur les méthodes de revue systématique Cochrane a rédigé une prise de position distincte à ce sujet (actuellement en cours d'examen rédactionnel). Par exemple, la sélection des résumés dans les revues rapides est souvent effectuée par un seul auteur de la revue, ce qui comporte un risque estimé à 13 % d'exclure à tort une étude pertinente [13]. L'utilisation de l'IA comme seconde « revue » pourrait contribuer à réduire ce risque.

Pour que les spécialistes en synthèse des données probantes puissent prendre des décisions éclairées, les personnels développeurs d'outils d'IA doivent veiller à ce qu'il existe des informations accessibles au public et transparentes sur le système ou les outils d'IA [6]. Nos organisations appellent donc les personnels développeurs d'outils d'IA à adhérer de manière proactive aux recommandations RAISE [1], en veillant notamment à ce qu'il y ait :

  1. des informations claires et publiques sur le fonctionnement du système ou de l'outil d'IA, ainsi que les conditions d'utilisation ;
  2. des évaluations des essais, de la formation et de la validation accessibles au public, avec des rapports complets et transparents, y compris la portée, le domaine, les sources, les méthodes, etc. des données utilisées dans chaque évaluation. [5] ; et
  3. des informations publiques et transparentes sur les forces et les limites du système ou de l'outil d'IA, y compris les éventuels biais, qui concernent la portée, les domaines et l'étendue des données utilisées pour la formation, les tests et la validation.

Les études d'évaluation et de validation sont essentielles pour déterminer si un système ou un outil d'IA fonctionne à un niveau adéquat pour les synthèses de données probantes en général, ainsi que pour les sujets spécifiques abordés dans une synthèse donnée. Bien que les concepteurs d'outils d'IA soient responsables de l'évaluation de leurs outils et systèmes, des évaluations par des méthodologistes indépendants qui n'ont pas de conflit d'intérêts dans leur performance devraient également être envisagées chaque fois qu'elles sont disponibles. Des conditions claires sont essentielles pour garantir que les spécialistes en synthèse des données probantes puissent respecter les normes éthiques, juridiques et réglementaires. Les informations sur le système et sur l'étendue et les domaines des données utilisées pour la formation, les essais et la validation aideront les spécialistes en synthèse des données probantes à comprendre les points forts et les limites du système, et à déterminer dans quelle mesure il s'appliquera à leur synthèse. Par exemple, plus le champ d'application et les domaines sont similaires à votre synthèse, plus vous pourrez l'utiliser en toute confiance. Les biais peuvent inclure l'utilisation de données en anglais uniquement ou en accès libre uniquement dans les étapes de formation et de test, ce qui peut être important ou non dans le contexte de la synthèse. Par ailleurs, l'utilisation dûment justifiée d'un système ou d'un outil d'IA dans une autre synthèse de données probantes de portée similaire pourrait constituer la base de votre justification pour l'utiliser. Selon le degré de certitude d'une personne réalisant des synthèses de données probantes quant à l'utilisation d'un système ou d'un outil d'IA dans sa synthèse, elle peut avoir besoin de piloter (ou de calibrer) le système ou l'outil d'IA pour valider sa performance dans sa synthèse de données probantes, afin de s'assurer que son utilisation ne nuira pas à la fiabilité ou à la fiabilité de la synthèse ou de ses conclusions. Cela nécessite un investissement initial de la part de l'équipe d'auteurs en termes de temps, d'efforts et de compétences, de sorte qu'une décision devra être prise pour déterminer si l'effort vaut le gain potentiel.

Ce processus de prise en compte du compromis est la base pour assurer une supervision humaine dans la décision et l'application de l'IA dans la synthèse des données probantes. Des travaux sont en cours pour développer un cadre qui guide les spécialistes en synthèse des données probantes à travers ces considérations, afin que les décisions puissent être prises de manière transparente et cohérente.

La décision d'utiliser l'IA doit être prise en compte et signalée dans le cadre de l'élaboration du protocole. Vous trouverez ci-dessous un modèle de rapport générique qui pourrait être utilisé :

Nous utiliserons [nom du système/outil/approche d'IA, version, date] développé par [organisation/développeur] pour [objectif(s) spécifique(s)] dans [le processus de synthèse des données probantes]. Le [système/outil/approche d'IA] [indiquera qu'il sera utilisé conformément au guide de l'utilisateur et inclura une référence, et/ou décrira brièvement toute personnalisation, formation ou paramètre à appliquer]. Il est justifié d'utiliser les résultats du [système/outil/approche AI] dans notre synthèse parce que [décrivez comment vous avez déterminé qu'il est méthodologiquement valable et qu'il ne nuira pas à la fiabilité de la synthèse ou de ses conclusions et comment il a été validé ou calibré pour garantir qu'il est approprié pour une utilisation dans le contexte de la synthèse des données probantes spécifique, s'il n'est pas couvert dans le guide de l'utilisateur, les évaluations ou ailleurs]. Les limites [du système, de l'outil ou de l'approche d'IA] comprennent [décrire les limites connues, les biais potentiels et les préoccupations éthiques] / [sont incluses dans les documents complémentaires]. Une description détaillée de la méthodologie, y compris les paramètres et les procédures de validation, est disponible dans [matériel supplémentaire].

Nous comprenons qu'il s'agit là d'une nouvelle frontière à franchir pour les spécialistes en synthèse des données probantes. Comment savoir s'il est approprié et sûr d'utiliser l'IA dans votre synthèse ? Outre les recommandations pour les différents rôles dans l'écosystème de la synthèse des données probantes, RAISE comprend également des orientations pour la mise en œuvre des recommandations dans la pratique, couvrant la construction et la validation des systèmes et outils d'IA, la réalisation d'évaluations pour construire une base de données probantes cumulatives pour l'utilisation de l'IA, les mesures de performance pour les évaluations de l'IA, l'état actuel de l'IA disponible pour la synthèse des données probantes, la sélection et l'utilisation de l'IA dans votre synthèse des données probantes, et les considérations éthiques, juridiques et réglementaires lors de l'utilisation de l'IA [156].

En fin de compte, les spécialistes en synthèse des données probantes sont responsables de leur travail, de la manière dont ils utilisent l'IA et de toutes les implications, y compris sociales et environnementales. Nos organisations et le groupe des méthodes communes s'engagent à améliorer les connaissances de nos auteurs et éditeurs en matière d'IA afin de les aider à prendre les décisions relatives à l'utilisation de l'IA. Nous alignons notre travail sur les développements en cours dans l'écosystème, y compris l'Infrastructure collaborative de synthèse des données probantes. [14], l'initiative RAISE [1] et le projet Digital Evidence Synthesis Tool INnovation for Yielding Improvements in Climate & Health (DESTINY). [15], entre autres. Il s'agit de s'assurer que les membres de Cochrane, de la Campbell Collaboration, de JBI et de CEE, ainsi que le domaine plus large, disposent des ressources et des conseils nécessaires pour utiliser l'IA de manière responsable, efficace et équitable dans le cadre de leurs synthèses de données probantes.

 

--

Flemyng E, Noel-Storr A, Macura B, Gartlehner G, Thomas J, Meerpohl JJ, Jordan Z, Minx J, Eisele-Metzger A, Hamel C, Jemioło P, Porritt K, Grainger M. 
Position statement on artificial intelligence (AI) use in evidence synthesis across Cochrane, the Campbell Collaboration, JBI and the Collaboration for Environmental Evidence 2025. 
Cochrane Database of Systematic Reviews 2025, Issue 10. Art. No.: ED000178. 
DOI: 10.1002/14651858.ED000178.