Logo Portail documentaire

Utiliser l’intelligence artificielle dans sa recherche : des recommandations pour le respect de l’intégrité scientifique

Imprimer : Imprimer au format PDF Imprimer au format HTML Partager :Partager sur Facebook Partager sur Twitter Partager sur Linkedin Partager sur Google+

Publié le : 06/01/2025 - Modifié le : 09/01/2025


Les systèmes d’intelligence artificielle générative sont aujourd’hui à la portée de tous : en quelques clics et avec un bon prompt, il est possible d’obtenir une réponse structurée, rédigée et mise en forme, souvent de bonne qualité. Parmi les outils les plus connus, il est possible de citer ChatGPT, le bot d'OpenAI, Mistral de l'entreprise française Mistral AI, Gemini de Google ou Copilot de Microsoft. 

Utiliser l’IA générative dans ses pratiques de recherche


Dès lors, il peut être intéressant de les intégrer dans ses pratiques de recherche. L’OFIS (Office français de l’intégrité scientifique) en dresse une liste dans sa fiche pratique « Systèmes d’intelligence artificielle générative : quelques points de vigilance » : 

  • Définition de la question de recherche ou de l'hypothèse de départ 
  • Développement et argumentation de l'idée originale 
  • Sélection ou création de la méthodologie de recherche 
  • Assistance à la réalisation d'expériences, traitement d’images 
  • Résumé d'articles, support à la réalisation d'états de l'art 
  • Ecriture et optimisation de codes informatiques 
  • Rédaction, traduction, formatage de textes et d’images 
  • Réalisation de bibliographies, sélection d'articles 
  • Evaluation des projets ou des manuscrits, identification de pairs 

À cette liste peut s’ajouter l’utilisation de l’IA pour traiter des données ou les interpréter, identifier des « gaps » dans la littérature scientifique ou écrire des demandes de subvention. 

Dans un contexte où la pression à publier est forte, ces outils offrent un gain de temps conséquent sur certaines activités. D’autant plus que certaines IA génératives se spécialisent dans le milieu de la recherche. Il est ainsi possible de citer des outils freemium comme Elicit, Scispace, Consensus ou Scite. 

Des limites à l’utilisation de l’IA dans le cadre de la recherche scientifique

Cependant, les systèmes d'IA générative souffrent de limites et de biais qui sont de nature à créer un conflit entre l'utilisation de ces systèmes et les principes d'une recherche intègre.

Sources d’informations et hallucinations 
Pour être efficaces, les systèmes d’IA doivent s’entraîner sur de larges corpus de textes et de données, dont il est parfois difficile de connaître la couverture exacte. Cela peut entraîner des biais (meilleure prise en compte d’une langue plutôt qu’une autre par exemple). D’autre part, les IA génératives peuvent également produire des réponses totalement inventées, appelées des hallucinations. 

Reproductibilité de la recherche et transparence des codes et algorithmes
La reproductibilité de la recherche est un principe de base de l’intégrité scientifique. Or ce principe est mis à mal par l’utilisation de l’IA. 

D’une part, les IA génératives utilisent parfois des codes et des algorithmes qui ne sont pas toujours connus et qui connaissent des changements réguliers. Dans ces cas-là, il est impossible de documenter sa recherche pour permettre de la reproduire. 

D’autre part, au-delà de cette opacité, le caractère probabiliste de la génération conduit à une variabilité des réponses, qui peuvent être différentes d’une interrogation reconduite à différents moments. Ainsi, même si le code et les algorithmes sont connus, la reproductibilité reste difficile à atteindre. 

Autorat et responsabilité scientifique 
Les IA génératives, malgré leur efficacité, ne sont que des machines et n’ont pas de responsabilité scientifique. Elles ne peuvent pas être considérées comme co-autrices d’un article. Les textes, images, codes, etc. produits par une IA sont donc sous la responsabilité du ou des utilisateurs de cet outil. 

Propriété intellectuelle et données personnelles 
Comme vu précédemment, les IA génératives s’appuient sur de grands corpus de textes, pour entraîner leur modèle et répondre aux questions qui leur sont posées. Or ces textes sont parfois sous droits : les réutiliser sans autorisation ou mention explicite des ayants-droits peut poser un problème (plagiat par exemple). De même, les informations fournies lors des interrogations des IA peuvent être réutilisées par celles-ci, posant la question de la confidentialité des données. 

Utiliser l’IA générative de manière raisonnée et intègre

Pour toutes ces raisons, il convient d’utiliser les IA génératives de manière raisonnée et transparente dans un cadre de recherche, en prenant les précautions nécessaires. 

Les éditeurs scientifiques ayant conscience du développement de l’IA et de son utilisation dans un cadre scientifique, ils proposent aujourd’hui des chartes qui balisent ce qu'ils considèrent comme un usage intègre de l'IA générative, notamment en relation avec les questions du plagiat et de l'autorat. Il est notamment possible de consulter celles proposées par Elsevier, Sage, Springer-Nature, Taylor&Francis et Wiley. 

La Commission Européenne a également publié des « Living guidelines on the responsible use of generative AI in research » sur ce sujet. Pour les chercheurs, les recommandations sont les suivantes : 

  • Conserver la responsabilité des productions scientifiques issues des IA : il faut garder une approche critique de ces outils, connaître leurs biais et leurs limites (hallucinations, approximation), ne pas les considérer comme des co-auteurs et ne pas les utiliser pour créer des matériaux scientifiques, qui pourraient être falsifiés. 
  • Être transparent dans son utilisation de l’IA : si une IA générative est utilisée, il faut indiquer l’outil utilisé, sa version et le cadre de cette utilisation. Le prompt et le résultat peuvent également être documentés. Il faut toutefois garder à l’esprit la nature aléatoire des IA, qui rend difficile la reproductibilité de la recherche. 
  • Rester attentif aux questions de données privées, de confidentialité et de droits de propriété quand des IA génératives sont utilisées : Ce point concerne à la fois les données fournies aux IA génératives et les réponses obtenues. Dans le premier cas, il faut se rappeler que tout ce qui est transmis à ces outils peut être utilisé dans un autre cadre. Outre les questions de confidentialité des productions scientifiques, les données personnelles n’ont pas vocation à être partagées avec des tiers. Dans le cadre des réponses obtenues, il faut vérifier que le texte généré ne constitue pas un plagiat ou ne contient pas de données personnelles. 
  • Limiter l’utilisation de ces outils pour des activités sensibles, comme le peer-reviewing, pour éviter toute forme d’injustice ou d’évaluation erronée issue des limites de ces outils. 
  • Continuer à s’entraîner et à se former sur ces outils. 

 

En conclusion, les systèmes d’intelligence artificielle générative sont très puissants et progressent de jour en jour. Ils peuvent constituer des aides sur certaines pratiques de recherche et ouvrir des perspectives insoupçonnées sur certains sujets. Cependant, malgré leurs évolutions récentes, ils restent des outils qui comportent des limites et des biais, pouvant fausser leur réponse ou ne donner qu’un aperçu partiel de la réalité. Il convient donc de se former à leur utilisation et de les utiliser avec précaution, en suivant les principes sur lesquels reposent l’intégrité scientifique. 

Services

Bibliothèque d'étude

09:00 - 22:00

399
places disponibles

Bibliothèque de recherche

09:00 - 20:00

74
places disponibles