Les défis de l’utilisation de l’IA dans l’édition universitaire

Une étude récente publiée dans la revue académique Resources Policy a mis en évidence l’impact du commerce électronique sur l’efficacité des combustibles fossiles dans les pays en développement. Cependant, une phrase intrigante dans le rapport a attiré l’attention des lecteurs : « Veuillez noter qu’en tant que modèle de langage d’IA, je ne suis pas en mesure de générer des tableaux spécifiques ou d’effectuer des tests, les résultats réels doivent donc être inclus dans le tableau. »

Cette déclaration ressemblait à une phrase courante utilisée par le chatbot IA génératif ChatGPT, qui reconnaît fréquemment ses limites dans la fourniture de certaines informations. Après que la phrase a été partagée sur les réseaux sociaux, Elsevier, l’éditeur de la revue, a lancé une enquête sur l’utilisation potentielle de l’IA dans l’article.

Elsevier autorise l’utilisation d’outils d’IA pour l’aide à la rédaction, mais exige la divulgation de cette utilisation. Bien que les auteurs de l’étude n’aient pas répondu aux demandes de renseignements, Elsevier a confirmé qu’il coopérait avec eux pour remédier à la situation. L’éditeur n’a pas fourni plus de détails sur la manière dont il prévoit de résoudre le problème, citant l’enquête en cours.

Cet incident met en lumière les défis auxquels sont confrontées les revues universitaires concernant les soumissions qui peuvent avoir été influencées ou produites par des outils d’IA générative. Différentes revues ont adopté des approches différentes pour résoudre ce problème. Par exemple, le réseau JAMA interdit de répertorier les générateurs d’IA en tant qu’auteurs et exige la divulgation de leur utilisation. Les revues scientifiques s’abstiennent d’utiliser du contenu généré par l’IA sans autorisation éditoriale, tandis que PLOS ONE exige des informations détaillées sur l’outil d’IA utilisé, sa mise en œuvre et l’évaluation des informations générées. La nature a interdit les images et les vidéos générées par l’IA et exige la divulgation de l’utilisation du modèle de langage.

A lire  Accélération de l'adoption avec les dernières offres de Nvidia

Les experts reconnaissent les avantages potentiels de l’utilisation de l’IA générative dans la rédaction universitaire, tels que l’amélioration de l’efficacité et la clarté des résultats de la recherche. Cependant, l’exactitude et la crédibilité du contenu généré par l’IA suscitent des inquiétudes. Si l’IA est utilisée sans vérification ni divulgation appropriées, cela pourrait entraîner des problèmes de crédibilité, des problèmes de plagiat et la propagation de fausses informations dans la rédaction scientifique.

Actuellement, il n’existe pas de méthode infaillible pour détecter l’utilisation de l’IA dans l’édition universitaire, contrairement à la détection du plagiat. Cependant, la divulgation accidentelle dans le document sur la politique des ressources suggère que l’utilisation de l’IA dans l’édition universitaire pourrait être plus répandue qu’on ne le pensait initialement. Des chercheurs, comme Guillaume Cabanac, enquêtent activement sur des cas potentiels d’utilisation non divulguée de l’IA pour protéger l’intégrité scientifique.

Pour relever ces défis, les scientifiques doivent se renseigner sur les capacités et les pièges potentiels de l’IA. Bien que l’IA puisse aider les anglophones non natifs à améliorer leur écriture, elle doit être divulguée et utilisée de manière responsable. Alors que la technologie de l’IA continue de progresser, il est crucial de maintenir l’intégrité scientifique et de rester vigilant contre les pratiques frauduleuses potentielles dans l’édition universitaire.