Une révolution silencieuse secoue le monde universitaire. Selon un article de Presse-Citron, l’avènement de l’intelligence artificielle générative, en particulier ChatGPT, bouleverse profondément la notion de plagiat dans le monde académique. La frontière entre l’écriture humaine et celle générée par l’IA devient de plus en plus floue, créant une zone grise inédite. Jonathan Bailey, expert en droit d’auteur basé à La Nouvelle Orléans, souligne la complexité de la situation : « Il existe tout un spectre d’utilisation de l’IA, allant de l’écriture entièrement humaine à l’écriture entièrement générée par l’IA — et entre les deux, il y a cette vaste étendue de confusion », explique Presse-Citron.
Le ver est dans le fruit numérique. Les modèles de langage de grande taille (LLM) offrent des avantages indéniables en termes d’efficacité et d’accessibilité linguistique. Cependant, ils soulèvent également des questions éthiques sans précédent. Nourris par d’immenses corpus textuels, ces outils peuvent aisément conduire à des formes subtiles de plagiat, que ce soit par l’attribution erronée d’un travail généré par machine ou par la production de contenus trop similaires à des sources non citées. Une étude menée en 2023 auprès de 1 600 chercheurs révèle une inquiétude largement partagée : 68 % des participants estiment que l’IA facilitera le plagiat tout en compliquant sa détection.
L’IA, nouvelle muse ou menace pour l’intégrité académique ?
Le plagiat se réinvente à l’ère des algorithmes. Le débat s’intensifie autour de la définition même du plagiat à l’ère de l’IA. Certaines instances, comme le Réseau Européen pour l’Intégrité Académique, préfèrent qualifier l’usage non attribué de contenus générés par IA de « génération non autorisée de contenu » plutôt que de plagiat au sens strict. Debora Weber-Wulff, spécialiste du plagiat à l’Université des Sciences Appliquées de Berlin, précise que selon elle, le plagiat implique nécessairement l’appropriation d’éléments attribuables à un auteur identifiable. Paradoxalement, l’IA pourrait aussi offrir des opportunités, notamment pour les chercheurs non anglophones, en améliorant la clarté et l’accessibilité de leurs travaux.
Dans la jungle éthique, les chercheurs naviguent à vue. Face à ces défis, le monde académique se trouve dans une position délicate. Pete Cotton, écologiste à l’Université de Plymouth, résume bien la situation : « Définir précisément ce que nous entendons par malhonnêteté académique ou plagiat, et déterminer où se situent les limites, va être très, très difficile », a-t-il déclaré au média Presse-Citron. À l’heure actuelle, il n’existe pas encore de consensus clair sur les lignes directrices d’utilisation de l’IA dans la rédaction académique, laissant les chercheurs naviguer dans un paysage en constante évolution.
Visuels générés via IA par Jean-Michel Falciasecca