Selon BFM, OpenAI, la société derrière ChatGPT, a développé un outil capable de détecter les textes générés par l’intelligence artificielle. Cependant, l’entreprise hésite à rendre public cet outil potentiellement révolutionnaire. Cette révélation intervient dans un contexte où l’utilisation de l’IA générative pour la création de textes ne cesse de croître, soulevant des questions éthiques et pratiques sur la façon de distinguer le contenu humain du contenu artificiel.
Le filigrane numérique, nouveau shérif du Far West digital ? L’outil d’OpenAI fonctionne en analysant une sorte de filigrane numérique, une signature invisible laissée par ChatGPT lors de la génération de texte. Cette approche novatrice promet de révolutionner la détection des textes créés par l’IA, en particulier ceux issus de ChatGPT. Cependant, malgré son potentiel, la solution n’est pas sans failles. « La méthode de filigrane du texte que nous développons est techniquement prometteuse, mais comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives », a expliqué un porte-parole d’OpenAI, cité par BFM.
Quand Frankenstein craint sa création
L’arroseur arrosé version 2.0 ? Paradoxalement, c’est la puissance même de cet outil qui freine sa sortie. OpenAI craint que sa publication n’ait un impact négatif sur l’écosystème de l’IA au sens large. L’entreprise s’inquiète notamment des effets potentiellement néfastes sur certains groupes, comme les non-anglophones qui pourraient être injustement pénalisés pour l’utilisation légitime de l’IA dans des traductions. De plus, OpenAI redoute que l’outil ne soit détourné par des acteurs malveillants. Ces préoccupations reflètent un dilemme plus large : comment équilibrer l’innovation technologique avec la responsabilité éthique ?
L’IA, ce génie qui s’échappe toujours de sa lampe. Malgré son ingéniosité, l’outil d’OpenAI reste facilement contournable. Une simple modification du texte généré par ChatGPT suffit à rendre la détection inopérante. Cette faiblesse soulève des questions sur l’efficacité à long terme de tels outils de détection.
Visuels généré via IA par Jean-Michel Falciasecca