element5 digital jCIMcOpFHig unsplash 1
  • 2 août 2024
  • ComputaSYS
  • 0


Depuis l’avènement de ChatGPT, l’IA générative bouleverse profondément la problématique du plagiat dans le monde académique. Bien que le phénomène ne soit pas nouveau ou que l’on nous vante parfois les mérites d’armes anti-plagiat, ces technologies soulèvent des questions inédites quant à la définition même de l’appropriation intellectuelle illicite.

Jonathan Bailey, expert en droit d’auteur basé à La Nouvelle Orléans, souligne avec justesse la complexité de la situation : « Il existe tout un spectre d’utilisation de l’IA, allant de l’écriture entièrement humaine à l’écriture entièrement générée par l’IA — et entre les deux, il y a cette vaste étendue de confusion ». Dans ce contexte mouvant à grande vitesse, les chercheurs se trouvent confrontés à un défi de taille : comment concilier l’utilisation bénéfique de ces outils avec le maintien de l’intégrité académique ?

Quand l’IA brouille les pistes du plagiat

Les modèles de langage de grande taille (LLM) offrent certes des avantages non négligeables en termes d’efficacité, de clarté et d’accessibilité linguistique. Néanmoins, ils soulèvent également des dilemmes éthiques complètement inédits.

Nourris par d’immenses corpus textuels préexistants, ils peuvent aisément conduire à des formes subtiles de plagiat, que ce soit par l’attribution erronée d’un travail généré par machine ou par la production de contenus trop similaires à des sources non citées.

Pete Cotton, écologiste à l’Université de Plymouth, souligne cette réalité : « Définir précisément ce que nous entendons par malhonnêteté académique ou plagiat, et déterminer où se situent les limites, va être très, très difficile ».

Une étude menée en 2023 auprès de 1 600 chercheurs révèle une inquiétude largement partagée: 68 % des participants estiment que l’IA facilitera le plagiat tout en compliquant sa détection. Debora Weber-Wulff, spécialiste du plagiat à l’Université des Sciences Appliquées de Berlin, explique également l’existence d’un paradoxe : « Tout le monde s’inquiète de l’utilisation de ces systèmes par les autres, et ils s’inquiètent de ne pas les utiliser quand ils le devraient ».

Plagiat ou génération non autorisée : la frontière floue

La problématique centrale qui émerge est de déterminer si l’usage non attribué de contenus entièrement générés par intelligence artificielle constitue un acte de plagiat. Certaines instances, telles que le Réseau Européen pour l’Intégrité Académique, préfèrent qualifier ce phénomène de « génération non autorisée de contenu » plutôt que de plagiat au sens strict.

Weber-Wulff précise que, selon elle, le plagiat implique nécessairement l’appropriation d’éléments attribuables à un auteur identifiable. Néanmoins, bien que l’IA puisse produire des textes s’apparentant à des contenus humains existants, ils ne sont généralement pas suffisamment similaires pour être considérés comme du plagiat à proprement parler.

Certains acteurs vont plus loin, arguant que ces outils enfreignent les droits d’auteur. En décembre 2023, The New York Times a intenté une action en justice contre Microsoft et OpenAI, alléguant l’utilisation non autorisée de millions d’articles pour l’entraînement de leurs modèles de langage, ce qui constituerait une violation de la propriété intellectuelle.

La plainte stipulait que ChatGPT-4 reproduisait parfois des paragraphes quasi identiques du journal. En réponse, OpenAI a demandé le rejet partiel de la plainte, affirmant que ChatGPT ne saurait se substituer à un abonnement au journal ; une posture assez cynique. Microsoft, quant à elle, plaide pour une avancée responsable des outils d’IA développés légalement.

L’impact de l’IA sur la publication scientifique

Depuis la sortie de ChatGPT en novembre 2022, l’utilisation de l’IA dans la rédaction académique a connu un essor fulgurant. Une étude menée par Dmitry Kobak de l’Université de Tübingen estime qu’au moins 10 % des résumés d’articles biomédicaux publiés au premier semestre 2024 ont été rédigés à l’aide de modèles de langage, démontrant ainsi un impact sans précédent sur la littérature scientifique.

Graphique montrant l’augmentation marquée de l’utilisation de mots stylisés dans les articles académiques suite à l’introduction des modèles de langage IA. © Kobak, D., González-Márquez, R., Horvát, E.-Á. & Lause, J. Preprint at arXiv

Kobak note une prévalence accrue dans les pays non anglophones, tout en soulignant la possible difficulté de détection dans les régions où l’anglais prédomine. Bien que l’utilisation non divulguée de logiciels d’aide à la rédaction ne soit pas un phénomène nouveau dans le milieu académique, les outils d’IA suscitent un niveau d’inquiétude inédit.

Pour d’autres scientifiques, comme Hend Al-Khalifa, chercheur à l’Université King Saud, l’IA a tout de même un certain potentiel : elle permettrait aux chercheurs non anglophones de se focaliser davantage sur leurs travaux, en s’affranchissant des barrières linguistiques.

Cependant, une grande incertitude persiste quant à la frontière entre l’utilisation légitime de l’IA et le plagiat ou le manquement à l’éthique. Pour Soheil Feizi, informaticien à l’Université du Maryland, utiliser l’IA pour paraphraser le contenu d’articles existants relève clairement du plagiat.

En revanche, il estime que le recours à l’IA pour clarifier l’expression d’idées ne devrait pas être sanctionné, à condition d’être transparent. « Nous devrions permettre aux chercheurs d’exploiter les modèles de langage pour exprimer leurs idées plus fluidement », affirme-t-il.

Actuellement, les lignes directrices sur l’utilisation de l’IA dans la rédaction académique restent encore très floues. Elles varient considérablement et l’émergence très rapide de ces outils surpasse la capacité des institutions à s’adapter correctement. Le problème est complexe et ne trouvera donc pas de solution simple. L’enseignement supérieur et la recherche se retrouvent donc face à un véritable labyrinthe, qui nécessitera une réflexion collective pour être résolu. Un dialogue se devra d’être établi entre chercheurs, enseignants, étudiants et décideurs politiques, au risque de rater le coche et de limiter le potentiel de l’IA au service de la recherche.

L’arrivée des LLM et des modèles d’IA sur le marché facilite le plagiat dans la production académique. Un bouleversement qui floute également les limites entre plagiat et génération de contenu non autorisé. Depuis la sortie de ChatGPT, le domaine de la publication scientifique a été radicalement bouleversé.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *