Si les modèles d’IA comme ChatGPT peuvent aider les travailleurs dans certains secteurs, celui-ci a également été une source de controverse, en raison du fait qu’il peut être très difficile de faire la différence entre un texte généré par un humain et un texte généré par l’IA. Cela pose par exemple problème dans les écoles et les universités, puisque les élèves peuvent rendre des devoirs générés par ChatGPT. Actuellement, il existe déjà des solutions qui évaluent la probabilité qu’un texte ait été rédigé par une intelligence artificielle, et non par un humain. Cependant, cette technologie est peu efficace, car elle donne un pourcentage de probabilité, et non une information binaire.
D’ailleurs, OpenAI, qui avait lui-même lancé un détecteur de textes générés par IA, a décidé d’abandonner cette technologie. Le détecteur d’OpenAI, qui devait indiquer si un texte a été généré avec ChatGPT ou un chatbot concurrent, a été lancé début 2023. Mais celui-ci a été abandonné dès le mois de juillet, à cause d’une trop faible précision.
Une nouvelle méthode étudiée par OpenAI
Si les IA entraînées pour détecter les textes générées par une IA se sont avérées peu efficaces, pour le moment, OpenAI a de nouvelles idées. Et parmi celles-ci, il y a les “watermarks”. En substance, cette technique consisterait à placer des marqueurs invisibles dans les textes générés par ChatGPT, afin qu’il soit ensuite possible d’identifier la provenance de ces textes. Et d’après OpenAI, les résultats obtenus sont assez convaincants. “Nos équipes ont développé une méthode de tatouage de texte que nous continuons à considérer dans nos recherches d’alternatives”, lit-on dans un billet de blog de l’entreprise. Celle-ci évoque une très haute précision, même quand on essaie de modifier le texte paraphrasant certains éléments.
Mais pour le moment, cet outil n’est pas disponible. Et OpenAI se justifie en évoquant les faiblesses qui persistent sur ce nouveau système. “[…] il est moins résistant aux falsifications globalisées ; comme utiliser des systèmes de traduction, reformuler avec un autre modèle génératif ou demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère – ce qui le rend trivial à contourner par de mauvais acteurs”, indique le créateur de ChatGPT. Celui-ci craint également que certains groupes d’utilisateurs soient impactés de manière disproportionnée par ce système. “Par exemple, cela pourrait stigmatiser l’utilisation de l’IA comme outil d’écriture utile pour les anglophones non natifs”, écrit OpenAI.
Par ailleurs, OpenAI explore encore d’autres pistes, comme l’utilisation de métadonnées qui, d’après celui-ci, éliminerait complètement les risques de faux positifs.
L’IA générative peut améliorer la productivité des travailleurs dans de nombreux secteurs Mais celle-ci pose aussi problème, car il est très difficile de distinguer un texte généré par l’IA d’un texte généré par l’intelligence humaine OpenAI a déjà proposé une solution, qu’il a abandonnée après quelques mois Cependant, une nouvelle méthode, plus efficace, est actuellement étudiée par l’entreprise Malheureusement, le nouvel outil n’est pas disponible (pour le moment)
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.