Home Actus OpenAI a créé un outil capable de détecter des contenus générés par ChatGPT, mais ne veut pas le divulguer  

OpenAI a créé un outil capable de détecter des contenus générés par ChatGPT, mais ne veut pas le divulguer  

Par Christian Tetchi
openai-cree-outil-capable-detecter-des-contenus-generes-par-chatgpt

Depuis le succès des agents conversationnels comme ChatGPT, les enseignants ne savent plus où se donner la tête. Il devient de plus en plus difficile avec l’œil humain de discerner les vrais devoirs et ceux générés par les IA. Pourtant, OpenIA assure qu’il a développé un outil permettant de les détecter, mais hésite à le rendre public de peur de perdre des millions d’utilisateurs.

Un outil efficace à 100 % pour détecter les textes générés par ChatGPT

Imaginez un outil qui permettrait aux enseignants de détecter facilement les textes générés par ChatGPT. Cela leur aiderait à trouver les étudiants tricheurs qui ne veulent pas effectuer leurs propres recherches ou produire leurs propres contenus. Et, si on vous disait que cet outil existe déjà depuis un an ?

C’est un outil développé par les ingénieurs d’OpenAI qui serait capable de détecter à 99,99 % les contenus générés par ChatGPT. Seulement, le déployer ou pas est en train de cause une véritable friction au sein des équipes. Pendant que d’autres trouvent qu’il serait utile pour une communauté de personnes comme les enseignants, d’autres ingénieurs d’OpenAI pensent qu’il est encore trop tôt pour le déployer.

Cette nouvelle a été rapportée par le Wall Street Journal confirmé par des documents internes de l’entreprise et un porte-parole de l’entreprise. Même l’outil de l’intelligence artificielle (IA) ChatGPT -4o Mini serait aussi concerné ainsi que sa version payante.

Alors, comment fonctionne concrètement ce système de détection de contenu ? Cet outil modifie de manière subtile la manière dont ChatGPT choisit ses mots, laissant une signature invisible sans toutefois détériorer le contenu. C’est justement cette signature qui permettrait de détecter si un contenu provient de ChatGPT.

Un autre problème soulevé est que cet outil pourrait pénaliser ceux dont l’anglais n’est pas la langue maternelle. Il suffirait qu’ils rajoutent quelques reformulations et une traduction pour tromper l’outil.

La peur de perdre des millions d’utilisateurs

Un tel outil comme vous pouvez le deviner, ferait perdre des utilisateurs. L’attrait des contenus difficilement détectable fait en sorte que ChatGPT suscite un engouement dans tous les secteurs d’activité. Déjà qu’OpenAI perd des milliards de dollars chaque année, la désertion des millions d’utilisateurs pourrait réduire son chiffre d’affaires.

Pour confirmer ses craintes, l’entreprise avait mené une enquête en 2023 auprès de ses utilisateurs. Environ 70 % affirmaient craindre qu’un tel outil pouvait entraîner de fausses conclusions de triche. Aussi, 30 % des sondés avaient signifié qu’ils utiliseraient moins ChatGPT si une telle technologie de détection était mise en place.

Le porte-parole interrogé par le Wall Street Journal a ajouté : « Cette méthode que nous développons est techniquement prometteuse, mais soulève aussi des risques importants que nous évaluons, tout en cherchant des alternatives ». On peut donc comprendre le débat qu’il y a lieu au sein des différentes équipes. Les technologies de langages conversationnelles reposant sur l’IA se livrent une bataille féroce et OpenAI ne va se tirer une balle dans le pied.

Par ailleurs, OpenAI a également développé un autre outil de détection, cette fois-ci pour reconnaître les images générées par DALL-E. Cela ne poserait pas de problème contrairement aux textes compte tenu des détours malveillants surtout en période d’élection.

Articles similaires

Laissez un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.