Après ChatGPT, OpenAI lance un détecteur de contenu IA

Avec son nouveau détecteur de contenu IA, OpenAI souhaite donner les clés pour distinguer les contenus écrits par les humains de ceux produits par l’intelligence artificielle (IA).

OpenAI va-t-elle sonner la fin de la récré pour les contenus automatisés ?

La question se pose alors que la société vient de lancer un outil pour distinguer les contenus produits par les humains de ceux créés par l’IA.

Pour l’instant, il n’est pas possible techniquement de fournir un outil 100% fiable. Selon OpenAI, l’objectif est d’abord de donner des indices pour démontrer le caractère « faux » d’un texte (autrement dit, produit par l’IA). L’outil est clairement destiné aux professeurs (avec lesquels OpenAI est engagée) afin de lutter contre l’utilisation de ChatGPT à l’école, mais aussi aux journalistes et autres Fact-Checkers chargés de décrypter l’information.

Un outil de détection de contenu IA à peaufiner

OpenAI prend bien soin d’insister sur le manque de fiabilité de son outil. Dans ses tests, il n’a pu reconnaître correctement que 26 % de contenus écrits par IA. Il a même imputé 9 % de textes écrits par des humains à l’intelligence artificielle.

En rendant son détecteur public, OpenAI souhaite obtenir des retours afin de l’améliorer.

Comment utiliser le détecteur de contenu automatisé d’OpenAI ?

L’utilisation du détecteur de contenu automatisé d’OpenAI est simple. Il suffit d’entrer le texte que vous souhaitez examiner dans le champ en-dessous de « Text ».

Cliquez ensuite sur « Submit ».

En guise de résultat, l’outil évalue la probabilité que l’IA ait généré le texte que vous avez soumis. Les résultats sont les suivants :

  • très improbable (« very unlikely ») ;
  • peu probable (« unlikely ») ;
  • pas clair si c’est le cas (« unclear if it is » ;
  • possiblement (« possibly ») ;
  • probable (« likely »).

En l’espèce, le résultat est plutôt concluant puisque le texte est considéré comme « possiblement » généré par une IA ce qui est vrai puisque j’ai utilisé ChatGPT.

Encore une fois, il faut bien garder à l’esprit que l’outil n’est pas totalement fiable pour l’instant. Il ne doit pas être considéré comme le seul élément de preuve pour déterminer si un texte est le fruit d’une IA.

Il convient de prendre en compte les limites suivantes :

  • il est préférable d’entrer un texte de minimum 1 000 caractères, soit environ 150 à 250 mots ;
  • le classificateur n’est pas toujours précis. Il peut mal étiqueter un texte généré par l’IA ou écrit par un humain ;
  • le texte généré par l’IA peut être facilement modifié pour échapper au classificateur ;
  • l’outil est susceptible de se tromper sur des textes écrits par des enfants et sur des textes qui ne sont pas en Anglais, car il a été conçu principalement sur des contenus en Anglais écrits par des adultes.

Laisser un commentaire