De plus en plus de sites web se mettent à la rédaction automatique de contenu par IA. Une menace pour le rédacteur web ? Décryptage.
On parle souvent de l’emploi humain remplacé par l’IA.
Et si la situation était plus pernicieuse ?
Et si on était arrivé au stade où le travail humain ne se distinguait plus de celui des machines ?
C’est ce qui est arrivé récemment à une rédactrice web sur Twitter.
La personne a été soupçonnée par son client d’avoir livré du contenu automatique sur la foi d’un détecteur d’IA.
Les 2 parties sont finalement parvenues à s’expliquer. La rédactrice web a dû faire preuve de pédagogie.
Pour autant, l’incident pose question car le contenu était loin d’être générique. Selon la rédactrice, il portait sur un « sujet pointu » qui nécessitait une « expertise » et ne pouvait donc pas poser un « souci de confiance ».
Comment le détecteur a donc pu croire que le texte était produit par une IA ?
On peut émettre 2 hypothèses :
- ce type d’outil n’est pas encore au point. C’est le cas notamment de celui sorti par OpenAI ;
- comme l’indique un twittos, cela signifie que l’article contient des passages qui correspondent à des occurrences de textes utilisés pour nourrir l’IA, ce qui pose des problèmes juridiques qui dépassent le cadre de cet article.
Si, en l’espèce, l’incident a connu une fin heureuse, ce n’est pas le cas d’autres affaires impliquant l’utilisation de l’intelligence artificielle, notamment aux États-Unis.
Les dessous de l’affaire CNET
En effet, il convient de parler ce qui s’est passé au sein de la rédaction de CNET, un gros site d’information américain spécialisé dans la Tech, qui a conduit au licenciement de 12 journalistes, dont certains employés de longue date.
L’annonce a été faite par Red Ventures, société qui a racheté le site en 2020 pour 500 millions de dollars. Elle a justifié ces licenciements par la nécessité de se concentrer sur les sujets sur lesquels le site fait autorité à savoir la Tech, le bien-être ou encore la finance. Conformément aux critères de Google, cette autorité est sensée leur permettre d’améliorer le référencement naturel et, ainsi, la monétisation du site via l’affiliation.
Or, comment réaliser un tel objectif en licenciant 10% de son effectif ?
Certainement par l’utilisation de l’intelligence artificielle.
En effet, le site Futurism a révélé que CNET publiait des articles générés par intelligence artificielle depuis novembre 2022 sans que cela fasse pour autant l’objet d’une annonce officielle. Aucune mention n’indiquait directement la nature automatique de ces contenus. Ces derniers étaient signés par un mystérieux « CNET Money Staff ». En guise d’exemple, on peut citer l’article « Can You Buy a Gift Card With a Credit Card « ?
Ce n’est qu’en cliquant sur la signature que l’on découvrait le pot aux roses (cela a été changé depuis, la mention est faite directement en-dessous de la signature).
En date du 11 janvier 2023, 73 textes de ce type avaient été produits.
Plus grave : plus de la moitié de ces contenus étaient truffés d’erreurs factuels. En outre, la plupart d’entre eux copiaient des travaux de rédacteurs humains.
Réponse de la défense : ce n’était pas du plagiat mais des « phrases qui n’étaient pas entièrement originales ».
Difficile de ne pas penser à Najaraka : une humaine écrit un article pointu et est soupçonné d’avoir produit du contenu automatisé, alors qu’une IA peut pomper sans vergogne le travail humain, ce n’est pas du plagiat !
L’affaire a naturellement provoqué un tollé au point de mettre en pause l’utilisation de l’IA.
Une généralisation de la génération automatique de contenu ?
Tout porte à croire que la génération automatique de contenu par IA est là pour longtemps.
Et pour cause : un site comme Bankrate (aussi détenu par Red Ventures) obtient d’excellents résultats SEO avec du contenu de ce type. De manière générale, Red Ventures est connue pour injecter des textes IA dans plusieurs sites qu’elle possède depuis des années. Sa stratégie est de miser sur le SEO afin de gagner de l’argent en affiliation. Elle n’a pas attendu ChatGPT pour cela.
Il ne s’agit pas de remettre en cause l’utilisation de l’intelligence artificielle dans la rédaction web, à l’instar d’un ChatGPT qui peut être une aide non négligeable.
Si les experts s’accordent à dire que l’IA n’est, pour l’instant, pas en mesure de produire du contenu d’aussi bonne qualité que celui des humains, les médias semblent prendre une autre direction.
CNET s’ajoute à la liste déjà longue des sites qui ont fait le choix de la production automatisée de contenu : Bankrate, Associated Press, Buzzfeed etc.
Chez CNET, l’emploi ne semble pas assumé. Après une première tentative pour le moins discrète, le site est revenu dernièrement à la charge avec un nouveau « programme d’outils d’assistance ». La direction se vante d’avoir améliorée son process au niveau de la production, du contrôle qualité et de l’expérience utilisateur.
Derrière les éléments de langage, l’orientation reste la même avec plus d’automatisation. CNET aurait même trouvé le moyen de faire apparaître le contenu IA comme produit par un humain avec l’introduction d’un « score de ressemblance » et l’intégration du Fact Checking par l’ajout d’URL dans la génération de contenu.
Objectif : contourner les Guidelines de Google qui valorise le contenu utile pour les humains au détriment de celui optimisé uniquement pour les moteurs de recherche.
Le dernier mot humain ?
On pourrait être rassuré par les propos de Cameron Hurta. Le responsable du contenu IA chez CNET a indiqué qu’un collège d’experts interviendrait pour vérifier tous les textes générés automatiquement. Lance Davis, Vice Président du contenu pour les services financiers, serait même personnellement impliqué dans l’approbation du contenu avant publication.
Cela reste à confirmer car de tels gardes-fous étaient déjà sensés pour les contenus automatiques créés fin 2022. Nous savons aujourd’hui que ce n’était pas le cas et qu’ils étaient truffés d’erreur.