L’IA menace-t-elle vraiment le journalisme ?
07/08/2023De nos jours, les sociétés de médias du monde entier ont de plus en plus recours à l’IA pour générer du contenu. Toutefois, Samantha Floreani, militante des droits numériques basée en Australie, chroniqueuse pour le quotidien britannique The Guardian, estime que nous devrions nous inquiéter lorsque le matériel généré par les grands modèles de langage tels que ChatGPT est reconditionné en journalisme.
L’IA ne produit pas d’informations factuelles
Il est de notoriété publique que les grands modèles de langage comme GPT-4 ne produisent pas de faits, explique l’activiste. Selon Floreani, il s’agit davantage d’outils qui prédisent le langage.
« Nous pouvons considérer ChatGPT comme une machine à expliquer automatiquement, souvent erronée mais toujours confiante. Toutefois, même avec l’assurance d’une surveillance humaine, nous devrions nous inquiéter lorsque le matériel généré de cette manière est reconditionné en journalisme. Outre les problèmes d’inexactitude et de désinformation, cela rend également la lecture horrible », écrit-elle.
Les « fermes de contenus » ne sont pas nouvelles. Les médias publiaient des déchets bien avant le lancement de ChatGPT. Toutefois, ce qui a changé, c’est la vitesse, le volume et la propagation de ces contenus médiocres.
En Australie, l’entreprise américaine de média News Corp produit déjà 3.000 articles d’actualité locale via l’IA. Pour l’heure, la génération de ce type d’articles n’est limitée qu’aux actualités de service locales massivement diffusées comme les nouvelles concernant les lieux où trouver du carburant ou les actualisations sur le trafic.
« Pourtant, nous ne devrions pas être trop rassurés car cela donne un signal d’où les choses se dirigent », écrit Floreani.
En janvier, CNET a fait l’objet de nombreuses critiques pour avoir publié des articles générés par IA. Ces articles étaient truffés d’erreurs. Pendant ce temps, les travailleurs de CNET et les écrivains hollywoodiens se syndiquent et font grève pour protester contre les écrits générés par l’IA. Parmi leurs revendications, on trouve le souhait de meilleures protections et une meilleure responsabilité en rapport avec l’utilisation de l’IA.
IA générative et monétisation de notre attention
L’utilisation de l’IA générative intègre un changement plus large des sociétés de médias grand public. Celles-ci agissent comme des plates-formes numériques avides de données, optimisées de manière algorithmique et désespérées pour monétiser l’attention des lecteurs.
L’opposition des entreprises médiatiques aux réformes cruciales sur la vie privée, contribuant à empêcher ce comportement et à mieux nous protéger en ligne, rend cette stratégie très claire.
« Le problème de longue date de la diminution des bénéfices des médias traditionnels dans l’économie numérique a conduit certains d’entre eux à adopter le modèle commercial du capitalisme de surveillance des plateformes numériques. L’ajout de contenu généré par l’IA dans le mélange aggravera les choses », affirme Floreani.
Celle-ci s’interroge.
En effet, que se passe-t-il lorsque le Web devient dominé par une telle quantité de contenu généré par l’IA que de nouveaux modèles sont formés non pas sur du matériel fabriqué par l’homme, mais sur des sorties d’IA ?
« Allons-nous nous retrouver avec une sorte de serpent numérique maudit mangeant sa propre queue ? », se demande l’activiste numérique.
Jathan Sadowski a surnommé cela l’IA des Habsbourg, en référence à une dynastie royale européenne infâme. L’IA des Habsbourg est un système si fortement formé sur les sorties d’autres IA génératives qu’il se convertit en mutant consanguin, rempli de caractéristiques exagérées et grotesques.
La technologie va-t-elle s’auto-digérer ?
Selon plusieurs recherches, les grands modèles de langage, comme celui approvisionnant ChatGPT, s’effondrent rapidement lorsque leurs données de formation sont créées par d’autres IA au lieu du matériel original des humains.
D’autres études ont montré que sans données fraîches, une boucle autophage (auto-digestion) se crée, vouée à une baisse progressive de la qualité du contenu.
« Nous sommes sur le point de remplir Internet de blabla », a déclaré un chercheur cité par The Guardian.
Les organisations médiatiques utilisant l’IA pour générer une énorme quantité de contenu accélèrent cette problématique, estime Floreani. Selon celle-ci, le contenu généré par l’IA rampante pourrait semer sa propre destruction.
Toutefois, elle souligne qu’il existe d’autres applications de l’IA dans les médias pouvant bénéficier aux lecteurs.
Par exemple, l’intelligence artificielle peut améliorer l’accessibilité aux contenus en facilitant des tâches telles que la transcription de contenu audio, la génération de descriptions d’images ou la facilitation de la synthèse vocale.
« Ce sont des applications vraiment passionnantes », conclut-elle.