
Cette prolifération de contenus automatisés dégrade la qualité des conversations en ligne et crée un écosystème où les robots interagissent entre eux. L'industrie de la fabrication de bots prospère, avec des créateurs proposant leurs services sur des plateformes en ligne. Malgré les tentatives des plateformes de lutter contre ce problème émergent, le « grand déluge de l'IA » menace d'inonder davantage internet de contenus générés par des machines, compromettant la fiabilité des résultats de recherche et des plateformes en ligne.
Un matin de janvier dernier, Terry Hughes, spécialiste des sciences de la mer, a ouvert X (anciennement Twitter) et a effectué une recherche de tweets sur la Grande Barrière de Corail. « Je surveille quotidiennement les tweets concernant le récif », explique le professeur Hughes, l'un des principaux chercheurs sur les coraux à l'université James Cook.
Ce qu'il a découvert ce jour-là l'a surpris et déconcerté : des centaines de comptes robots tweetant le même message étrange avec des formulations légèrement différentes. « Wow, je n'avais aucune idée que le ruissellement agricole pouvait avoir un impact aussi dévastateur sur la Grande Barrière de Corail », a tweeté un compte qui, par ailleurs, faisait l'apologie des cryptomonnaies. Un autre bot cryptographique a écrit : « Wow, c'est décourageant d'entendre parler des problèmes de pollution de l'eau auxquels l'Australie est confrontée ».
How bizarre is this? pic.twitter.com/erCXtv1lrE
— Terry Hughes (@ProfTerryHughes) January 23, 2024
Au début du mois, des affrontements entre des groupes de robots ont éclaté suite à l'incident impliquant le ballon espion chinois. Une proportion significative des intervenants semblent être des robots cherchant à influencer le débat. Kathleen Carley et Lynnette Hui Xian Ng, de l'université Carnegie Mellon en Pennsylvanie, ont examiné près de 1,2 million de tweets provenant de plus de 120 000 utilisateurs sur Twitter, rebaptisé X, entre le 31 janvier et le 22 février 2023. Tous les tweets étaient accompagnés des hashtags #chineseballoon et #weatherballoon, se référant à l'objet aérien controversé que les États-Unis accusent la Chine d'utiliser à des fins d'espionnage.
Les tweets ont été géolocalisés via la fonction dédiée de Twitter et soumis à l'analyse de l'algorithme BotHunter, qui identifie les signaux indiquant qu'un compte n'est pas contrôlé par un être humain. Kathleen Carley explique : « Divers critères sont utilisés pour identifier un bot, comme l'envoi de messages à une vitesse impossible pour un humain ou des changements de géolocalisation de Londres à la Nouvelle-Zélande en une minute, physiquement impossible pour une personne ».
Les résultats de l'étude révèlent qu'environ 35 % des utilisateurs géolocalisés aux États-Unis présentaient un comportement similaire à celui d'un bot, tandis que 65 % étaient considérés comme des humains. En Chine, les proportions étaient inversées, avec 64 % de bots et 36 % d'humains. Parmi les comptes prétendument situés dans l'un ou l'autre pays, 42 % étaient des bots et 58 % des humains. Bien que l'obtention de statistiques précises soit difficile, des recherches antérieures suggèrent que 10 à 20 % des utilisateurs de Twitter pourraient être des bots. Ces robots effectuent de manière autonome des tâches telles que l'envoi de messages sur Twitter et l'interaction avec d'autres publications, souvent dans le but d'influencer l'opinion publique.
L'intelligence artificielle porte un coup fatal au web traditionnel, et le nouvel internet peine à émerger. Ces derniers mois, les signes alarmants se multiplient rapidement. Google cherche à éliminer les 10 liens bleus, Twitter est envahi par des bots et des badges bleus, Amazon subit une « junkification », et TikTok connaît une « enshittification ». Les médias en ligne sont ravagés par des licenciements massifs, avec des offres d'emploi exigeant la production de « 200 à 250 articles par semaine » par un « rédacteur IA ».
ChatGPT est exploité pour la création de sites de spam, Etsy est inondé de « déchets générés par l'IA », et les chatbots s'auto-citent dans un tourbillon de désinformation. LinkedIn utilise l'IA pour stimuler des utilisateurs fatigués, Snapchat et Instagram espèrent que des bots prendront le relais lorsque vos amis ne le feront pas. Les Redditors organisent des pannes de courant, les mods de Stack Overflow sont en grève, et l'Internet Archive lutte contre les racleurs de données, tandis que « l'IA met Wikipédia en pièces ». L'ancien web agonise, et le nouveau peine à voir le jour.
Le déclin du web est un phénomène continu, mais en 2023, une nouvelle menace émerge, comme le suggère la liste précédente : l'intelligence artificielle. Le problème essentiel réside dans le fait que l'IA dépasse la capacité d'échelle d'Internet. Autrefois, le web était le domaine où les individus créaient du contenu, des pages d'accueil aux forums. Cependant, les entreprises ont introduit des plateformes sophistiquées, incitant les utilisateurs à les remplir de contenu. Avec la croissance, ces plateformes deviennent des cibles lucratives. Mais l'IA perturbe ces dynamiques.
Les systèmes d'IA, en particulier les modèles génératifs, se développent de manière exponentielle avec des ressources financières et informatiques. Ils produisent massivement du texte, des images, et bientôt de la musique et de la vidéo. Bien que cette production puisse rivaliser avec les plateformes traditionnelles, la qualité souvent médiocre de ces systèmes perturbe le paysage. Ils sont formés sur des données établies pendant la dernière ère du web, recréant imparfaitement ces informations. Les entreprises utilisent ces données pour générer un contenu bon marché mais moins fiable, rivalisant avec les plateformes et les créateurs traditionnels pour attirer l'attention. Les utilisateurs et les sites tentent de comprendre ces changements et de s'adapter à cette nouvelle réalité incertaine.
Des discussions et des expériences révèlent la tension créée par l'apparition de systèmes d'IA
Les modérateurs de Reddit ont décidé d'organiser des coupures de courant en réaction à l'annonce par l'entreprise d'une augmentation significative des frais d'accès à son API. Les dirigeants de Reddit justifient ces changements en partie comme une réponse aux entreprises d'IA qui récupèrent leurs données. Steve Huffman, fondateur et PDG de Reddit, a souligné la valeur importante du corpus de données de Reddit, déclarant au New York Times : « Mais nous n'avons pas besoin de donner gratuitement toute cette valeur à certaines des plus grandes entreprises du monde. » Bien que cette augmentation des frais soit également liée à la préparation d'une introduction en bourse prévue plus tard dans l'année, elle souligne la tension entre le web actuel et le scraping, incitant les entreprises à revoir l'accessibilité de leurs plateformes.
Wikipédia a longtemps été sujet à être « scrapée » par Google pour fournir des « panels de connaissances », avec le géant de la recherche payant récemment pour ces informations. Cependant, les modérateurs de Wikipédia explorent désormais l'utilisation des nouveaux modèles de langage de l'IA pour rédiger des articles pour le site lui-même. Bien conscients des risques associés à ces systèmes génératifs, qui peuvent créer des faits et des sources de manière trompeuse, ils reconnaissent également les avantages en termes de rapidité et de portée. Amy Bruckman, professeur de communautés en ligne, a souligné le risque de diminution de la qualité sur Wikipédia, tout en suggérant que l'utilisation initiale de l'IA comme brouillon pourrait être envisagée, mais chaque point devrait être vérifié.
Stack Overflow présente un cas similaire, les modérateurs étant en grève et exprimant des préoccupations quant à la qualité du contenu généré par les machines. Bien que ChatGPT ait été initialement interdit sur la plateforme en raison de la facilité avec laquelle il produisait des réponses potentiellement erronées, l'interdiction a été partiellement levée par l'entreprise, qui souhaite désormais tirer parti de la technologie de l'IA tout en continuant à débattre avec les modérateurs sur les normes du site.
Cependant, les changements les plus importants semblent se produire chez Google, dont la recherche est au cœur de l'économie du web moderne. Google répond à la popularité croissante de Bing AI et de ChatGPT en tant que moteurs de recherche alternatifs en expérimentant le remplacement des traditionnels « 10 liens bleus » par des résumés générés par l'IA. Les critiques soulignent que le nouveau système de Google agit essentiellement comme un « moteur de plagiat », copiant souvent mot pour mot le contenu des sites web et reléguant les liens sources, ce qui pourrait avoir des conséquences significatives sur la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.