Cette prolifération de contenus automatisés dégrade la qualité des conversations en ligne et crée un écosystème où les robots interagissent entre eux. L'industrie de la fabrication de bots prospère, avec des créateurs proposant leurs services sur des plateformes en ligne. Malgré les tentatives des plateformes de lutter contre ce problème émergent, le « grand déluge de l'IA » menace d'inonder davantage internet de contenus générés par des machines, compromettant la fiabilité des résultats de recherche et des plateformes en ligne.
Un matin de janvier dernier, Terry Hughes, spécialiste des sciences de la mer, a ouvert X (anciennement Twitter) et a effectué une recherche de tweets sur la Grande Barrière de Corail. « Je surveille quotidiennement les tweets concernant le récif », explique le professeur Hughes, l'un des principaux chercheurs sur les coraux à l'université James Cook.
Ce qu'il a découvert ce jour-là l'a surpris et déconcerté : des centaines de comptes robots tweetant le même message étrange avec des formulations légèrement différentes. « Wow, je n'avais aucune idée que le ruissellement agricole pouvait avoir un impact aussi dévastateur sur la Grande Barrière de Corail », a tweeté un compte qui, par ailleurs, faisait l'apologie des cryptomonnaies. Un autre bot cryptographique a écrit : « Wow, c'est décourageant d'entendre parler des problèmes de pollution de l'eau auxquels l'Australie est confrontée ».
Au début du mois, des affrontements entre des groupes de robots ont éclaté suite à l'incident impliquant le ballon espion chinois. Une proportion significative des intervenants semblent être des robots cherchant à influencer le débat. Kathleen Carley et Lynnette Hui Xian Ng, de l'université Carnegie Mellon en Pennsylvanie, ont examiné près de 1,2 million de tweets provenant de plus de 120 000 utilisateurs sur Twitter, rebaptisé X, entre le 31 janvier et le 22 février 2023. Tous les tweets étaient accompagnés des hashtags #chineseballoon et #weatherballoon, se référant à l'objet aérien controversé que les États-Unis accusent la Chine d'utiliser à des fins d'espionnage.How bizarre is this? pic.twitter.com/erCXtv1lrE
— Terry Hughes (@ProfTerryHughes) January 23, 2024
Les tweets ont été géolocalisés via la fonction dédiée de Twitter et soumis à l'analyse de l'algorithme BotHunter, qui identifie les signaux indiquant qu'un compte n'est pas contrôlé par un être humain. Kathleen Carley explique : « Divers critères sont utilisés pour identifier un bot, comme l'envoi de messages à une vitesse impossible pour un humain ou des changements de géolocalisation de Londres à la Nouvelle-Zélande en une minute, physiquement impossible pour une personne ».
Les résultats de l'étude révèlent qu'environ 35 % des utilisateurs géolocalisés aux États-Unis présentaient un comportement similaire à celui d'un bot, tandis que 65 % étaient considérés comme des humains. En Chine, les proportions étaient inversées, avec 64 % de bots et 36 % d'humains. Parmi les comptes prétendument situés dans l'un ou l'autre pays, 42 % étaient des bots et 58 % des humains. Bien que l'obtention de statistiques précises soit difficile, des recherches antérieures suggèrent que 10 à 20 % des utilisateurs de Twitter pourraient être des bots. Ces robots effectuent de manière autonome des tâches telles que l'envoi de messages sur Twitter et l'interaction avec d'autres publications, souvent dans le but d'influencer l'opinion publique.
L'intelligence artificielle porte un coup fatal au web traditionnel, et le nouvel internet peine à émerger. Ces derniers mois, les signes alarmants se multiplient rapidement. Google cherche à éliminer les 10 liens bleus, Twitter est envahi par des bots et des badges bleus, Amazon subit une « junkification », et TikTok connaît une « enshittification ». Les médias en ligne sont ravagés par des licenciements massifs, avec des offres d'emploi exigeant la production de « 200 à 250 articles par semaine » par un « rédacteur IA ».
ChatGPT est exploité pour la création de sites de spam, Etsy est inondé de « déchets générés par l'IA », et les chatbots s'auto-citent dans un tourbillon de désinformation. LinkedIn utilise l'IA pour stimuler des utilisateurs fatigués, Snapchat et Instagram espèrent que des bots prendront le relais lorsque vos amis ne le feront pas. Les Redditors organisent des pannes de courant, les mods de Stack Overflow sont en grève, et l'Internet Archive lutte contre les racleurs de données, tandis que « l'IA met Wikipédia en pièces ». L'ancien web agonise, et le nouveau peine à voir le jour.
Le déclin du web est un phénomène continu, mais en 2023, une nouvelle menace émerge, comme le suggère la liste précédente : l'intelligence artificielle. Le problème essentiel réside dans le fait que l'IA dépasse la capacité d'échelle d'Internet. Autrefois, le web était le domaine où les individus créaient du contenu, des pages d'accueil aux forums. Cependant, les entreprises ont introduit des plateformes sophistiquées, incitant les utilisateurs à les remplir de contenu. Avec la croissance, ces plateformes deviennent des cibles lucratives. Mais l'IA perturbe ces dynamiques.
Les systèmes d'IA, en particulier les modèles génératifs, se développent de manière exponentielle avec des ressources financières et informatiques. Ils produisent massivement du texte, des images, et bientôt de la musique et de la vidéo. Bien que cette production puisse rivaliser avec les plateformes traditionnelles, la qualité souvent médiocre de ces systèmes perturbe le paysage. Ils sont formés sur des données établies pendant la dernière ère du web, recréant imparfaitement ces informations. Les entreprises utilisent ces données pour générer un contenu bon marché mais moins fiable, rivalisant avec les plateformes et les créateurs traditionnels pour attirer l'attention. Les utilisateurs et les sites tentent de comprendre ces changements et de s'adapter à cette nouvelle réalité incertaine.
Des discussions et des expériences révèlent la tension créée par l'apparition de systèmes d'IA
Les modérateurs de Reddit ont décidé d'organiser des coupures de courant en réaction à l'annonce par l'entreprise d'une augmentation significative des frais d'accès à son API. Les dirigeants de Reddit justifient ces changements en partie comme une réponse aux entreprises d'IA qui récupèrent leurs données. Steve Huffman, fondateur et PDG de Reddit, a souligné la valeur importante du corpus de données de Reddit, déclarant au New York Times : « Mais nous n'avons pas besoin de donner gratuitement toute cette valeur à certaines des plus grandes entreprises du monde. » Bien que cette augmentation des frais soit également liée à la préparation d'une introduction en bourse prévue plus tard dans l'année, elle souligne la tension entre le web actuel et le scraping, incitant les entreprises à revoir l'accessibilité de leurs plateformes.
Wikipédia a longtemps été sujet à être « scrapée » par Google pour fournir des « panels de connaissances », avec le géant de la recherche payant récemment pour ces informations. Cependant, les modérateurs de Wikipédia explorent désormais l'utilisation des nouveaux modèles de langage de l'IA pour rédiger des articles pour le site lui-même. Bien conscients des risques associés à ces systèmes génératifs, qui peuvent créer des faits et des sources de manière trompeuse, ils reconnaissent également les avantages en termes de rapidité et de portée. Amy Bruckman, professeur de communautés en ligne, a souligné le risque de diminution de la qualité sur Wikipédia, tout en suggérant que l'utilisation initiale de l'IA comme brouillon pourrait être envisagée, mais chaque point devrait être vérifié.
Stack Overflow présente un cas similaire, les modérateurs étant en grève et exprimant des préoccupations quant à la qualité du contenu généré par les machines. Bien que ChatGPT ait été initialement interdit sur la plateforme en raison de la facilité avec laquelle il produisait des réponses potentiellement erronées, l'interdiction a été partiellement levée par l'entreprise, qui souhaite désormais tirer parti de la technologie de l'IA tout en continuant à débattre avec les modérateurs sur les normes du site.
Cependant, les changements les plus importants semblent se produire chez Google, dont la recherche est au cœur de l'économie du web moderne. Google répond à la popularité croissante de Bing AI et de ChatGPT en tant que moteurs de recherche alternatifs en expérimentant le remplacement des traditionnels « 10 liens bleus » par des résumés générés par l'IA. Les critiques soulignent que le nouveau système de Google agit essentiellement comme un « moteur de plagiat », copiant souvent mot pour mot le contenu des sites web et reléguant les liens sources, ce qui pourrait avoir des conséquences significatives sur la viabilité économique de nombreux sites.
En fin de compte, ces évolutions soulignent les défis posés par l'utilisation de l'IA pour générer du contenu bon marché à partir du travail d'autrui. Si Google poursuit son expérience actuelle de recherche par l'IA, les répercussions sur le web pourraient être profondes et difficiles à prédire. Les sites pourraient réagir en restreignant l'accès et en instaurant des frais, ce qui entraînerait une réorganisation majeure de l'économie du web. En dernière analyse, Google pourrait potentiellement nuire à l'écosystème qui a contribué à sa propre valeur, voire menacer sa propre existence.
Étendue du problème lié aux robots de l'entreprise X
En janvier, un incident impliquant ChatGPT a mis en lumière les problèmes liés aux robots de cette société. Pendant une brève période, certains comptes de l'entreprise X semblaient être exploités par des robots. Ces comptes ont affiché les réponses génériques de ChatGPT à des demandes jugées hors politique de contenu, révélant ainsi leur utilisation par des bots générant du contenu. Des utilisateurs ont partagé des vidéos montrant des flux de messages automatisés, et de nombreux comptes ont indiqué ne pas pouvoir répondre en raison de la politique de contenu d'OpenAI, transformant Twitter en une « zone fantôme », selon un utilisateur.
Cependant, évaluer l'ampleur réelle du problème des robots de X depuis l'extérieur reste difficile. Peu après que Elon Musk ait pris le contrôle de X et exprimé ses préoccupations concernant les bots, l'accès gratuit à l'interface de programmation permettant aux chercheurs d'étudier le problème a été fermé. Les chercheurs ont été contraints de choisir entre payer X pour accéder à ses données ou trouver d'autres moyens pour les obtenir. Des études, notamment celles du QUT, ont révélé que le problème des robots était plus grave que jamais, mais l'accès limité complique l'estimation précise de l'ampleur du problème.
L'industrie croissante de la fabrication de robots souligne la complexité du problème des bots. Les robots cryptographiques stimulent la demande de certaines pièces, les robots pornographiques incitent au paiement sur des sites pour adultes, les robots de désinformation propagent de fausses nouvelles, et les robots d'astroturfing créent une fausse impression de soutien populaire. Certains bots visent simplement à augmenter le nombre de followers et les statistiques d'engagement pour des clients payants. Cette industrie en plein essor attire des créateurs de robots du monde entier, offrant leurs services sur des plateformes indépendantes.
Awais Yousaf, un informaticien pakistanais, vend des « robots Twitter ChatGPT » pour différents tarifs en fonction de leur complexité. Il a noté l'évolution de la demande, initialement axée sur la promotion de cryptomonnaies, puis sur les NFT (jetons non fongibles), et finalement sur l'intégration de l'IA, en particulier le modèle GPT3 d'OpenAI. Yousaf a créé 120 bots Twitter en cinq ans, principalement liés à l'IA. Interrogé sur la promesse de Elon Musk de « vaincre les robots spammeurs », Yousaf a souligné la complexité de supprimer les robots de Twitter, affirmant que la plateforme était essentiellement constituée de robots.
Source : Terry Hughes on X
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Le procureur général du Texas ouvre une enquête sur les bots de Twitter, Twitter a jusqu'au 27 juin pour répondre à la demande du procureur général Paxton
Pour déterminer le pourcentage de bots sur Twitter, Elon Musk a utilisé un outil qui a déjà qualifié son propre compte de bot, selon des affirmations de Twitter auprès du tribunal