
Si votre fil Reels Instagram affiche des contenus dérangeants, sensibles ou violents, vous n'êtes pas le seul. Des utilisateurs du monde entier ont signalé une augmentation soudaine des posts contenant des violences graphiques et du matériel explicite de manière inattendue. Meta, la société mère d'Instagram, a admis une erreur et a également répondu aux préoccupations des utilisateurs.
En mai 2024, Meta a fait l'objet d'une enquête de l'UE sur les risques liés à la sécurité des enfants en vertu de la loi de l'Union européenne sur les services numériques (DSA). La Commission européenne a déclaré qu'elle avait décidé d'ouvrir une enquête approfondie sur Facebook et Instagram parce qu'elle craignait qu'ils n'aient pas suffisamment pris en compte les risques pour les enfants, notamment les contenus illégaux et préjudiciable.
Il semble que ces craintes soient devenues une réalité récemment. Des utilisateurs du monde entier ont signalé que leur fil Instagram était inopinément rempli de contenus violents et NSFW (Not Safe for Work). Les utilisateurs sont confrontés à une violence graphique et à du matériel explicite, notamment des images de blessures graves, de cadavres et d'attaques violentes. Un utilisateur a posté sur X : "J'ai ouvert Instagram ce matin, et tout mon fil Reels était un spectacle d'horreur - des clips de meurtres, des combats brutaux, des cas de viols, des accidents mortels. Et je n'étais pas le seul, des gens du monde entier ont vu la même chose. S'agit-il d'une erreur d'algorithme ou d'une intention délibérée ? Quoi qu'il en soit, c'est inquiétant".
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Opened Instagram this morning, and my entire Reels feed was a horror show—murder clips, brutal fights, rape cases, deadly accidents. And it wasn’t just me; people worldwide saw the same. Was this an algorithm glitch or intentional? Either way, it’s disturbing. <a href="https://twitter.com/instagram?ref_src=twsrc%5Etfw">@instagram</a> ? <a href="https://t.co/rPp7vAmAhd">pic.twitter.com/rPp7vAmAhd</a></p>— اظہر (@a_x_har) <a href="https://twitter.com/a_x_har/status/1894812963971731745?ref_src=twsrc%5Etfw">February 26, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
Bien que certains de ces messages aient été marqués comme "contenu sensible", ils sont restés accessibles, ce qui soulève des inquiétudes quant à la politique de modération des contenus d'Instagram. Les utilisateurs frustrés se sont tournés vers les médias sociaux pour partager leurs expériences et demander des explications à Instagram. L'augmentation soudaine de ce type de contenu a suscité des spéculations : s'agit-il d'une erreur ou d'un changement d'algorithme délibéré ?
En réponse, Meta a présenté ses excuses et confirmé qu'elle avait résolu une "erreur" qui avait conduit les utilisateurs d'Instagram à voir une recrudescence de contenus violents et graphiques sur leur fil Reels. "Nous avons corrigé une erreur qui a conduit certains utilisateurs à voir du contenu dans leur flux Reels d'Instagram qui n'aurait pas dû être recommandé. Nous nous excusons pour cette erreur", a déclaré un porte-parole de Meta.
Selon la politique de Meta, l'entreprise cherche à protéger les utilisateurs des images pénibles et supprime les contenus excessivement violents ou graphiques. Parmi les contenus interdits figurent les vidéos montrant "des démembrements, des entrailles visibles ou des corps carbonisés", ainsi que les messages contenant "des remarques sadiques à l'égard d'images représentant la souffrance d'êtres humains et d'animaux".
Meta autorise toutefois certains contenus graphiques s'ils servent à sensibiliser le public aux violations des droits de l'homme, aux conflits armés ou au terrorisme. Ces messages peuvent être limités par des étiquettes d'avertissement.
Avec cette déclaration de Meta, des milliers d'utilisateurs d'Instagram se sont rendus sur X et Reddit pour faire part d'expériences similaires, se demandant si d'autres personnes étaient confrontées au même problème et exigeant une réponse de Meta. Et bien que Meta se soit excusé et ait affirmé avoir résolu le problème, certains utilisateurs affirment qu'ils voient toujours des contenus violents et graphiques sur leur fil d'actualité.
- "C'est moi ou les Reels d'Instagram sont devenues folles aujourd'hui ? Mon fil est plein de choses violentes et sensibles !".
- "Qu'est-ce qui ne va pas avec Instagram aujourd'hui ? Mon fil insta et mes bobines ne cessent d'afficher des contenus sensibles. Et aussi des contenus qui mettent mal à l'aise et qui ne peuvent être regardés. Il est choquant de constater que cela arrive à la majorité des gens."
- "J'ai vu plus de 20 coups de feu, 5 bagarres entre gangs, 13 accidents mortels, un homme écrasé par un éléphant et une naissance d'enfant sur mon fil instagram aujourd'hui."
- "Au cours des dernières heures, mon flux IG Reels a soudainement commencé à afficher des vidéos violentes ou dérangeantes, venues de nulle part. C'est aléatoire"
Certains utilisateurs ont même partagé des vidéos montrant leurs fils d'actualité inondés d'avertissements de contenu sensible.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">bro what the FUCK is this new instagram reels feed… 6 sensitive content vids in a row is insane: <a href="https://t.co/pgDG6dBVIX">pic.twitter.com/pgDG6dBVIX</a></p>— chris メ𝟶 (@christwod) <a href="https://twitter.com/christwod/status/1894815810419322898?ref_src=twsrc%5Etfw">February 26, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
Ce n'est pas la première fois qu'Instagram fait l'objet d'un examen minutieux pour sa modération de contenu. Une enquête menée par le Wall Street Journal a révélé que la plateforme faisait la promotion de Reels explicites auprès d'adolescents âgés de 13 ans, même s'ils ne recherchaient pas activement ce type de contenu. Entre janvier et avril de l'année 2024, des chercheurs ont effectué des tests en créant des profils avec un âge de 13 ans pour observer la réaction d'Instagram. Dès la création de ces comptes, la plateforme a commencé à recommander des vidéos présentant des danses suggestives ou des plans rapprochés de corps de femmes.
Au cours de l'enquête, les chercheurs ont découvert des vidéos contenant de la nudité et, dans un cas, une série de vidéos décrivant des actes sexuels graphiques et explicites, quelques minutes seulement après la création du compte. En revanche, lorsque des tests similaires ont été effectués sur TikTok et Snapchat, aucun contenu de ce type n'a été recommandé. Même en recherchant activement des contenus similaires ou en suivant des créateurs connus pour les publier, ces plateformes n'ont pas automatiquement poussé de telles vidéos vers les comptes de test.
Une autre étude interne datant de 2022, examinée par le Wall Street Journal, indique que Meta savait depuis longtemps qu'Instagram affichait plus de contenus pour adultes, de contenus violents et de discours haineux pour les jeunes utilisateurs que pour les adultes. Les enquêtes de l'entreprise ont révélé que les adolescents sur la plateforme ont déclaré avoir été victimes d'intimidation, de contenu violent et de nudité non désirée plus fréquemment que les utilisateurs plus âgés. Les données internes ont également confirmé que les enfants étaient exposés de manière disproportionnée à des contenus enfreignant les lignes directrices de la plateforme.
L'étude a révélé que les utilisateurs mineurs voyaient trois fois plus de contenus restreints comportant de la nudité, 1,7 fois plus de contenus violents et 4,1 fois plus de messages liés à l'intimidation que les utilisateurs de plus de 30 ans. L'étude souligne également que les outils de modération automatisés de Meta ne sont pas assez puissants pour empêcher les contenus inappropriés d'atteindre les jeunes utilisateurs.
Une autre enquête du Financial Times a révélé que Google et Meta ont conclu un accord secret pour cibler des publicités pour Instagram sur des adolescents sur YouTube, en contournant les propres règles de l'entreprise de recherche sur la manière dont les mineurs sont traités en ligne. Selon des documents, Google a travaillé sur un projet de marketing pour Meta qui visait à cibler les utilisateurs de YouTube âgés de 13 à 17 ans avec des publicités faisant la promotion de l'application photo et vidéo de son rival. Les documents suggèrent également que des mesures ont été prises pour s'assurer que la véritable intention de la campagne était déguisée.
Et vous ?


Voir aussi :



Vous avez lu gratuitement 8 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.