À l'approche des prochaines élections, Google, TikTok, Microsoft et Meta doivent également faire davantage pour lutter contre la désinformation, dont une grande partie provient de la Russie, qui utilise les médias sociaux pour mener une "guerre des idées" contre la démocratie, a déclaré la vice-présidente de la Commission européenne, Vera Jourova.
L'opération de désinformation de Moscou "est une arme de manipulation de masse de plusieurs millions d'euros visant à la fois les Russes en interne et les Européens et le reste du monde", a-t-elle déclaré lors d'une conférence de presse à Bruxelles. Avec les élections prévues en Slovaquie et en Pologne dans les semaines à venir et un vote à l'échelle de l'Union européenne l'année prochaine, les grandes plateformes en ligne doivent s'attaquer au risque d'ingérence en ligne, a-t-elle ajouté.
Le Kremlin et d'autres acteurs malveillants "essaieront d'utiliser les caractéristiques de conception des plateformes pour manipuler", a déclaré Mme Jourova. Elle faisait le point sur le code de bonne pratique sur la désinformation de l'UE des 27, qui date de 2022. Google, TikTok, Microsoft et Meta, la société mère de Facebook et d'Instagram, ont signé ce code volontaire l'année dernière, mais Twitter s'en est retiré après que M. Musk a racheté la plateforme. X est "la plateforme avec le plus grand nombre de messages de désinformation", a déclaré Mme Jourova.
La Commission européenne, l'organe exécutif de l'UE, a publié une étude portant sur six plateformes en ligne en Pologne, en Slovaquie et en Espagne, qui a révélé que Twitter avait la plus forte prévalence de désinformation et le plus grand nombre d'acteurs de la désinformation. Selon le rapport, "Twitter a la plus grande capacité de découverte" de la désinformation.
Mme Jourova a averti M. Musk qu'"il n'est pas tiré d'affaire" simplement parce que son entreprise s'est retirée du code. Le code a été intégré à un nouvel ensemble strict de réglementations européennes obligatoires, connu sous le nom de "loi sur les services numériques", qui soumet les plus grandes plateformes en ligne, dont X, au plus haut niveau d'examen. Désormais, "il y a des obligations imposées par la loi, donc mon message pour Twitter est : 'Vous devez vous conformer à la loi, et nous regarderons ce que vous faites'", a-t-elle déclaré.
En vertu de ce code, les plateformes en ligne acceptent de s'engager à prendre des mesures visant à réduire la désinformation et doivent présenter des rapports à intervalles réguliers. Après avoir soumis des rapports "de base", les plateformes ont publié mardi leurs premiers rapports semestriels sur la manière dont elles tiennent leurs promesses.
Déclaration à la presse de la vice-présidente Jourova concernant la réunion avec les signataires du code de conduite sur la désinformation
"Vérification de l'exécution"
Aujourd'hui, je voulais vous informer des progrès réalisés dans le cadre du code de lutte contre la désinformation.
Pour rappel, le code compte désormais 44 signataires, dont les principales plateformes en ligne telles que Facebook, Google, YouTube, TikTok ou LinkedIn, mais aussi le secteur de la publicité et la société civile.
Cette diversité d'acteurs est au cœur du code, car la lutte contre la désinformation et la manipulation de l'information en ligne nécessite une approche globale de la société.
Aujourd'hui, très bientôt, les premiers rapports complets des principales plateformes en ligne signataires du code seront publiés en ligne.
C'est la première fois que les plateformes signataires fournissent des données aussi complètes - couvrant une période de six mois - sur leurs efforts de lutte contre la désinformation en ligne. Cette nouvelle série de rapports marque une nouvelle phase pour le code et apporte des nouveautés importantes.
Je suis tout à fait consciente du travail accompli par les signataires pour mettre en œuvre le code et j'apprécie leurs efforts. Je reconnais que les plateformes ont apporté des améliorations en fournissant des données plus granulaires et plus pertinentes.
Je sais que cela exige des efforts de la part des signataires. Nous devons travailler ensemble pour que le code se concentre sur les éléments les plus importants et pour assurer la cohérence entre les différents groupes de travail.
La désinformation n'est pas un phénomène nouveau et ne se produit pas uniquement sur les plateformes en ligne. Mais avec la numérisation croissante, les acteurs malveillants disposent de nouveaux moyens pour tenter de saper nos démocraties.
L'un de mes principaux messages aux signataires est d'être conscient du contexte. La guerre de la Russie contre l'Ukraine et les élections européennes de l'année prochaine sont particulièrement pertinentes, car le risque de désinformation est particulièrement grave.
L'État russe s'est engagé dans la guerre des idées pour polluer notre espace d'information avec des demi-vérités et des mensonges afin de créer une fausse image selon laquelle la démocratie ne vaut pas mieux que l'autocratie.
Aujourd'hui, il s'agit d'une arme de manipulation de masse de plusieurs millions d'euros visant à la fois les Russes en interne, les Européens et le reste du monde.
Nous devons faire face à ce risque. Les très grandes plateformes doivent faire face à ce risque. D'autant plus que nous devons nous attendre à ce que le Kremlin et d'autres acteurs soient actifs avant les élections.
J'attends des signataires qu'ils adaptent leurs actions pour refléter le fait qu'une guerre est menée contre nous dans l'espace d'information et que des acteurs malveillants essaieront d'utiliser les caractéristiques de conception des plateformes pour manipuler les élections à venir.
Les prochaines élections nationales et européennes constitueront un test important pour le code, auquel les plateformes signataires ne doivent pas faillir. Les plateformes devront prendre leur responsabilité au sérieux, en particulier au regard de la loi sur les services numériques qui les oblige à atténuer les risques qu'elles posent pour les élections.
Bien entendu, la loi sur les services numériques est désormais contraignante et toutes les très grandes plateformes en ligne doivent s'y conformer.
Le code sous-tend la loi sur les services numériques, car notre intention est de transformer le code de pratique en un code de conduite pouvant faire partie d'un cadre de corégulation pour traiter les risques de désinformation.
Permettez-moi de souligner maintenant ce que nous voyons dans les rapports des signataires, mais permettez-moi de souligner qu'il s'agit d'une évaluation pré-liminaire. Il faudra du temps pour évaluer les centaines de pages dans leur intégralité. En fait, chaque rapport compte en moyenne plus de 200 pages.
La grande nouveauté du code est la publication de la première série d'indicateurs structurels, tels que la facilité avec laquelle il est possible de trouver des contenus de désinformation, l'importance de l'engagement de ces contenus ou des indicateurs sur les sources.
Ces indicateurs, élaborés par les signataires, offrent un aperçu inédit et sans précédent de la désinformation sur les plateformes en ligne. Ces informations sont essentielles pour comprendre l'efficacité des efforts déployés par les plateformes pour lutter encore plus efficacement contre cette menace. Il s'agit d'une proposition industrielle très précieuse qui présente un grand potentiel, même si elle doit encore être développée.
Les signataires ont décidé de lancer une phase pilote dans trois États membres afin d'évaluer la méthodologie sur deux de ces indicateurs. X, l'ancien Twitter, qui n'est plus soumis au code, est la plateforme qui affiche le plus grand nombre de messages de désinformation.
Le projet pilote a également montré que les acteurs de la désinformation avaient beaucoup plus de followers que leurs homologues non désinformateurs et qu'ils avaient tendance à avoir rejoint la plateforme plus récemment que les utilisateurs non désinformateurs.
Ensuite, nous avons demandé aux plateformes de surveiller spécifiquement la désinformation concernant la guerre russe en Ukraine. Quelques exemples.
Google signale qu'entre janvier et avril 2023, YouTube a supprimé plus de 400 chaînes impliquées dans des opérations d'influence coordonnées liées à l'Agence de recherche sur l'Internet (IRA), parrainée par l'État russe.
Google a également supprimé les publicités de près de 300 sites liés à des sites de propagande financés par l'État.
Meta indique avoir étendu ses partenariats de vérification des faits à 26 partenaires couvrant 22 langues dans l'UE, ce qui inclut désormais le tchèque et le slovaque.
Les efforts de vérification de TikTok couvrent le russe, l'ukrainien, le biélorusse et 17 langues européennes, notamment grâce à un nouveau partenariat avec Reuters. Dans ce contexte, 832 vidéos liées à la guerre ont été vérifiées, dont 211 ont été supprimées.Microsoft souligne que Bing Search a soit promu des informations, soit déclassé des informations douteuses en relation avec près de 800 000 requêtes de recherche liées à la crise.S'il est bon d'avoir cet aperçu spécifique de la désinformation autour de la guerre, je m'attends à ce que les plateformes fassent plus d'efforts et obtiennent de meilleurs résultats. La propagande et la désinformation russes sont toujours très présentes sur les plateformes en ligne. Ce n'est pas comme d'habitude. Le Kremlin se bat avec des bombes en Ukraine, mais avec des mots partout ailleurs, y compris dans l'UE.
Enfin, je suis heureux de constater que les grandes plateformes ont commencé à s'attaquer aux risques de l'IA générative en commençant à mettre en place des garanties pour informer les utilisateurs de l'origine synthétique du contenu mis en ligne. Ces efforts doivent se poursuivre et s'intensifier compte tenu du potentiel élevé de ces produits d'IA réalistes pour la création et la diffusion de désinformation. Les risques sont particulièrement élevés dans le contexte des élections. J'invite donc les plateformes à être vigilantes et à fournir des garanties efficaces à cet égard dans le contexte des élections. Plus tard dans la journée, je rencontrerai des représentants d'OpenAI pour en parler également. Permettez-moi de mentionner brièvement quelques domaines sur lesquels je souhaite que les plateformes concentrent leur travail.
Premièrement, une modération cohérente et un investissement dans la vérification des faits, en particulier dans les petits États membres et les petites langues. Deuxièmement, l'accès aux données. Les plateformes doivent redoubler d'efforts à cet égard pour s'assurer qu'elles permettent aux chercheurs de faire leur travail et contribuent à la transparence nécessaire. En conclusion, le code s'avère un exercice utile et une bonne chose à faire. Il soutient les signataires dans la mise en œuvre de la loi sur les services numériques et offre un forum important pour le dialogue et l'expérimentation d'idées susceptibles de contribuer au respect des obligations légales. Plus important encore, alors que nous nous déplaçons de plus en plus dans l'espace numérique, également pour nous informer sur la politique et former nos opinions, le code est un pilier important pour lutter contre la désinformation et la manipulation de l'information sur les plateformes en ligne. La lutte contre ces phénomènes dangereux nécessite des efforts et des investissements.
Je vous remercie de votre attention.
"Vérification de l'exécution"
Aujourd'hui, je voulais vous informer des progrès réalisés dans le cadre du code de lutte contre la désinformation.
Pour rappel, le code compte désormais 44 signataires, dont les principales plateformes en ligne telles que Facebook, Google, YouTube, TikTok ou LinkedIn, mais aussi le secteur de la publicité et la société civile.
Cette diversité d'acteurs est au cœur du code, car la lutte contre la désinformation et la manipulation de l'information en ligne nécessite une approche globale de la société.
Aujourd'hui, très bientôt, les premiers rapports complets des principales plateformes en ligne signataires du code seront publiés en ligne.
C'est la première fois que les plateformes signataires fournissent des données aussi complètes - couvrant une période de six mois - sur leurs efforts de lutte contre la désinformation en ligne. Cette nouvelle série de rapports marque une nouvelle phase pour le code et apporte des nouveautés importantes.
Je suis tout à fait consciente du travail accompli par les signataires pour mettre en œuvre le code et j'apprécie leurs efforts. Je reconnais que les plateformes ont apporté des améliorations en fournissant des données plus granulaires et plus pertinentes.
Je sais que cela exige des efforts de la part des signataires. Nous devons travailler ensemble pour que le code se concentre sur les éléments les plus importants et pour assurer la cohérence entre les différents groupes de travail.
La désinformation n'est pas un phénomène nouveau et ne se produit pas uniquement sur les plateformes en ligne. Mais avec la numérisation croissante, les acteurs malveillants disposent de nouveaux moyens pour tenter de saper nos démocraties.
L'un de mes principaux messages aux signataires est d'être conscient du contexte. La guerre de la Russie contre l'Ukraine et les élections européennes de l'année prochaine sont particulièrement pertinentes, car le risque de désinformation est particulièrement grave.
L'État russe s'est engagé dans la guerre des idées pour polluer notre espace d'information avec des demi-vérités et des mensonges afin de créer une fausse image selon laquelle la démocratie ne vaut pas mieux que l'autocratie.
Aujourd'hui, il s'agit d'une arme de manipulation de masse de plusieurs millions d'euros visant à la fois les Russes en interne, les Européens et le reste du monde.
Nous devons faire face à ce risque. Les très grandes plateformes doivent faire face à ce risque. D'autant plus que nous devons nous attendre à ce que le Kremlin et d'autres acteurs soient actifs avant les élections.
J'attends des signataires qu'ils adaptent leurs actions pour refléter le fait qu'une guerre est menée contre nous dans l'espace d'information et que des acteurs malveillants essaieront d'utiliser les caractéristiques de conception des plateformes pour manipuler les élections à venir.
Les prochaines élections nationales et européennes constitueront un test important pour le code, auquel les plateformes signataires ne doivent pas faillir. Les plateformes devront prendre leur responsabilité au sérieux, en particulier au regard de la loi sur les services numériques qui les oblige à atténuer les risques qu'elles posent pour les élections.
Bien entendu, la loi sur les services numériques est désormais contraignante et toutes les très grandes plateformes en ligne doivent s'y conformer.
Le code sous-tend la loi sur les services numériques, car notre intention est de transformer le code de pratique en un code de conduite pouvant faire partie d'un cadre de corégulation pour traiter les risques de désinformation.
Permettez-moi de souligner maintenant ce que nous voyons dans les rapports des signataires, mais permettez-moi de souligner qu'il s'agit d'une évaluation pré-liminaire. Il faudra du temps pour évaluer les centaines de pages dans leur intégralité. En fait, chaque rapport compte en moyenne plus de 200 pages.
La grande nouveauté du code est la publication de la première série d'indicateurs structurels, tels que la facilité avec laquelle il est possible de trouver des contenus de désinformation, l'importance de l'engagement de ces contenus ou des indicateurs sur les sources.
Ces indicateurs, élaborés par les signataires, offrent un aperçu inédit et sans précédent de la désinformation sur les plateformes en ligne. Ces informations sont essentielles pour comprendre l'efficacité des efforts déployés par les plateformes pour lutter encore plus efficacement contre cette menace. Il s'agit d'une proposition industrielle très précieuse qui présente un grand potentiel, même si elle doit encore être développée.
Les signataires ont décidé de lancer une phase pilote dans trois États membres afin d'évaluer la méthodologie sur deux de ces indicateurs. X, l'ancien Twitter, qui n'est plus soumis au code, est la plateforme qui affiche le plus grand nombre de messages de désinformation.
Le projet pilote a également montré que les acteurs de la désinformation avaient beaucoup plus de followers que leurs homologues non désinformateurs et qu'ils avaient tendance à avoir rejoint la plateforme plus récemment que les utilisateurs non désinformateurs.
Ensuite, nous avons demandé aux plateformes de surveiller spécifiquement la désinformation concernant la guerre russe en Ukraine. Quelques exemples.
Google signale qu'entre janvier et avril 2023, YouTube a supprimé plus de 400 chaînes impliquées dans des opérations d'influence coordonnées liées à l'Agence de recherche sur l'Internet (IRA), parrainée par l'État russe.
Google a également supprimé les publicités de près de 300 sites liés à des sites de propagande financés par l'État.
Meta indique avoir étendu ses partenariats de vérification des faits à 26 partenaires couvrant 22 langues dans l'UE, ce qui inclut désormais le tchèque et le slovaque.
Les efforts de vérification de TikTok couvrent le russe, l'ukrainien, le biélorusse et 17 langues européennes, notamment grâce à un nouveau partenariat avec Reuters. Dans ce contexte, 832 vidéos liées à la guerre ont été vérifiées, dont 211 ont été supprimées.Microsoft souligne que Bing Search a soit promu des informations, soit déclassé des informations douteuses en relation avec près de 800 000 requêtes de recherche liées à la crise.S'il est bon d'avoir cet aperçu spécifique de la désinformation autour de la guerre, je m'attends à ce que les plateformes fassent plus d'efforts et obtiennent de meilleurs résultats. La propagande et la désinformation russes sont toujours très présentes sur les plateformes en ligne. Ce n'est pas comme d'habitude. Le Kremlin se bat avec des bombes en Ukraine, mais avec des mots partout ailleurs, y compris dans l'UE.
Enfin, je suis heureux de constater que les grandes plateformes ont commencé à s'attaquer aux risques de l'IA générative en commençant à mettre en place des garanties pour informer les utilisateurs de l'origine synthétique du contenu mis en ligne. Ces efforts doivent se poursuivre et s'intensifier compte tenu du potentiel élevé de ces produits d'IA réalistes pour la création et la diffusion de désinformation. Les risques sont particulièrement élevés dans le contexte des élections. J'invite donc les plateformes à être vigilantes et à fournir des garanties efficaces à cet égard dans le contexte des élections. Plus tard dans la journée, je rencontrerai des représentants d'OpenAI pour en parler également. Permettez-moi de mentionner brièvement quelques domaines sur lesquels je souhaite que les plateformes concentrent leur travail.
Premièrement, une modération cohérente et un investissement dans la vérification des faits, en particulier dans les petits États membres et les petites langues. Deuxièmement, l'accès aux données. Les plateformes doivent redoubler d'efforts à cet égard pour s'assurer qu'elles permettent aux chercheurs de faire leur travail et contribuent à la transparence nécessaire. En conclusion, le code s'avère un exercice utile et une bonne chose à faire. Il soutient les signataires dans la mise en œuvre de la loi sur les services numériques et offre un forum important pour le dialogue et l'expérimentation d'idées susceptibles de contribuer au respect des obligations légales. Plus important encore, alors que nous nous déplaçons de plus en plus dans l'espace numérique, également pour nous informer sur la politique et former nos opinions, le code est un pilier important pour lutter contre la désinformation et la manipulation de l'information sur les plateformes en ligne. La lutte contre ces phénomènes dangereux nécessite des efforts et des investissements.
Je vous remercie de votre attention.
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Voir aussi :
Elon Musk retire Twitter du code de bonnes pratiques de l'UE contre la désinformation mais Thierry Breton rappelle au réseau qu'il sera tenu de lutter contre la désinformation à partir du 25 août
Twitter et TikTok sont les leaders de la désinformation, les sujets les plus courants étant la COVID-19, les règles de voyage pour la pandémie, l'invasion russe en Ukraine et les élections aux USA
« Twitter sera banni de l'UE, s'il ne se conforme pas à nos règles » prévient la France, suite à la décision d'Elon Musk de se retirer du code volontaire de bonnes pratiques contre la désinformation