La nouvelle politique de modération de Meta, maison-mère de Facebook et d’Instagram, risque d’accroître « la désinformation et les contenus dangereux » sur ces deux réseaux, a alerté lundi une ONG de lutte contre la désinformation en ligne.
Selon une étude du Center for Countering Digital Hate (CCDH), l’abandon annoncé par Meta de son programme de fact-checking et de ses systèmes de détection de discours haineux pourrait se traduire par l’arrêt de 97% de son travail de modération actuel et donc par un « raz-de-marée » de contenus préjudiciables aux internautes.
L’ONG a réalisé cette estimation en analysant les principaux changements annoncés par Meta le 7 janvier, parmi lesquels le remplacement du fact-checking par des notes de la communauté, ou encore l’abandon de ses règles sur « l’immigration, l’identité de genre et le genre ».
« Meta doit expliquer à ses utilisateurs pourquoi il abandonne une approche qu’il présentait comme efficace contre la désinformation et la polarisation » de l’opinion, pointe le CCDH dans son rapport.
Le 7 janvier, à quelques jours de l’investiture de Donald Trump, le patron de Meta, Mark Zuckerberg, avait annoncé qu’il allait se « débarrasser des fact-checkeurs et les remplacer par des notes de la communauté », estimant que les élections avaient marqué un « tournant culturel » qui donne « la priorité à la liberté d’expression »
Le groupe californien avait ajouté vouloir « simplifier » ses règles et « abolir un certain nombre de limites concernant des sujets tels que l’immigration et le genre, qui ne sont plus dans les discours dominants ».
Ce revirement a été suivi récemment par l’annonce d’un changement de politique du réseau social X d’Elon Musk.
Le proche conseiller de Donald Trump a promis jeudi dernier de « réparer » une fonctionnalité de X permettant aux utilisateurs de démentir ou nuancer des publications potentiellement fausses, reprochant aux « gouvernements et médias traditionnels » de s’en être emparés, sur fond de dissensions avec l’Ukraine.
Pour le patron du CCDH, Imran Ahmed, si les notes de la communauté restent « un ajout bienvenu aux mesures de sécurité des plateformes », ce modèle reposant sur la participation des internautes « ne peut et ne pourra jamais complètement remplacer des équipes de modération dédiées et une détection par IA ».
L’AFP participe dans plus de 26 langues à un programme de fact-checking développé par Facebook, qui rémunère plus de 80 médias à travers le monde,pour utiliser leurs « fact-checks » sur sa plateforme, sur WhatsApp et sur Instagram.
aor/cat/eml
« Tous droits de reproduction et de représentation réservés. © 2025 Agence France-Presse. »
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE