Désinformation en ligne : les limites éclatantes du système de modération des grandes plateformes
Alors que la désinformation sur la guerre entre Israël et le Hamas a explosé sur les réseaux sociaux, Reporters sans frontières (RSF) dénonce avec force l'incapacité structurelle des grandes plateformes numériques à modérer efficacement leurs contenus. La guerre entre le Hamas et Israël n’est qu’un révélateur d’un système de modération à bout de souffle.
Les entreprises Meta et TikTok affirment avoir procédé à la suppression de centaines de milliers de contenus haineux, violents ou contenant de fausses informations, produites sur le conflit entre Israël et le Hamas déclenché le 7 octobre dernier. Ainsi, le réseau social chinois annonce avoir retiré 500 000 vidéos et 8 000 diffusions en direct, quand l'entreprise américaine affirme avoir traité 795 000 contenus. Les deux déclarent avoir modéré ces contenus en raison des fausses informations, des images violentes, ou des appels à la haine qu’ils véhiculaient, sans préciser lesquels ont été retirés et dans quelles proportions.
Pour RSF, ces communications tentent de masquer le fond du problème derrière des chiffres aussi impressionnants qu’invérifiables. Incapables de rendre la désinformation moins visible que le journalisme de qualité, les plateformes se voient contraintes de recourir à une modération de masse.
“Ces chiffres spectaculaires ne sont en aucun cas le signe d'un triomphe. Ils prouvent au contraire que les plateformes pataugent dans leur lutte contre les fake news, en nettoyant à grandes eaux, parfois même sans discernement entre contenus légitimes ou illicites. Le modèle des plateformes, qui met au même niveau tous les producteurs de contenus sans donner aucune garantie concernant la qualité de l’information produite ou l’éthique de leurs auteurs, rend la modération de l’espace informationnel presque impossible.”
Vincent Berthier
Responsable du desk technologies de RSF
Dans son communiqué, Meta reconnaît avoir pris des mesures pour atténuer les problèmes de fonctionnement de son système de modération, soulignant ainsi la difficulté de la tâche. L’entreprise admet que sa technique de modération peut conduire au retrait de contenus qui n’enfreignent pas les conditions d’utilisation de la plateforme. Meta a donc annoncé que pour certaines infractions, les contenus suspectés seraient retirés, sans que les comptes des utilisateurs en question ne soient bloqués, alors que cette sanction était auparavant appliquée. Autre problème, certains journalistes ont signalé que leurs publications traitant de la bande de Gaza perdaient en visibilité sur la plateforme Instagram, un dysfonctionnement que Meta a attribué à un “bug” qui serait désormais corrigé. TikTok, de son côté, recourt à des pratiques classiques comme un réseau de fact-checkers, et le recours à des modérateurs assistés par l’intelligence artificielle, mais se repose également sur la vigilance de ses utilisateurs en mettant à leur disposition des outils de signalement : la situation est chaotique.
Les plateformes doivent cesser de naviguer à vue et s'engager pleinement dans la promotion systématique des créateurs de contenus fiables. Or, le système actuel soumet tous les comptes aux mêmes contraintes.
RSF invite les plateformes et les pouvoirs politiques à poser les bases de ce nouveau système en s’appuyant notamment sur les recommandations du Forum sur l’information et la démocratie. En Europe, le Règlement européen sur les services numériques, plus connu sous le sigle DSA pour Digital Services Act, est un premier cadre légal bienvenu qu’il faut désormais remplir avec des mesures fermes, pour contraindre les plateformes à revoir en profondeur leurs systèmes de modération et de distribution de l’information, plutôt que de simplement exiger d’elles des réactions en temps de crise.