Facebook : terrorisme, porno, maltraitance... les secrets de modération du plus grand censeur du monde révélés

Publié le 23 mai 2017 à 13h39, mis à jour le 23 mai 2017 à 14h41
Facebook : terrorisme, porno, maltraitance... les secrets de modération du plus grand censeur du monde révélés

RÉSEAU SOCIAL - Une centaine de documents internes, dévoilés par le journal britannique "The Guardian", décrivent les méthodes souvent déroutantes utilisées par le réseau social pour modérer les millions de contenus postés chaque jour.

C’était probablement l’un des secrets les mieux gardés de Facebook. Depuis deux jours, le Guardian publie les résultats de sa grande enquête sur les étranges règles de modération du réseau. Le quotidien britannique exploite une centaine de documents internes qui ont fuité, appelés les "Facebook Files", qui révèlent les consignes internes et les moyens employés par l’entreprise de Mark Zuckerberg pour empêcher la diffusion de contenus indésirables.

De l’apologie du terrorisme à la pornographie, en passant par la nudité ou le cannibalisme, Facebook a recensé de nombreux exemples pour illustrer ce "manuel d’instruction". De petites croix rouges ou vertes, assorties d’explications relativement sommaires, sont censés former rapidement les modérateurs pour faire le tri parmi les publications interdites par la plateforme, signalées par les utilisateurs ou repérés les algorithmes.

Des règles de modération pour le moins déroutantes

Les révélations du Guardian surviennent alors que Facebook est régulièrement sous le feu des critiques pour les largesses de sa modération, accusée tour à tour d’être trop lente, trop sévère ou tout simplement incompréhensible pour l’utilisateur lambda. 

En France, Facebook a notamment été critiqué, notamment en France, pour son manque de réactivité face aux contenus faisant l’apologie du terrorisme ou face aux discours haineux (sexisme, homophobie…). Après des tests démontrant les lacunes de la modération de la plupart des grands réseaux sociaux, l’Allemagne travaille à un projet de loi augmentant sensiblement les amendes pour les réseaux sociaux qui ne retireraient pas rapidement de leur plateforme des contenus illégaux. 

Les règles de modération de Facebook relèvent en effet d’une logique à deux vitesses, pour le moins déroutante. A la lecture de ces documents, on y apprend, par exemple, que le réseau social supprime les contenus sensibles en prenant en compte les intentions et de ceux qui les diffusent. Par exemple, une phrase comme "Que quelqu’un abatte Trump" est interdite, tandis qu'une injonction telle que "Donne un coup de pied à un roux" est en revanche tolérée. Une question de "catégorie protégée" dans le premier cas, rétorque Facebook, et de manque de "cible spécifique "dans le second.

Maltraitance animale et cannibalisme, aucun problème !

Parmi cette masse de fichiers, on apprend, en outre, que le "revenge porn"(porno-vengeance, en bon français) qui inonde constamment le média social, est interdit. On s’étonne, en revanche, de voir que la maltraitance d’animaux, le harcèlement d’enfants ou les guides pour cannibales ne posent pas de problème. Pour ce qui est de la nudité, le site de Mark Zuckerberg ne se gêne pas pour censurer des représentations de femmes allaitant leur bébé ou le tableau de Courbet L’Origine du monde, qui avait été traité comme une vulgaire image de revue porno de bas étage. 

1.3 millions de contenus postés chaque jour sur Facebook

En septembre dernier, le réseau social a été vivement critique lorsqu’il a décidé de supprimer, parce que des "parties génitales étaient visibles", la célèbre photographie de la "fillette au Napalm", avant de faire machine arrière. A la suite de cette polémique, relève le Guardian, le site de Mark Zuckerberg a fini par se résoudre à assouplir ses règles de modération. Depuis cet épisode, Facebook permet des "exceptions à la presse", lorsqu’il s’agit de dénoncer la "terreur de la guerre", à l’exception toutefois de la "nudité enfantine dans le contexte de l’Holocauste". 

3000 modérateurs supplémentaires dès cette année

Comme la plupart des réseaux sociaux, le site de Mark Zuckerberg contrôle les contenus a posteriori. Autrement dit, une fois que ceux-ci ont été publiés et signalés par les utilisateurs (ou ses algorithmes). Alors que 1,3 millions de contenus sont postés chaque jour sur Facebook, le réseau social dispose de seulement 4500 modérateurs. Le Guardian décrit également les conditions de travail difficiles de ces modérateurs qui, après deux semaines de formation, doivent examiner des milliers de rapports, en n'ayant parfois que 10 secondes pour trancher. 

A la suite de cette enquête, Facebook a réagi en publiant un communiqué : "Notre priorité est de garantir la sécurité des personnes sur Facebook. Nous travaillons sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression. Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctement". Traduisez : nous sommes débordés et nous n'arrivons plus à gérer le flot d'horreurs qui s'y déverse.  "Il a trop grandi, trop vite", commente une source bien informée du Guardian

En mai dernier, le patron du plus grand réseau social au monde a fait savoir sur Facebook qu’il comptait, dans l’année qui vient, considérablement renforcer son équipe avec 3000 modérateurs supplémentaires. Cette annonce doit notamment répondre aux problèmes posés par les vidéos en direct, introduites par Facebook l’an dernier. Ces derniers mois, des suicides et des meurtres ont ainsi été diffusés en direct sur la plateforme. C'est déjà un premier pas. 


Matthieu DELACHARLERY

Tout
TF1 Info