Vidéo de décapitation, d'agressions sexuelles... une ancienne modératrice de Facebook raconte son calvaire

Vidéo de décapitation, d'agressions sexuelles... une ancienne modératrice de Facebook raconte son calvaire

DirectLCI
RÉSEAU SOCIAL - Une ancienne modératrice de Facebook raconte avoir vécu en enfer, pendant huit mois, en voyant défiler sur son écran des images particulièrement violentes, à la cadence de 8.000 posts chaque jour.

Vider la "poubelle" de Facebook. En 2016, Sarah Katz a travaillé pendant huit mois comme modératrice pour le site de Mark Zuckerberg. Elle raconte, dans une interview au site Business Insider, le calvaire qu’elle a vécu en voyant défiler sur l'écran de son ordinateur des images choquantes. Pédopornographie, zoophilie, vidéos de décapitation. Souvent, les contenus qu'elle supprimait étaient repostés, parfois à plusieurs reprises. A tel point, qu’elle a fini par avoir le sentiment de devenir comme insensible à l’horreur.


La jeune femme ne travaillait pas directement pour Facebook, mais pour un sous-traitant. L’entreprise Vertisystem, dont le rôle est d’analyser les contenus signalés par des utilisateurs et de déterminer s’ils respectent le règlement général du réseau social. Sarah Katz a explique à Business Insider avoir dû au préalable signer un document lui signifiant qu'elle verrait des images potentiellement dérangeantes. Ledit document précisait que celles et ceux qui ne le supportaient pas et souhaitaient arrêter devaient le "notifier rapidement" à l'entreprise. Elle explique qu'à force, elle a fini par devenir insensible à l'horreur.

3,4 millions de posts analysés en l'espace de 3 mois

Comme la plupart des réseaux sociaux, le site de Mark Zuckerberg contrôle les contenus a posteriori. Autrement dit, une fois que ceux-ci ont été publiés et signalés par les utilisateurs ou ses algorithmes. Cependant, le travail des modérateurs, même épaulé par des algorithmes censés identifier des contenus problématiques, s'avère de plus en plus complexe, à mesure qu'augmente le nombre de message, d'image ou de vidéo postés sur la plateforme. Dans un rapport publié en mai dernier, Facebook expliquait avoir passé au crible pas moins de 3,4 millions de posts, en l'espace de trois mois, soit 1,2 million de plus qu'entre octobre et fin décembre 2017. 


L’an dernier, à la suite d’une série de meurtres et de suicides diffusés en direct sur la plateforme, suite à l’introduction d’une nouvelle fonctionnalité, le Guardian décrivait dans une enquête les conditions de travail difficiles de ces modérateurs qui, après seulement deux semaines de formation, doivent examiner des milliers de rapports, en n'ayant parfois que 10 secondes pour trancher. Le quotidien britannique s’était procuré une centaine de documents internes décrivant les méthodes souvent déroutantes  utilisées par le réseau social pour modérer les millions de contenus postés chaque jour. 

Le quotidien britannique décrivait également les méthodes souvent déroutantes utilisées par le réseau social pour modérer les millions de contenus postés chaque jour. Parmi cette masse de fichiers, on y apprenait, par exemple, qu’une vidéo de mort violente, par exemple, ne doit pas toujours être supprimée. Si elle peut aider à nourrir un débat sur les maladies mentales, elle est acceptée sur le réseau social. Quant aux images montrant des faits de maltraitance à caractère non sexuel sur un enfant, elles peuvent également être tolérées, si elles ne glorifient pas de telles pratiques. A la suite de cette enquête, Facebook avait réagi en publiant un communiqué :

Notre priorité est de garantir la sécurité des personnes sur Facebook. Nous travaillons sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression. Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctementMark Zuckerberg, le DG de Facebook

Traduisez, plutôt : nous sommes débordés et nous n'arrivons plus à gérer le flot d'horreurs qui s'y déverse. Face au tollé,le patron du plus grand réseau social au monde avait annoncé dans un message, posté en mai 2017 sur sa page Facebook, qu’il comptait, dans l’année qui vient, considérablement renforcer son équipe avec 3000 modérateurs supplémentaires. Une promesse que le site de Mark Zuckerberg assure avoir depuis honoré. 


Quand à Sarah Kats, dont Facebook a refusé de commenter le témoignage, elle a décidé de changer d'emploi. Elle travaille maintenant en tant qu'analyste dans le secteur de la sécurité informatique. La jeune femme assure paradoxalement ne pas garder un trop mauvais souvenir de son passé de modératrice. L'idée de protéger les utilisateurs, indique-t-elle, suffisait à la motiver.

Sur le même sujet

Plus d'articles

Lire et commenter