Meurtre de Samuel Paty : pourquoi ces vidéos sont-elles passées entre les mailles du filet des réseaux sociaux ?

M.D.
Publié le 21 octobre 2020 à 18h06, mis à jour le 21 octobre 2020 à 18h36

Source : JT 20h Semaine

INTERNET - Dans une vidéo publiée sur Facebook le 8 octobre dernier, un parent d'élève critique les méthodes d'enseignement du professeur. C'est elle qui conduira le terrorisme à se rendre à Conflant-Sainte-Honorine pour assassiner l'enseignant le 16 octobre. Les réseaux sociaux auraient-ils pu empêcher l'attentat ?

Tout est parti d’une vidéo devenue virale sur Facebook et WhatsApp. Depuis l’attentat de Conflans-Sainte-Honorine, le rôle des réseaux sociaux, accusés de laxisme, est mis en cause par le gouvernement et plusieurs responsables politiques. "Les choses ont démarré sur les réseaux sociaux et se sont terminées sur les réseaux sociaux", a ainsi déclaré dimanche le porte-parole du gouvernement, Gabriel Attal, appelant à "mieux les encadrer". C’est en effet sur le réseau social Twitter, huit jours plus tard, que l’épilogue de ce drame s’est tenu avec la diffusion par l’auteur de l’attaque d’une photo macabre de la victime, laquelle venait illustrer la revendication de son acte odieux quelques minutes avant avant qu’il ne soit abattu par la police. 

En rembobinant, la question peut sembler légitime : pourquoi Facebook (également propriétaire de la messagerie WhatsApp) n’a-t-il pas procédé au retrait de la vidéo dans laquelle le père d’une élève de Samuel Paty critique l’enseignant et lance un appel à la mobilisation contre lui ? De fait, aucune insulte ni menace explicite n’y sont exprimées. Et n'ont donc pas été repérées par les algorithmes ou modérateurs des réseaux sociaux. Pourtant, comme le souligne l’expert en cybersécurité Bastien Robert, "cette vidéo marque le début d’une campagne de cyberharcèlement". Selon lui, ce type de contenus doit faire l’objet d’une attention particulière de la part des plateformes au même titre que les contenus haineux ou illicites. "Il faut mettre en place sans attendre un outil qui permet de repérer la viralité d’un contenu et d’alerter immédiatement les forces de l’ordre", estime ce spécialiste.

Comment les plateformes contrôlent-elles les contenus ?

Car c’est bien la question de leur détection qui pose aujourd’hui problème. Entre le 8 octobre, date à laquelle le parent d’élève a posté sa vidéo, et le 16 octobre, le jour où s’est déroulait l’attaque meurtrière, l’auteur présumé a posté plusieurs messages à caractère haineux sur Twitter. En théorie, dès qu’un contenu – texte, image ou vidéo - est posté par un utilisateur, un robot est chargé de l’analyser et de valider ou non sa publication. En cas de doute, la machine passe la main à un humain et un modérateur prend alors le relais. En dépit du signalement de plusieurs utilisateurs de la plateforme, rien n’a été mis en œuvre pour retirer ces contenus. 

Vendredi en début de soirée, dans les minutes et les heures qui ont suivi le drame, une photo du cadavre de Samuel Paty a également circulé sur Twitter, sans qu’aucun garde-fou prévu à cet effet ne vienne entraver sa diffusion. Malgré la suppression du compte du terroriste, aujourd’hui encore, des captures d’écran s’échangent sous le manteau via la messagerie privée du réseau social. "Dès lors que ces réseaux sociaux gagnent beaucoup d’argent en diffusant toutes ces informations, ils ne peuvent pas s’exonérer d’une forme de responsabilité sur les contenus qu’ils diffusent", estime le journaliste Thomas Huchon, spécialiste des réseaux sociaux et des fake news. Marlène Schiappa, ministre déléguée à la citoyenneté, a convoqué mardi 20 octobre les patrons des branches françaises des principaux réseaux sociaux. Rien n'a filtré pour l'heure sur les discussions.

Cela fait trois ans que je travaille sur ce dossier et je ne sais ni combien sont les modérateurs ni où ils sont.
La députée Laetitia Avia.

Ces derniers jours, des membres du gouvernement et des députés de la majorité ont regretté que la disposition centrale de la loi sur la haine en ligne, portée par la députée Laetitia Avia, ait été censurée en juin dernier par le Conseil constitutionnel. Ce texte prévoyait d’imposer aux réseaux sociaux l’obligation de supprimer dans les vingt-quatre heures, sous peine d’une lourde amende, les contenus haineux qui leur seraient signalés. Invitée de la matinale de LCI mercredi, la députée Laetitia Avia, qui travaille actuellement à une nouvelle mouture, dénonce pour sa part l’opacité des plateformes concernant les moyens mis en œuvre pour lutter contre la haine sur Internet. "Cela fait trois ans que je travaille sur ce dossier et je ne sais ni combien sont les modérateurs ni où ils sont", souligne-t-elle. 

Difficile en effet de savoir avec exactitude les moyens engagés dans ce combat par les plateformes, ces dernières se refusant à communiquer sur le sujet. "Il faut taper les plateformes au portefeuille pour les contraindre à la modération", plaide la députée, qui appelle également à "sanctionner les auteurs" de ces contenus illicites. Sur ce dernier point, des sanctions existent d'ores et déjà. Le fait de faire publiquement l'apologie d’actes terroriste est passible de 7 ans d'emprisonnement et de 100.000 euros d'amende. La peine encourue est de fait plus lourde que celle associée à l'apologie du terrorisme ailleurs que sur Internet, qui est alors de 5 ans de prison et 75.000 euros d'amende.


M.D.

Sur le
même thème

Tout
TF1 Info