Municipales : la lutte contre les fausses informations en ligne peut-elle être vraiment efficace ?

-
High-tech

DÉCRYPTAGE - Et si les élections se jouaient aussi désormais sur les réseaux sociaux ? Depuis plusieurs scrutins, le web est devenu un lieu d’information comme de désinformation et à celui qui fera le plus porter sa voix numérique. Avant les municipales du mois prochain, les Facebook, Twitter et autres Google s’organisent pour mieux lutter contre les "fake news".

A quelques semaines des élections municipales (15 et 22 mars 2020), les principaux réseaux sociaux et plateformes sont dans le viseur. Le spectre de l’affaire Cambridge Analytica et ses ravages sur l’élection présidentielle américaine de 2016 sont encore dans les esprits. Devenus sources d’informations pour beaucoup, les Facebook, Twitter, Google et autres Snapchat ou YouTube tentent donc de dédiaboliser leur rôle.

Cela commence par l'incitation à participer au scrutin. Chez Facebook, un message s'affichait ainsi chez les utilisateurs français de plus de 18 ans afin de les encourager à s’inscrire sur les listes avant le 7 février et en les renvoyant vers le site dédié. Et les jours de vote, des modules de rappel à partager s’afficheront dans les fils d’actualité pour encourager à aller voter. Même Snapchat s'y est mis avec un filtre dédié qui renvoyait les followers vers la page officielle pour s'inscrire sur les listes.

Sécuriser les débats

Plus globalement, la principale volonté affichée pour les municipales par les différentes plateformes concerne la sécurisation des débats. Premier critiqué, Facebook affirme avoir tiré les enseignements des derniers suffrages à travers le monde pour épurer sa plateforme des contenus plus ou moins volontairement trompeurs et autres "fake news". L’entreprise de Mark Zuckerberg affûte notamment ses armes et son intelligence artificielle pour déjouer tout piège qui pourrait venir perturber le scrutin des 15 et 22 mars.

"Nous avons beaucoup appris et tiré les enseignements des élections américaines. Nous avons investi dans les moyens techniques et humains pour lutter contre la désinformation", nous explique Anton Battesti, responsable des affaires publiques de Facebook France. Depuis 2017, les effectifs mondiaux pour lutter contre la désinformation et détecter les mauvais comportements (bots, spams, cyberattaque, etc.) ont ainsi été multipliés par trois. Et une intelligence artificielle (IA) a été entraînée à détecter les comportements suspects.

Lire aussi

Lutte contre les fausses informations

Le plus gros du travail consiste à lutter contre les fausses informations électorales. Facebook explique travailler proactivement pour écarter les articles qui font la promotion d’informations incorrectes sur le vote (date, heure, lieu, procédure), un candidat ou un programme. Un partenariat a été signé avec plusieurs médias (AFP, Le Monde, Libération, 20 Minutes, France 24…) pour mettre en place une cellule de fact-checking qui vérifie de nombreux articles partagés, peut les signaler comme inexacts et l’indiquer aux lecteurs. 

De son côté, Twitter a lancé un outil de signalement de contenus trompeurs adaptés aux circonstances électorales. Une façon  de mettre à mal les tentatives d'actions coordonnées de "bandes organisées". Celles-ci, souvent implantées à l’étranger, multiplient la création de faux comptes, alimentent en fausses informations des fils d'actualité sur Twitter ou des pages Facebook, sorte d’ingérence dans la campagne politique nationale. L’IA de la firme de Mark Zuckerberg a d'ailleurs été entraînée à repérer et démanteler ces réseaux d’acteurs. En 2019, plus d’une cinquantaine d'entre eux ont été mis à mal et, rien qu’au troisième trimestre, plus de 5,4 milliards de faux comptes ont été supprimés, parfois à peine créés, indique Facebook.

Pour stopper les manipulations de l'opinion publique, les faux contenus vidéo (notamment les deep fakes, voir vidéo ci-dessous) comme les photos sont aussi dans la ligne de mire. Dès le 5 mars, un label avertira sur Twitter les utilisateurs qu'un contenu a été modifié et que cela altère considérablement le média d'origine. Si les modifications sont trop importantes, le twittos sera averti au moment d'un éventuel partage sur le réseau et le contenu pourra être tout simplement supprimé. 

YouTube a également promis d'hausser le ton face aux contenus "manipulés ou falsifiés" afin de faire de la plateforme "une source plus fiable" d'informations. Les auteurs de vidéos aux messages détournés, trompeurs ou simplement faux  seront plus durement sanctionnés. "Les contenus qui ont été manipulés techniquement ou falsifiés dans le but de tromper les utilisateurs (et) qui posent un risque flagrant de dommage" seront bannis, a aussi indiqué Leslie Miller, vice-présidente des affaires publiques de YouTube.

En vidéo

Les "deep fake", ces vidéos truquées, sont de plus en plus sophistiquées

"Rendre l’utilisateur encore plus captif"

Mais c’est la publicité politique qui fait le plus débat. Il y a quelques semaines, les ténors de la Tech ont pris des positions différente sur le sujet : Facebook la tolère, Twitter l'a bannie et Google joue l’entre-deux. Pour justifier de sa position, Facebook a avancé sa Bibliothèque publicitaire, accessible à chacun pour prendre connaissance des spots diffusés (durant les 7 dernières années), des catégories d’utilisateurs qui les ont vus, des personnes qui les ont financés et pourquoi ils se sont affichés. Il est aussi possible de bloquer ces pubs.

Selon Nathalie Devillier, professeur de Droit à Grenoble Ecole de Management et spécialiste des données personnelles, la publicité politique reste cependant le point noir de la position de Facebook face aux élections. D'après elle, pour ne pas tromper l'utilisateur, il faudrait connaître les identités des plus gros financeurs de posts sponsorisés à caractère politique sur ce genre de plateformes et disposer d'un classement du financement de publicités politiques. "C’est un point essentiel pour que l’utilisateur puisse faire le tri dans les informations. Par exemple, sur Google, on sait désormais que les premiers résultats sont sponsorisés. Les internautes sont donc au courant qu'ils doivent aller voir plus bas pour disposer d'une information normalement neutre", ajoute-t-elle, en suggérant la même attitude à Facebook.

"Ce sont des effets d'annonce pour faire croire qu'ils vont être transparents"- Nathalie Devillier, professeur de Droit à Grenoble Ecole de Management et spécialiste des données personnelles

Toutes ces mesures ne sont-elles pas néanmoins un premier grand pas en avant de la part des géants des réseaux sociaux ? "Il sont un peu en campagne aussi. Ce sont des effets d’annonce pour faire croire qu’ils vont être transparents", déplore l’experte universitaire. Elle va encore plus loin dans la critique : elle affirme que Facebook et consorts ne peuvent, et ne veulent sans doute pas, offrir des informations transparentes et intelligibles à leurs utilisateurs. "Ils cherchent à influencer les gens en permanence. Pourquoi cela changerait ? Ils sont très forts pour nous 'profiler' et nous envoyer des informations ciblées. Mais quand on veut trouver nous-même de l’information, cela devient soudainement fouillis et pas du tout hiérarchisé. La recherche n’est ni intuitive ni claire et manque de détails."

"Les mesures prises par Facebook s’apparente un peu à un programme politique de lutte contre la désinformation et  les promesses n’engagent que ceux qui les écoutent", résume-t-elle. "Il faudrait auditer toutes leurs actions pour être sûr qu’il ne le fait pas juste pour se donner bonne conscience. La transparence, c’est bien. Pouvoir trouver plus facilement et intuitivement l’information, c’est mieux. Il faudrait aussi comprendre comment l'algorithme de détection des contenus erronés fonctionne. Pour le moment, c’est encore trop flou pour être totalement honnête".

Sur le même sujet

Et aussi

Lire et commenter

Alertes

Recevez les alertes infos pour les sujets qui vous intéressent