Après Christchurch, Facebook revoit son arsenal contre les intox et l'ultra-violence

High-tech

APPEL DE CHRISTCHURCH - Interdire de Facebook Live les utilisateurs ayant déjà publié des contenus litigieux, détecter les images falsifiées et comprendre les intentions de ceux qui les publient, le réseau social tente de trouver un système efficace pour éviter d'autres carnages diffusés en direct.

Ne plus servir de plateforme à l'ultra-violence, aux appels à la haine et aux manipulations en tous genres : c'est la mission que s'est fixée Facebook, sous la pression montante de l'opinion et des régulateurs du monde entier. Une réaction à la tuerie de Christchurch, 51 morts, un carnage diffusé en direct par son auteur, avec une vidéo recopiée par centaines d'exemplaires auxquels le réseau social avait dû faire face les jours suivants. Le tout pour arriver à un constat de quasi-impuissance quant à ses capacités  à mener la chasse a posteriori à plus d'un million de publications. 

Si Facebook a promis de muscler ses équipes de modérateurs pour les porter à une dizaine de milliers dans le monde, il promettait aussi de trouver des solutions plus systémiques, préventives et si possible automatiques. Des mesures annoncées ce mercredi, alors que Jacinda Ahern, la Première ministre néo-zélandaise, est à Paris pour initier avec Emmanuel Macron un "Appel de Christchurch" qui veut justement appeler les grandes plateformes à une meilleure modération de leurs contenus.

Couper l'accès au Live au moindre doute

Première mesure : tenter de réguler l'accès à Facebook Live, c'est-à-dire la capacité pour n'importe quel utilisateur de Facebook de diffuser des vidéos en direct. Une modération étant impossible en temps réel, le réseau social veut donc agir en amont. Désormais, tout utilisateur qui aurait déjà enfreint les règles d'utilisation, en diffusant par exemple des contenus violents ou appelant à la haine, sera désormais immédiatement sanctionné, dès le premier errement.

Si vous publiez par exemple, sans contexte,  le communiqué d'une organisation terroriste, votre accès au Live sera immédiatement coupé, 30 jours au moins, sans préjuger d'autres conséquences. Comme Facebook l'explique, ce genre de mesure aurait permis d'interdire l'accès au Live à Brenton Tarrant, le tueur de Christchurch. D'autres restrictions peuvent aussi s'appliquer, comme l'interdiction de publier des publicités.

Lire aussi

De l'IA pour décoder les images, et comprendre ceux qui les publient

L'autre pan de cette modération préventive sera technologique. Si Facebook sait déjà assigner une signature à chaque vidéo, pour pouvoir en dépublier chaque copie éventuelle, il ne sait pas faire à coup sûr face à la prolifération de versions, même légèrement modifiées, d'un même contenu.  Plus difficile encore, l'algorithme devra distinguer entre ceux qui partagent innocemment un contenu de ceux qui le modifient pour passer entre les mailles du filet ou qui le falsifient. Il devra comprendre aussi l'intention et le contexte d'un post, faire la différence entre le partage aveugle et la critique. 

Après Christchurch, tant pour Facebook que pour d'autres plateformes comme Youtube, la difficulté était en effet de distinguer les republications de la vidéo du tueur des extraits utilisés par exemple par les chaînes de télévision et publiés en ligne. Pour ce faire, le réseau social vient d'annoncer une enveloppe de sept millions et demi de dollars, qui vont financer les travaux de recherche de trois universités américaines (Cornell, Berkeley, et l'Université du Maryland), qui travaillent sur des systèmes de détection automatique et d'analyse du contexte. Un travail de longue haleine, car comme le reconnaît Facebook, "ces problèmes sont complexes, et nos adversaires changent constamment de tactiques."

Sur le même sujet

Et aussi

Lire et commenter