Lutte contre les contenus terroristes en ligne : jusqu'où faut-il durcir la loi ?

High-tech
DirectLCI
TEMPS RÉEL - Faire retirer tout contenu terroriste en une heure seulement, tenir pour responsables réseaux sociaux et hébergeurs : au Royaume-Uni, en Australie ainsi qu'au Parlement européen, de nouvelles lois veulent empêcher toute dissémination de contenus illicites ou violents. Experts et militants des droits de l'homme s'alarment des dangers possibles pour la liberté d'expression.

Le débat n'est pas nouveau. Il s'est juste accéléré, avec l'attentat de Christchurch comme catalyseur. Si régulateurs et plateformes s'entendaient depuis longtemps sur la nécessité de retirer les contenus ultra-violents de Daech et tous ceux faisant l'apologie du terrorisme en général, les images diffusées en direct de la tuerie des deux mosquées néo-zélandaises a précipité la réaction des législateurs. Avec pour résultats des règlements qui, dans l’ensemble, ne font pas dans la dentelle.


Aujourd’hui, trois lois, à différent stades de leur adoption, signent ainsi le début de la fin de l’ère de l’auto-régulation sur Internet. Fini le temps où le seul responsable légal d’un contenu était celui qui l’avait publié, cet auteur dont les lois ne parlent presque jamais. Dans la nouvelle ère voulue par ces projets, le responsable deviendrait l’hébergeur, que l’on parle d’un site ou d’un réseau social. C'est lui qui serait responsable du retrait des contenus violents, voire souvent chargé en amont de leur détection. Des textes difficiles à suivre quand ils imaginent des solutions techniques simples à des problèmes complexes.

Australie : tous responsables

Est-ce sa proximité avec ses voisins de Nouvelle-Zélande ou parce que le terroriste de Christchurch est Australien ? Toujours est-il que Canberra a, en quelques jours seulement, adopté une nouvelle loi qui ne fait pas de prisonniers. Annoncée le 30 mars, présentée au Parlement le 3 avril et votée le même jour, elle ne se cantonne pas au terrorisme. Mais s’attaque plus largement à ce qu’elle appelle les “contenus violents odieux”, ceux qui les publient, et surtout ceux qui les hébergent. 


Terminé donc les mesures de protections des hébergeurs : les plateformes, quelles qu’elles soient, auront pour obligation de signaler d’elles-mêmes les contenus litigieux. Dans ces “contenus violents odieux”, le législateur australien englobe tant la représentation d’actes terroristes que les meurtres et tentatives de meurtres, la torture, le viol et les enlèvements. Peu importe que les faits aient été commis en Australie ou non. S’ils y sont visibles, la loi s’applique.

Des peines de prison pour les patrons de Facebook et Youtube ?

Et si elle s’applique, c’est avec une sévérité sans précédent. Outre des amendes qui peuvent atteindre 10% du chiffre d’affaires d’une entreprise condamnée et plus d’un million d’euros si le fautif est un particulier, des peines de prison peuvent être infligées -jusqu’à trois ans- aux dirigeants des réseaux sociaux et plateformes qui n’auraient pas obéi aux injonctions de retrait. Reste à savoir comment la justice australienne arriverai à mettre la main, par exemple, sur Mark Zuckerberg si le patron de Facebook était dans sa ligne de mire.


La loi a évidemment beaucoup fait réagir, jusqu’au rapporteur spécial des Nations Unies pour la liberté d’expression, qui s’est ému du vague dans la définition de certains paramètres du texte. Notamment le fait que ces contenus litigieux devront être signalés “dans un délai raisonnable” et retirés “rapidement”, sans plus de précision.

Royaume-Uni : un livre blanc qui ratisse très large

À Londres, Brexit oblige, on n’attend pas de s’aligner sur un texte européen. L’administration de Theresa May vient ainsi de publier un livre blanc indiquant son intention de légiférer sur la question, dans une optique assez proche de ce que l’Australie a voté. Là aussi, la responsabilité des plateformes ne s’arrêterait pas aux entreprises elles-mêmes, mais concernerait également leurs dirigeants. Mais là où les Britanniques vont plus loin, c’est en introduisant un “devoir de protection”, une obligation proactive de rechercher les contenus interdits. Devoir qui, outre les réseaux sociaux, s’appliquerait aussi “aux hébergeurs de fichiers, aux forums de discussions, aux services de messagerie et aux moteurs de recherche.”

Plus large aussi, la définition des contenus concernés : la loi anglaise ne s’arrêterait pas aux contenus violents ou terroristes. Elle s'attaquerait  “aux contenus violents ou incitant à la violence ou au suicide, à la désinformation, au cyber-harcèlement et aux documents inappropriés accessibles aux enfants". Les ministères de l’Intérieur et du Numérique, auteurs du texte, le verraient bien s’appliquer dans les mois à venir. Leur initiative reste cependant à la merci d’un Parlement britannique qui - Brexit oblige toujours - a d’autres chats à fouetter en ce moment et dépend, entre autres, de la longévité du gouvernement de Theresa May.

Europe : le passage en commission assouplit le texte

Pour ce qui nous concerne, la question intéresse depuis longtemps déjà le Parlement Européen, jusqu’à devenir un projet de règlement qui chemine en ce moment entre Bruxelles et Strasbourg. Dans le projet initial, assez comparable à ses cousins britanniques ou australiens, on retenait un détail qui n’en était pas un : l’obligation faite aux hébergeurs et aux plateformes de retirer tout contenu signalé en une heure seulement.


Cette semaine, le texte est passé en débat devant la Commission des Libertés Publiques du Parlement de Bruxelles, un filtre qui a permis d’en arrondir les contours. Ainsi, les définitions du “contenu terroriste” et des hébergeurs concernés ont été précisés, mettant de côté les usages journalistiques ou éducatifs de contenus litigieux. Les services d’hébergement de fichiers et les services de messagerie n’auront pas l’obligation de s’inquiéter des contenus qu’ils transmettent. Les plateformes, elles, n’auront plus d’obligation de filtrage sur les contenus qui y seront publiés, juste de gérer les signalements et le retrait éventuel de ceux qui leur seraient signalés.


Reste le retrait en une heure, qui, lui, n’a pas disparu du projet. Une obligation qui inquiète non pas les grandes plateformes, mais plutôt les petits hébergeurs, les animateurs de forums ou les opérateurs de petits sites qui n’ont pas les moyens d’assurer des retraits de contenus dans l’heure de jour comme de nuit. Les députés européens expliquent que ces petites structures seront “contactées par les autorités compétentes afin d’être informées des procédures et des délais, et ce au moins 12 heures avant que la première injonction de suppression du contenu qu’elles hébergent ne soit envoyée.” Un point de débat encore lourd de conséquences. Mais le texte n’en est  qu’au début de son parcours.

Sur le même sujet

Plus d'articles

Lire et commenter