Zuckerberg victime d'une fausse vidéo : peut-on encore endiguer l'explosion des "deep fakes" ?

High-tech

Toute L'info sur

Jusqu'où ira l'intelligence artificielle ?

IRRÉELLES - Indétectables au premier coup d'oeil, ces vraies-fausses vidéos sont de plus en plus simples à produire et les moyens d'en valider l'authenticité manquent encore à l'appel. Mark Zuckerberg lui-même vient d'en être victime. Pour la bonne cause heureusement.

"Celui qui contrôle les données contrôle le futur", explique Mark Zuckerberg, l'air sérieux comme un pape. La conclusion d'une courte vidéo, 17 secondes à peine, où le patron de Facebook s'exprime comme un méchant dans James Bond quand il explique son plan diabolique de domination de la planète. Tout y est, même la référence au "Spectre". Et heureusement, c'est bien elle qui permet de se persuader que même crédible sur un plan purement technique, cette vidéo, diffusée mardi sur Instagram, est un faux. Si ce n'est que ce faux, lui, a été produit pour la bonne cause.

Son auteur s'appelle Bill Posters. Il se décrit lui même comme un artiste et un "hacktiviste". Chez lui, le "Spectre" n'est pas une référence à James Bond mais à un projet qui veut dénoncer l'hyper-puissance des géants du numérique. Pour ce faire, Posters a produit plusieurs "deep fakes", ces vidéos où l'on fait dire le faux à un vrai sujet. Dans la série, plusieurs victimes célèbres, dont Morgan Freeman.

Si Bill Posters a créé la vidéo de Mark Zuckerberg, c'est d'abord pour interpeller le fondateur de Facebook. En envoyant la vidéo sur Instagram -qui, rappelons-le, appartient à Facebook-, l'artiste a voulu tester, de la manière la plus concernante possible, la politique  du géant de Palo Alto face à un contenu manifestement trompeur. 

De quoi poser la question : les plateformes doivent-elles être responsables de la véracité des vidéos qu'elles hébergent ? Et doivent-elles en empêcher la dissémination ? Le débat ne fait que s'ouvrir, à l'heure où produire des vidéos de ce genre est devenu bien plus simple qu'il y a seulement un an ou deux.

Tapez un texte au clavier, et le sujet le prononcera à l'écran

La semaine dernière, c'est la publication d'un projet de recherche de l'université de Stanford qui avait fait grand bruit. Ici, les chercheurs démontraient comment ils pouvaient faire dire un texte de leur choix à un sujet en vidéo en gérant très finement les labiales, l'expression du visage. Mieux encore : en s'alliant avec l'éditeur Adobe, il avaient aussi réglé le problème de l'imitation de la voix du sujet original. 

Il y a deux ans, Adobe avait fait la démonstration du projet Voco, un logiciel que l'on pouvait entraîner en lui faisant écouter un échantillon -le plus long possible- de la voix d'un sujet. Un logiciel apprenant capable de générer le fichier audio de n'importe quel texte prononcé dans la voix du sujet, comme un imitateur capable de trouver le ton parfait à chaque fois. Meilleurs sujets d'expérience : tous ceux dont on détient les discours, hommes politiques, chefs d'entreprise, présentateurs de journaux.

Pour l'instant, aucun de ces algorithmes n'existe dans une version vraiment grand public, aucune application mobile ne permet de transformer une vidéo en deep fake de manière simple. Mais là où l'on pensait qu'il faudrait encore un à deux ans pour arriver là où on l'en est aujourd'hui, tout cela ne devrait finalement pas tarder. 

Comme on le fait pour les mails aujourd'hui, peut-être faudra-t-il bientôt accompagner toute vidéo d'une signature cryptographique pour valider son authenticité. Peut-être faudra-t-il que les plateformes sachent signaler que la vidéo que vous regardez est une variante suspecte de clips existants. Bref, peut-être faudra-t-il que l'on apprenne à déployer un arsenal pour se protéger des vidéos falsifiées. Et en attendant, apprendre à toujours se méfier, au moins un peu, des vidéos trop belles pour être vraies.

Sur le même sujet

Et aussi

Lire et commenter