Reconnaissance faciale : peut-on vraiment y échapper ?

High-tech

Toute L'info sur

Jusqu'où ira l'intelligence artificielle ?

MONDE DE DEMAIN - Les technologies de reconnaissance faciale sont là et commencent à s'immiscer doucement dans nos vies. Se dirige-t-on progressivement, comme en Chine, vers une abolition pure et simple de la notion d'anonymat ? Ou faut-il simplement y voir une avancée technologique qui va nous simplifier la vie. Notre éclairage.

Rarement une technologie avait suscité une telle défiance. Apparue aux yeux du grand public il y a quelques années dans le sillage de l'intelligence artificielle (IA), sur laquelle elle s’appuie pour fonctionner, la reconnaissance faciale continue de défrayer la chronique. En apparence, pourtant, rien de bien méchant. Grosso modo, grâce à elle, votre visage - ainsi que votre silhouette - devient une "clé d'identité. Ainsi, en se fondant sur la photographie d’une personne, elle est censée pouvoir mettre un nom sur un visage en analysant certains de ses traits puis en les comparant avec une image existante contenue dans une base de données ou même prise en direct par une caméra. Presque instantanément, le verdict tombe : personne connue ou inconnue.

Déjà omniprésente en Chine, ce système permet, par exemple, de payer en caisse ou d’ouvrir la porte de sa chambre d’hôtel, mais aussi de verbaliser automatiquement un passant parce qu'il n'a pas traversé sur les clous. Mais cette technologie, aussi prometteuse soit-elle, a aussi sa part d’ombre. Et notamment son usage à des fins de surveillance. Aux Etats-Unis, certaines villes ont même décidé de l'interdire. En France, la reconnaissance faciale s’installe doucement dans le paysage au travers d'expérimentations, comme lors du carnaval de Nice en février dernier. Le 29 octobre dernier, la Commission nationale de l'informatique et des libertés (Cnil) s'est opposée à un projet d'expérimentation de la région Provence-Alpes-Côtes-d'azur (Paca) visant à installer des portiques équipés de système de reconnaissance faciale dans deux lycées de Nice et Marseille.

Révolutionnaire, pour les uns. Liberticide et dangereuse, pour les autres. La reconnaissance faciale divise. Pour vous aider à y voir plus clair dans ce débat, LCI a confronté les points de vue de l’un de ses partisans, Didier Baichère, député (LaREM) des Yvelines, vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, et de l’un de ses détracteurs, Martin Drago, juriste à la Quadrature du net, association de défense des droits et libertés des citoyens sur Internet.

LCI : Pourquoi la reconnaissance faciale fait-elle si peur ?

Didier Baichère (député LaREM) : De nombreuses personnes en France l'utilisent déjà dans leur quotidien, sans que cela n’émeuve personne. C’est le cas, par exemple, lorsque vous déverrouillez votre téléphone avec votre visage ou quand vous effectuez un paiement dématérialisé via votre smartphone. Entre rejet en bloc et usage débridé, il y a un chemin à définir dont la responsabilité incombe aux pouvoirs publics. D’où la nécessité de faire preuve de pédagogie pour expliquer aux gens de quoi il s’agit réellement et de multiplier les expérimentations de manière à développer nos propres technologies. 

Martin Drago (juriste à la Quadrature du net) : La reconnaissance faciale pose des difficultés majeures en termes de protection de la vie privée et d’exercice des libertés publiques. Qui dit "reconnaissance", dit aussi "connaissance préalable" et donc fichage. Le but de ces technologies, à terme, c’est une surveillance de masse, invisible et indolore. Il faut bien comprendre que les données biométriques ne sont pas des données personnelles comme les autres, car elle est intrinsèquement liée à votre corps. Lorsqu’on recueille vos empreintes ou votre ADN, vous le savez. Avec la reconnaissance faciale, c’est beaucoup plus insidieux. Vous ne savez pas forcément qu’une caméra vous filme et compare votre visage à une base de données. 

LCI : Que pensez-vous des expérimentations qui sont d'ores et déjà menées en France ? 

Didier Baichère : Depuis l’été 2017, une expérimentation est menée au sein des aéroports d’Orly et Roissy pour le contrôle aux frontières. Le dispositif sera élargi dès janvier prochain pour l'enregistrement et l'embarquement des passagers. L'objectif est de fluidifier l’accès des passagers, tout en assurant un contrôle de sécurité efficace. Le système "Parafe", c’est son nom, se base sur le gabarit indiqué dans votre passeport biométrique, qui est ensuite recoupé avec une photo prise en direct par une caméra. Une fois que les portes s’ouvrent et que l’utilisateur quitte le sas, toutes les informations sont immédiatement supprimées. A aucun moment, il y a une comparaison avec une base de données existante.

Martin Drago :  Les expérimentations sont menées sans aucun débat préalable quant à l’utilité de ces technologies et aux dangers qu’elles représentent pour nos libertés. Lors du carnaval de Nice en février dernier, la municipalité a décidé d’expérimenter des portiques à reconnaissance faciale. A l’époque, la Commission nationale de l'informatique et des libertés (Cnil) avait dit regretter ne pas avoir été saisie suffisamment à l’avance par la municipalité pour se prononcer de manière approfondie sur la question.

La France doit se positionner en exemple afin de promouvoir une reconnaissance faciale éthique "made in France", à l'opposé du modèle chinois.- Didier Baichère

LCI : Le gouvernement français plaide pour la mise en place d’un modèle de reconnaissance faciale éthique, qu'est-ce que cela vous inspire ? 

Didier Baichère : Nous devons nous positionner en exemple afin de promouvoir une reconnaissance faciale éthique "made in France", à l'opposé du modèle chinois. Nous pouvons nous prémunir de ces dérives et d'un usage à des fins répressives. Mais, pour cela, il faut faire de la pédagogie. D'où la volonté du gouvernement de lancer une consultation citoyenne, comme ce fût le cas pour les lois bioéthiques. La création d'un comité scientifique et éthique, tel qu’envisagé par le secrétaire d’Etat au numérique Cédric O, servirait à piloter ce débat et à répondre aux inquiétudes des citoyens. A l’issue de cette première phase, une loi d’expérimentation au niveau national permettrait de réaliser un audit sur l’efficacité et la fiabilité de ses dispositifs. Pour le moment, chacun expérimente dans son coin, en passant par des entreprises étrangères. Résultat, nous n’en tirons aucun enseignement sur le plan scientifique. 

Martin Drago : La vraie question que les gens doivent se poser, c'est : "Est-elle nécessaire, voire utile ?" A entendre Didier Baichère, le développement de la reconnaissance faciale est inévitable, donc autant essayer de l’encadrer. Alors que non ! Nous pouvons y échapper à travers l’action politique. Il est possible de rendre illégale cette technologie, en démontrant qu’elle ne présente pas d’intérêt concret et qu’elle s’avère surtout dangereuse pour la démocratie. Les ordonnances qui ont été prises dans les villes de San Francisco et Oakland résultent d’une campagne menée par des associations et des citoyens qui se sont mobilisés contre le déploiement de ces technologies.

LCI : L’application mobile Alicem, mise au point par le gouvernement pour permettre d'accéder aux services en ligne de l'Etat, sans avoir à entrer ses identifiant et mot de passe, a provoqué une levée de boucliers. Comprenez-vous cette défiance ? 

Didier Baichère : Lorsqu’un agent procède à un contrôle sur la voie publique, le citoyen doit lui fournir sa pièce d’identité afin d’attester qu’il est bien celui qu’il prétend être. Alicem, c’est exactement la même chose. Contrairement à ce qu’avance la Quadrature du net, en agitant l’épouvantail chinois dans le but de faire peur à la population, nous ne cherchons pas à ficher la population. Et, encore moins, à élaborer une grande base de données qui serait un jour accessible aux services de police pour opérer une surveillance de masse. 

Martin Drago : Aujourd’hui, pour obtenir une identité numérique Alicem, les gens sont obligés d’accepter d’utiliser la reconnaissance faciale. Or, cela ne respecte pas le règlement européen sur la protection des données personnelles (RGPD). Lorsque le gouvernement a fait part de son projet, la Cnil a été consultée. Et dans son avis, elle a pointé du doigt le fait que ce service ne respectait pas une notion très précise : celle du consentement libre. Le ministère de l’Intérieur n’a pas pris en compte cet avis, estimant que qu’il y avait consentement, étant donné qu’il sera toujours possible d’accéder à ces services par la voie classique. Nous avons déposé un recours auprès du Conseil d’Etat pour faire respecter ce point de droit mais aussi pour ouvrir un débat sur la nécessité ou non d’utiliser cette technologie.

La multiplication des expériences n’a pas d’autre objectif que d’œuvrer à la banalisation de cette technologie, dans le but de rendre toute régulation impossible.- Martin Drago

LCI : Améliorer la sécurité des gens mais aussi leur faciliter la vie, êtes-vous sensibles aux arguments utilisés en faveur de la reconnaissance faciale ? 

Didier Baichère : Elle peut en effet avoir des applications vertueuses, que ce soit pour fluidifier l’accès des spectateurs à un événement ou pour retrouver des personnes perdues, comme un enfant ou une personne souffrant de la maladie d'Alzheimer, par exemple. Vous n’aurez alors qu’à présenter une photo à la police municipale, ce qui permettra de le retrouver instantanément grâce à la vidéosurveillance. C’est également le cas pour faciliter l’accessibilité des personnes à handicap. Grâce à cette technologie, une personne à mobilité réduite pourra acheter son billet d'avion depuis un écran et passer les portiques de sécurité sans avoir à poser sa carte d’embarquement sur les différents lecteurs, ce qui lui donnera davantage d’autonomie pour voyager. 

Martin Drago : Pour moi, la multiplication des expériences n’a pas d’autre objectif que d’œuvrer à la banalisation de cette technologie, dans le but de rendre toute régulation impossible sous prétexte que l’opinion publique s’y sera habituée. Qui plus est, elle est déjà utilisée par les forces de police à des fins sécuritaires. Le fichier de Traitement d’antécédents judiciaires (TAJ), regroupe énormément de données sur des personnes mêlées à des affaires, aussi bien sur les victimes que les personnes mises en cause. Il y aurait entre 7 et 8 millions de photos de visages, selon un rapport parlementaire de 2018. Nous avons tellement de caméras et d'images que l'humain ne suffit plus pour traiter ces flux. La reconnaissance faciale est un premier pas vers la vidéosurveillance dite "intelligente". C'est-à-dire la détection de comportements suspects via des technologies qui analysent la démarche, par exemple. Des expérimentations sont déjà menées, en toute discrétion. C'est le cas notamment à Valenciennes, avec le chinois Huawei, ou encore à Toulouse, avec l'américain IBM. 

Au Royaume-Uni, plusieurs personnes ont été arrêtées à tort, à cause du fait que l’algorithme s’était trompé. - Julien Drago

LCI : Pourtant, si l'on regarde les expérimentations menées à l'étranger, la technologie n’est pas entièrement fiable sur le plan technique. N'est-ce pas dangereux ?

Didier Baichère : Si nous voulons être en capacité d’avoir des applications positives et respectueuses des libertés, il faut que les algorithmes utilisent des données européennes et françaises. Cela nous permettra, en outre, de mieux entraîner les algorithmes et d’éviter d’éventuels biais. Aux Etats-Unis, ils se sont aperçus lors des phases de test que les algorithmes de reconnaissance faciale, y compris les plus performants, avaient du mal à distinguer les visages de femmes à la peau noire. La seule manière de se faire une idée précise de ce qu’il est possible de faire ou pas, c’est la création d’un cadre expérimental. 

Martin Drago : Les expérimentations qui ont été menées outre-Atlantique avec le logiciel Reckognition d’Amazon ont démontré que l’algorithme est biaisé. Pourquoi ? Parce que celui qui l’a conçu a lui-même des biais intrinsèquement et il va les reproduire dans son algorithme. Cela va avoir pour effet de déclencher ce qu’on appelle des faux positifs, c’est-à-dire des gens qui sont identifiés par erreur, avec toutes les conséquences que l’on peut imaginer derrière. Au Royaume-Uni, plusieurs personnes ont été arrêtées à tort, à cause du fait que l’algorithme s’était trompé. Nous avons lancé mi-septembre la plateforme Technopolice pour appeler à la mobilisation contre la surveillance des citoyens. Elle s'appuie notamment sur un forum de discussions qui permet aux gens de s'informer sur l'usage des technologies de reconnaissance faciale, capteurs sonores et autres dispositifs du type police prédictive qu'envisagent d'implanter certaines municipalités.

Lire aussi

LCI : Que pensez-vous des villes, comme San Francisco qui ont décidé de bannir l'usage de la reconnaissance faciale de l'espace public suite à des mouvements citoyens ? 

Didier Baichère : Aux Etats-Unis, sans aucune autorisation préalable, le jour où vous obtenez votre permis de conduire, votre photo est disponible pour l’Etat fédéral. Ce n’est pas le cas en Europe. Chez nous, les autorités n’ont pas le droit d’utiliser vos données personnelles sans votre accord préalable. La saine rébellion des citoyens américains est tout à fait compréhensible. 

Martin Drago : Ce sont des mesures dont il faut s’inspirer tout en allant plus loin. Car cette interdiction ne doit pas se limiter à l’espace public mais inclure également les espaces privés. Le secrétaire d’Etat au numérique Cédric O estime qu’expérimenter la reconnaissance faciale est "nécessaire pour que nos industriels progressent" dans ce domaine. Peut-être que notre innovation en Europe, elle n’est pas forcément économique, mais sur la notion de liberté. Comme l’a montré la Californie, berceau pourtant de la reconnaissance faciale, l’innovation peut-être dans l’interdiction. L’exemple des Etats-Unis montre bien que c'est possible. 

Sur le même sujet

Et aussi

Lire et commenter