Cette startup prétend être en mesure de détecter un terroriste dans une foule grâce à la reconnaissance faciale

High-tech
DÉLIT DE FACIÈS - Une start-up israélienne affirme pouvoir repérer des criminels en analysant simplement les traits de leurs visages. Sa méthode, basée sur un logiciel de reconnaissance faciale, fait toutefois polémique.

Peut-on reconnaître un criminel en un coup d'œil ? Quelques jours après les attentats du 13 novembre à Paris, les Français découvrent avec effroi le visage de l’un des assaillants de la tuerie du Bataclan : Abdelhamid Abaaoud, abattu sous les balles du RAID lors de l’assaut à Saint-Denis le 18 novembre dernier. 

C’était la photographie d’un jeune homme au visage juvénile. A qui on donnerait plutôt vingt que trente ans.  Son sourire doux, et ce regard innocent. Au point qu'il paraît difficile de savoir ce qu'il est vraiment : un guerrier ou juste un gamin, égaré. Abdelhamid Abaaoud était pourtant l’un des terroristes les plus recherchés d’Europe.

Détecter un suspect avec la reconnaissance faciale

Il semble difficile, en effet, de dire à quoi ressemble un visage qui vous veut du mal. La startup israélienne Faception affirme pourtant être en mesure de "repérer des terroristes, aussi bien qu’un pédophile ou un individu au QI élevé". Pour cela, elle utilise un logiciel informatique qui associe aux traits du visage humain des caractéristiques comportementales.

Mais sa méthode reste toutefois très contestée, comme le rapporte le Washington Post , qui en dresse le portrait-robot sur son site. Et pour cause : par le biais d’une technologie basée sur la reconnaissance faciale, il lui serait possible de reconnaître, avec "80% de réussite", une quinzaine de catégories d'individus à partir de l'analyse d'une vidéo, ou d'une simple photo. 

Des visages types pour chaque catégorie d'individus ?

Pour prouver l'efficacité de son dispositif, Faception fait valoir, par exemple, qu’elle est parvenue à identifier les meilleurs joueurs d'un tournoi de poker, organisé par l'un de ses partenaires : sur les cinquante participants de la compétition, deux des quatre joueurs désignés faisaient effectivement partie des trois finalistes.

Mais ces signaux flous complexes à analyser, et surtout très variables d’une personne à l’autre, produisent par conséquent un très grand nombre de "faux positifs". Autrement dit, un comportement détecté comme anormal qui est en réalité tout à fait ordinaire. D'où la nécessité d'une intervention humaine. Le site internet de la firme ne précise pas, ou du moins pas de manière détaillée, les critères qui sont utilisés par l’algorithme qu'utilise la société Faception.

Les effets pervers des technologies de détection

"Notre personnalité est déterminée par nos gènes et peut donc être perçue en analsant notre visage. C'est en quelque sorte une forme de signal", explique lapidairement au Washington Post Shai Gilboa, son directeur général. Une enquête menée par ProPublica révélait la semaine dernière, qu'un algorithme est déjà utilisé aux Etats-Unis, dans le cadre des programmes de remises de peine.

D’après les conclusions du rapport, ce dispositif a pour principal effet pervers de stigmatiser les membres de la communauté noire-américaine : ces derniers ont en effet deux fois plus de chances d'être considérés comme de potentiels récidivistes violents, alors que ce scénario à la Minority Report ne vient pas se confirmer dans les faits .  Les technologies d’analyse comportementales produisent, en effet, un très grand nombre de "faux positifs".

Expressions faciales, température corporelle, mouvement des yeux, etc.

Des logiciels de ce type existent depuis plusieurs années, et sont principalement utilisés dans des aéroports, en Amérique du Nord mais aussi en Europe, par exemple à Schipol (Pays-Bas). Ils combinent en général, plusieurs critères, allant de la température corporelle, l’analyse des expressions faciales, la démarche ou bien encore le mouvement de leurs yeux peuvent aussi signaler un "comportement suspect".

Toutefois, un comportement qui a été détecté comme anormal peut bien entendu s'avérer être tout à fait ordinaire in fine. Même si les progrès techniques récents, notamment en matière de reconnaissance faciale, ont amoindri certains de ces problèmes, ils sont encore loin de les avoir résolus. Le profilage préventif des visages ne garantirait donc en rien notre sécurité. Le visage d’Abdelhamid Abaaoud est là pour nous le rappeler.

A LIRE AUSSI
>> Reconnaissance faciale testée à Nice : faut-il avoir peur de cette technologie du futur ?  

Sur le même sujet

Plus d'articles

Lire et commenter