VIDÉO - Quand la caméra vous reconnaît... même de dos

High-tech
DirectLCI
JE TE VOIS - La reconnaissance faciale n'est plus l'état ultime de l'art de la vidéo-surveillance. Une startup allemande vient de dévoiler un système qui fonctionne sans photo, en se basant sur votre démarche, votre posture. Efficace, et vaguement inquiétant.

La startup s'appelle DeepEyes, elle vient de Munich, presque modeste sur son tout petit stand à EuroSatory, le salon français où s'affichent les géants de l'armement, de la défense ou de la sécurité. Pourtant, DeepEyes a développé une technologie qui pourrait permettre de faire un grand pas en avant à la vidéosurveillance. Aujourd'hui, les systèmes les plus avancés sont capables de repérer en temps réel un visage connu dans une foule. Demain, il pourrait en être de même pour des personnes dont on détient déjà des images, même si leur visage n'est pas reconnaissable.

Ce que le système analyse, c'est la démarche des gens qui passent devant la caméra, l'amplitude de chaque pas, le déhanchement, même subtil, bref, tout ce qui fait que notre démarche nous définit. Autant de paramètres qui, ajoutés les uns aux autres, forment une empreinte de données, que les algorithmes de DeepEyes permettent de reconnaître. Les applications intéressent le monde de la sécurité au sens large : on pourrait ainsi désormais reconnaître une personne recherchée dans la foule même de dos, même à visage couvert, ou, à l'inverse, ajouter à une base de personnes recherchées les images d'un suspect dont le visage ne serait pas visible.

L'obstacle du prix et la crainte du "faux positif"

Tel que le décrivent ses créateurs, le système n'a qu'un défaut : en empilant la reconnaissance des mouvements à celle des visages, il demande plus de puissance de calcul, de stockage, bref il coûte plus cher à utiliser que les seuls systèmes de reconnaissance faciale. Surtout, la reconnaissance de la démarche est encore une technologie en devenir, qui vient améliorer l'efficacité des systèmes de détection existants, sans encore s'y substituer. 


La crainte, forcément, c'est le "faux positif", quand le système croit reconnaître une personne recherchée mais se trompe ; une erreur facile à corriger quand on compare un visage à une photo mais plus difficile à remettre en question quand la démarche est le seul identifiant. Chez Deepeyes, on dit travailler à l'amélioration des algorithmes, qui pourront bientôt être aussi utilisés pour analyser les émotions, les réactions ou les comportements anormaux. Que cela ne vous empêche pas de sourire devant la caméra.

Sur le même sujet

Plus d'articles

Lire et commenter