Etats-Unis : un Afro-Américain arrêté à tort à cause de la reconnaissance faciale

Publié le 24 juin 2020 à 23h12
Robert Williams a passé 30 heures en détention.
Robert Williams a passé 30 heures en détention. - Source : AFP PHOTO /FAMILY PHOTO/ACLU/HANDOUT

ETATS-UNIS - Robert Williams a passé 30 heures en détention parce qu'un logiciel avait jugé identique la photo de son permis de conduire et l'image d'un voleur de montres capturée par des caméras de surveillance. Il a porté plainte.

Du jamais vu aux Etats-Unis. Robert Williams, un Afro-Américain, a été arrêté à tort à cause de l'usage par la police de la reconnaissance faciale. Une technologie qui, depuis la mort de George Floyd, est vivement critiquée dans le pays.

Début janvier, Robert Williams a passé 30 heures en détention parce qu'un logiciel avait jugé identique la photo de son permis de conduire et l'image d'un voleur de montres capturée par des caméras de surveillance, selon sa plainte déposée mercredi à Détroit. Il avait été arrêté et menotté devant chez lui, en présence de sa femme et de ses deux filles âgées de 2 et 5 ans. "Comment expliquer à deux petites filles qu'un ordinateur s'est trompé mais que la police l'a quand même écouté ?", écrit-il dans une tribune publiée par le Washington Post.

Manque de fiabilité dans l'identification des minorités

Selon son récit, après une nuit en cellule, des agents lui ont demandé s'il était déjà allé dans une bijouterie de Détroit, grande ville industrielle du Nord, et lui ont montré deux photos floues d'un homme noir. "J'ai pris le papier et je l'ai mis près de mon visage en disant "J'espère que vous ne pensez pas que tous les hommes noirs se ressemblent". Les policiers se sont regardés et l'un d'eux a dit : "L'ordinateur a dû se tromper", raconte-t-il.

La technologie de reconnaissance faciale, utilisée depuis plusieurs années par différents services de police aux Etats-Unis sans cadre légal fédéral, est accusée de manquer de fiabilité dans l'identification des minorités, notamment noires ou asiatiques. Selon une étude du MIT, le taux d'erreur est de 35% pour les femmes noires. Si ce biais racial lié à des bases de données comprenant plus de modèles blancs que noirs est connu, aucun cas précis d'erreur n'avait jusque-là été documenté.

Depuis la mort de George Floyd, un quadragénaire noir asphyxié par un policier blanc à Minneapolis le 28 mai, les Américains réclament, lors de manifestations dans tout le pays, des réformes de la police et les militants plaident notamment pour l'abandon de cette technologie. Plusieurs entreprises, soucieuses de répondre à cette mobilisation, comme Amazon, IBM ou Microsoft ont suspendu la vente de ces logiciels d'identification à la police, tant que des règles claires n'auront pas été fixées. 


Thomas GUIEN

Tout
TF1 Info