Microsoft débranche son robot "Tay", devenu raciste et misogyne en 24 heures

Microsoft débranche son robot "Tay", devenu raciste et misogyne en 24 heures

FAIL – Un programme d’intelligence artificielle, conçu par Microsoft pour interagir avec les internautes, a été retiré de Twitter après avoir écrit des commentaires racistes et misogynes. Explications.

Moins de 24 heures après son lancement, Microsoft a dû se résoudre à débrancher  "Tay", un robot conversationnel, ayant l’apparence d’une adolescente américaine de 19 ans, dont l’intelligence artificielle lui permet de tenir une conversion avec n’importe quel être humain. Trollé par les internautes quelques heures à peine après sa mise en fonction, la machine a totalement déraillé.

Car à la différence d’un "bot" classique, qui recrache des phrases automatiques, Tay ne se contente plus d’imiter l’homme : elle est capable d’approfondir par elle-même ses connaissances. Pour en faire la démonstration, Microsoft a décidé de lâcher sa machine sur les réseaux sociaux afin qu’elle puisse échanger avec des adolescents.

Des commentaires pro-nazis, racistes ou pro-inceste

Au contact des humains, la créature virtuelle s'était mise à tweeter des commentaires pro-nazis, racistes ou pro-inceste. Ces messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d’écrans, sur lesquels on peut encore lire les types de messages postés les dernières heures par Tay sur Twitter.

EN SAVOIR + >> L'intelligence artificielle de Microsoft dérape sur Twitter

"Hitler a fait ce qu’il fallait, je hais les juifs", "Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donald Trump est le meilleur espoir que nous ayons", "Je hais les féministes, elles devraient toutes brûler en enfer", pouvait-on encore lire ce mercredi sur le fil de son compte Twitter.

Des enseignements à tirer de cette expérience

Totalement dépassé, le groupe informatique américain a décidé d’avorter son expérience : "Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée", a expliqué la firme.

Malgré ce fiasco, Microsoft pourra au moins tirer quelques enseignements de l'expérience. Si elle a pu démontrer que Tay est suffisamment intelligente pour adapter son comportement en se basant sur ces échanges, il lui manque encore quelques composantes humaines essentielles : l'humour, le second degré ou encore l’indifférence. Autant de choses qui sont, pour l’heure, encore trop complexes à retranscrire dans un algorithme.

A LIRE AUSSI
>>  VIDÉO - Nadine, votre nouvelle amie est un robot >>  Les nouveaux livreurs de pizzas de Domino's sont des robots

Et aussi

Sur le même sujet

À suivre

Rubriques