Le boom des assistants vocaux : "Le risque, c’est de se retrouver enfermé dans des bulles édifiées par Google, Amazon ou Facebook"

Le boom des assistants vocaux : "Le risque, c’est de se retrouver enfermé dans des bulles édifiées par Google, Amazon ou Facebook"

High-tech
ÉCLAIRAGE - L'assistant vocal est aujourd'hui une des formes d'intelligence artificielle les plus répandues. Et d'ici quelques années, comme dans le film "Her" de Spike Jonze, les machines pourraient converser avec nous. Le psychiatre et psychanalyste Serge Tisseron décrypte pour nous la relation homme-machine de demain.

Le philosophe Michel Serres, historien et professeur à l’université de Stanford aux Etst-Unis, qu’on ne présente plus, évoquait dernièrement dans un ouvrage à succès intitulé Petite Poucette (aux éditions le Pommier) cette génération née avec un téléphone mobile dans les mains qui utilise son pouce pour interagir avec les technologies numériques. 


Pourtant, de nos jours, ce rapport tactile au numérique perd du terrain face à la voix. Les assistants personnels dits "intelligents", comme Alexa (Amazon) et ses consœurs Siri (Apple) ou Cortana (Microsoft), sont de plus en plus utilisés pour des tâches du quotidien. Parler à une machine, un téléphone ou une enceinte est pour certains devenu courant. Ces appareils passent les appels pour nous, nous indiquent l’itinéraire à suivre ou font nos recherches sur internet sans avoir besoin d'utiliser le clavier.


Les assistants vocaux prennent une place privilégiée dans nos interactions avec les machines : les chatbots (agents conversationnels) réinventent la relation client et les intelligences artificielles douées de parole rivalisent d'ingéniosité. Parfois, on a le sentiment de se rapprocher d'un futur comme dans le film "Her", où les humains passent leur temps à errer, bavardant constamment avec leur assistant vocal. Siri, l’interface vocale de l’iPhone, tout comme Alexa, Cortana ou Google Assistant, sont encore loin d’arriver à la cheville de Samantha, l'OS personnelle à laquelle s’attache Joaquin Phoenix, alias Theodore dans le film, mais ils nous rapprochent du moment où nous pourrons converser avec eux, comme avec un être humain.


Entretien avec Serge Tisseron, psychiatre et psychanalyste, auteur du livre Le Jour où mon robot m'aimera : vers l'empathie artificielle (éd. Albin Michel, 2015). 

LCI : Allumer la lumière de la chambre, lancer une série sur son téléviseur, commander une pizza ou même faire ses courses, rien qu’à la voix, depuis son canapé, va devenir de plus en plus fréquent. Nous allons parler à des machines… comme avec un humain. N’est-ce pas un peu étrange ?

Serge Tisseron : On le voit très bien dans le film Her, au début, il y a une certaine réticence. Le héros (incarné par Joacquim Phoenix) n’y croit pas trop. Il répond dès les premières questions de manière dubitative, un peu ironique. On s’aperçoit qu’à partir d’un moment le logiciel peut puiser dans toutes les informations qu’il a laissées sur le net et tenir une conversation adaptée à ses préoccupations. Cela devient un support de conversation préférable à toute autre. Finalement, il consacre l’essentiel de son temps à communiquer avec cette intelligence artificielle et plus du tout avec des humains. C’est un danger qui est présent dans la relation que nous pourrons avoir avec les agents conversationnels et autres chatbots dans les années à venir dans la mesure où les humains sont imprévisibles. Les rapports sont parfois difficiles, on doit s’adapter en permanence. Les humains nous déroutent. Ils sont souvent autrement que ce qu’on attendait ou imaginait. Mais c’est justement ce qui nous permet d’avoir une plasticité psychique et d’élargir constamment nos centres d’intérêt. Le problème, avec ces machines, c’est qu’elles nous proposeront essentiellement des discussions sur des choses qui nous captivent, puisqu’elles n’auront que très peu d’informations sur les choses qui ne nous intéressent pas. Le risque, c’est que les gens se retrouvent enfermés dans des bulles édifiées par Google, Amazon ou Facebook. Ces logiciels seront tout à fait à même de tenir avec nous des conversations émotionnellement satisfaisantes, mais dénuées de débats d’idées et de projets

LCI : Plus on fournit d'informations à la machine, plus elle gagne en performance et plus elle peut nous rendre service. Sauf que ces enceintes intelligentes, tout particulièrement celles d’Amazon et de Google, sont aussi un moyen de créer un canal complémentaire de collecte de données personnelles. C’est un peu Big Brother qui s’invite chez nous, non ?

Serge Tisseron : Ces assistants virtuels intelligents recueillent des informations personnelles pour s’adapter à la personnalité de l’utilisateur et lui fournir un service personnalisé. C’est exactement le modèle qui a conduit au scandale Cambridge Analytica. Les données de 100 millions d’américains avaient été collectées sans leur consentement. Les utilisateurs étaient répartis en différentes groupes à partir de leurs centres d’intérêt. Le cabinet Cambridge Analytica les a ensuite utilisées pour diffuser de la publicité ciblée et aider Donald Trump à gagner. Le modèle qui a été dénoncé lors de cette affaire est exactement celui qui est appliqué aux agents conversationnels et autres chatbots. Nous serons rangés au sein d’un groupe, parmi dix, vingt, trente ou cinquante catégories, et les machines nous fourniront des réponses basées sur nos préoccupations. Au fur et à mesure que nous interagirons avec eux, les réponses se feront de plus en plus précises. Lorsque nous commençons à utiliser, le logiciel utilisera des données statistiques, mais au fur et à mesure que nous interagirons avec lui, il conservera toutes les nouvelles données que nous lui fournirons pour proposer des réponses encore plus ciblées. Les échanges ne permettront pas le débat d’idée, ce n’est pas dans l’intérêt des fabricants. Beaucoup de gens n’aiment pas être contredit. Et encore moins de projets. Un agent conversationnel, à part vous diffuser de la publicité pour des produits de consommation, n’aura jamais la capacité de vous proposer un projet de vie. Heureusement d’ailleurs, parce que ce serait le projet que la Silicon Valley a décidé pour vous. En Europe, heureusement, il existe désormais un arsenal juridique, depuis l’entrée en vigueur du nouveau règlement général sur la protection des données personnelles (RGPD), qui permet aux citoyens de mieux préserver leur vie privée. Ce sera, malgré tout, une vigilance de tous les instants. L’invention de l’arme précède toujours l’invention de la défense. Le combat pour la protection des données est condamné à courir derrière les perfectionnements technologiques qui permettront à des entreprises de collecter toujours plus de données. Ils le disent clairement, c’est leur modèle économique donc pas de raison d’en changer, comme dit Mark Zuckerberg. Il faudra rester très vigilant.

En vidéo

VIDÉO - Alexa, Google Home : les assistants vocaux trouvent leur voix

Ces machines seront capables de nous proposer des conversations bien plus adaptées à nos humeurs et nos centres d’intérêt que celles avec des humainsSerge Tisseron

LCI : Dans votre livre "Le Jour où mon robot m'aimera : vers l'empathie artificielle" vous évoquez avec crainte le moment où ces machines auront le pouvoir de nous interpeller ?

Serge Tisseron : L’usage de ces technologies n’en est qu’à ses balbutiements. Le grand bouleversement à venir, d’après moi c’est lorsqu’elles seront en mesure de nous interpeller, même quand nous ne leur parlons pas. C’est là que va se situer un changement très important. Il ne s’agira plus d’un système auquel on décide de se connecter, en prononçant les mots "Hey Siri", "Okay Google" ou "Alexa". C’est une machine qui va me dire, par exemple lorsque je me promène, en passant devant un magasin qui propose des cocktails de fruits pressés : " Tu m’as dit il y a trois jours que tu avais envie de boire un jus d’orange, ici il y en a". La question est de savoir si ces systèmes se verront reconnaître le droit de nous interpeller, de nous rappeler certaines choses que nous avons oubliées, de leur propre initiative, parce que nous leur confierions la tâche d’exercer une sorte de veille qui fait qu’ils se déclencheraient d’eux-mêmes, en fouillant dans leur mémoire. Probablement les deux usages existeront : d’un côté, ceux qui vont voudront garder l’initiative d’interroger la machine ; et de l’autre, ceux qui laisseront l’appareil en veille de telle façon qu’il pourra intervenir pour les conseiller. Imaginons qu’on dise à un ami lors d’une conversation : « J’aimerais bien lire un roman d’aventure pendant mes vacances cet été ». La machine qui a enregistré l’information prendrait alors l’initiative de rappeler ce souvenir à l’utilisateur au moment où il passe à côté d’une librairie. Tout changera le jour où la machine aura le pouvoir de nous interpeller.

LCI : On trouve aujourd’hui des agents conversationnels qui disposent d'une voix imaginée avec soin. Par exemple, Siri a une voix qui évoque celle d’une jeune femme que l’on pourrait aimer. Elle sait, en outre, faire preuve d’une certaine dose d’humour. Il est d’ailleurs intéressant de remarquer qu’Apple a choisi une voix de femme aux Etats-Unis mais une voix d’homme en Angleterre. Pour quelle(s) raison(s) ?

Serge Tisseron : Ces machines sont développées par des ingénieurs au sein de grandes firmes américaines. Ils travaillent avec des historiens, des romanciers, des humoristes pour adapter le système aux différentes cultures. Tout cela pour faire en sorte d’accroître le pouvoir d’influence de ces machines. On peut imaginer que lorsque le logiciel « voudra » nous pousser à faire quelque chose, il aura peut-être une voix un peu plus autoritaire ou, à l’inverse, une voix plus câline et séduisante, comme le fait Samantha dans le film Her. En plus, si ces machines sont dotées d’une petite caméra, elles pourront capturer et prendre en compte des informations qui passent le plus souvent inaperçues à notre entourage, comme nos mimiques inconscientes, le plus infime clignement d’œil. C’est pour cela que ces machines seront capables de nous proposer des conversations bien plus adaptées à nos humeurs et à nos centres d’intérêt que la plupart des humains qui nous entourent. Quelqu’un qui s’intéresse au foot, par exemple, il va aller au bistrot pour retrouver ses copains et en parler avec eux, parce que ni sa femme ni ses enfants ne s’y intéressent. De même, un adolescent qui joue à Fortnite - le dernier jeu vidéo à la mode chez les adolescentes - ses parents trouvent que c’est de l’abrutissement, il va donc retrouver ses copains pour en parler. Avec un assistant virtuel, il y aura toujours moyen d’avoir un interlocuteur intéressé par ce qui nous intéresse.

LCI : C’est d’ailleurs fascinant de voir avec quelle aisance les enfants s’adaptent à ces technologies...

Serge Tisseron : Les jeunes humains intègrent extrêmement vite les usages des objets technologiques conçus pour donner du plaisir. Une machine à laver est pour eux bien plus énigmatique qu’une enceinte Google Home ou qu’un ordinateur. Mais en même temps, les jouets connectés, avec lesquels l’enfant interagit par la voix, posent de nombreux problèmes. Aux Etats-Unis, Hello Barbie, la poupée connectée proposée par Mattel, a créé la polémique. Elle a été accusée d’espionner les familles en collectant des données sur les centres d'intérêt des enfants et de leurs parents pour mieux cerner leurs besoins et leurs attentes, et leur proposer par la suite des objets qui leur conviennent davantage. Un tel objet pourrait aussi influencer la représentation du monde de l’enfant. Les enfants sont déjà soumis à une forte influence de leurs camarades et des médias, dans lesquels ils puisent beaucoup de modèles. Cette dépossession éducative des parents risque de connaître un coup d’accélérateur avec ces machines qui vont rapidement servir à la fois de confident et de conseiller. Je pense qu’une des premières questions qu’un enfant va poser à son robot, ce sera : « Est-ce que si je te raconte un secret, est ce que tu vas le répéter à mes parents ? ». Il faudra que le robot soit programmé pour faire la bonne réponse. Et il faudra aussi que les parents expliquent que si le robot dit qu’il le garde pour lui, il le transmet quand même à un serveur central qui pourra utiliser l’information, même si la famille ne sait pas très bien comment.

"Nous sommes tellement habitués à ce que les machines nous simplifient la vie que nous sommes prêts à leur abandonner une part de notre liberté"Serge Tisseron

LCI : Ces machines représentent selon vous un danger pour les enfants ? Se rendent-ils compte immédiatement qu’ils n’ont pas affaire à un humain, mais bel et bien à un être virtuel ?

Serge Tisseron : Je n’aime pas le mot de danger, qui laisse imaginer que nous n’avons pas de moyens de nous protéger. Je préfère le mot de risque, qui associe l’idée de la prévention. Or ces machines ne présentent pas seulement des risques pour les enfants, elles en présentent pour tout le monde. Les enfants savent parfaitement qu’il s’agit de machines. Mais ils ne sont qu’à moitié lucides. La machine n’est pas un humain, mais derrière la machine il y a un humain. Et l’humain, c’est le programmeur. Ce sera la grande difficulté de faire comprendre à l’enfant que les réponses de l’assistant vocal sont en grande partie décidées par un programmeur, même si elles semblent totalement adaptées à lui. C’est ce qui se passe lorsque des soldats de l’armée américaine rendent hommage à un robot endommagé. Ils disent : « on sait bien que ce n’est qu’une machine ». Mais de fait, ils ne peuvent pas s’empêcher de la traiter comme un animal ou même un être humain. C’est ce qu’on appelle la dissonance cognitive. Ce concept a vu le jour dans les années 60 avec Eliza, un programme informatique développé par Joseph Weizenbaum. Il simulait un psychothérapeute rogérien de manière caricaturale, en reformulant la plupart des affirmations du « patient » en questions, et en les lui posant, dans le but de relancer en permanence l’intérêt de l’utilisateur. Quand le robot n’arrivait pas à trouver une reformulation possible, il était programmé pour répondre : « Je vous comprends », et non pas « Je ne vous comprends pas ». Weizenbaum s’est aperçu que des étudiants qui avaient programmé le robot avec lui, et qui savaient donc bien qu’il s’agissait d’une machine, passaient beaucoup de temps à interagir avec Eliza. Il leur a dit : « Vous savez bien que c’est un programme, il ne va vous faire découvrir des choses sur vous. » Les étudiants répondaient : « On a parfois l’impression qu’il réagit de manière inattendue et assez personnelle ». Les étudiants savaient parfaitement comment la machine fonctionnait, mais ils ne pouvaient pas s’empêcher de penser que pour eux, peut-être, elle agissait de manière plus personnelle qu’avec les autres. Weizenbaum a appelé ce phénomène la « dissonance cognitive », en ajoutant cette phrase : « Je n’aurais jamais imaginé qu’un programme aussi simple puisse provoquer chez des gens normaux de tels délires ». Heureusement, les jeunes générations seront davantage préservées que les adultes. En grandissant avec des jouets robotisés élémentaires, les enfants intègrent assez vite que les robots sont assez bêtes tout compte fait.

LCI : Un jour, ces machines auront peut-être des visages, ils ressembleront alors à de véritables humains, comme les humanoïdes de la série à succès Westworld ?

Serge Tisseron : Ce n’est pas demain la veille que des robots ressemblant comme deux gouttes d’eau à des humains verront le jour. Animer le visage d’un robot sur le modèle d’un visage humain est très exigeant en puissance de calcul. Mais même si les machines de demain n’ont pas l’anatomie humaine, cela ne changera rien à la tentation de leur imaginer des émotions et à oublier leurs programmeurs. Nous sommes tellement habitués à ce que les machines nous simplifient la vie que nous sommes prêts à leur abandonner une part de notre liberté. Mais avec ces machines connectées, il va falloir faire preuve d’une confiance vigilante et mesurée. La psychologie n’a jamais réfléchi à une telle relation avec des objets, et à ses conséquences. Tout au long du XXe siècle, la psychologie s’est préoccupée de comprendre le fonctionnement psychique de l’homme malade, puis celui de l’homme bien portant, et enfin celui de l’homme en lien avec ses semblables. Le XXIe siècle va devoir construire une psychologie de l’homme confronté à des machines différentes de lui, et qui lui ressembleront de plus en plus.

LCI : On peut imaginer que l’utilisateur sera bientôt à même de personnaliser son assistant vocal, comme la manière de parler, la personnalité, etc.

Serge Tisseron : Ce qui va être très intéressant à suivre pour les chercheurs, c’est de voir comment les gens vont customiser leur assistant vocal intelligent. L’utilisateur pourra reprogrammer un peu la machine, les expressions utilisées, lui donner un nom, etc. Mais ils pourraient même décider d’en faire autre chose ! Justine Cassell (ndlr : professeure de linguistique et d'interaction Homme-Machine à la Carnegie Mellon University) me racontait lors d’une émission de radio sur France Culture qu’elle avait déjà vu des enfants bricoler des logiciels conversationnels pour essayer de les reprogrammer. C’est une très bonne nouvelle !

LCI : Parfois, on a le sentiment de se rapprocher d'un futur où les humains passeront leur temps à errer, bavardant constamment avec leur assistant vocal. Se rapproche-t-on du moment où nous pourrons converser avec lui comme avec un être humain ?

Serge Tisseron : Aujourd’hui, Siri, Alexa, Cortona, tout comme Google Home, sont assez bêtes. Mais ils vont rapidement devenir très intelligents. Ce sont des brouillons. Mais ils ont démontré qu’il existe un très fort intérêt de la part du grand public. C’est comme ça que la recherche fonctionne : les entreprises font des brouillons. Si ça fonctionne, elles perfectionnent le produit, sinon elles l’abandonnent. C’était très vite un succès aux Etats-Unis, en France également. Du coup, beaucoup d’argent a été investi dans ces technologies. Il va y avoir des progrès très rapides dans ce secteur. Le film "Her" est quelque chose de tout à fait plausible. Le héros est en rupture affective, sa femme est partie, il passe son temps sur des jeux vidéo. Le scénario de ce film me paraît tout à fait réaliste, y compris l’extraordinaire déception du héros quand il apprend que Samantha a 600 amants !"

Tout savoir sur

Tout savoir sur

Jusqu'où ira l'intelligence artificielle ?

Sur le même sujet

Plus d'articles

Lire et commenter