Google promet de ne pas user de l'intelligence artificielle pour des armes

POLÉMIQUE - Google fait face depuis plusieurs semaines à une fronde de ses employés, furieux de le voir travailler avec le Pentagone. L'idée ? Aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle.

Google s'est engagé, ce jeudi soir, à ce que ses travaux en matière d'intelligence artificielle (IA) ne servent pas à fabriquer des armes, entre autres principes éthiques, après un tollé sur une collaboration du groupe avec le Pentagone. "Nous avons conscience qu'une technologie aussi puissante soulève aussi d'importantes questions à propos de son usage", a écrit sur le blog du groupe, le numéro un Sundar Pichai, en énumérant une série de principes sur l'usage de l'intelligence artificielle mais sans renoncer à toute collaboration avec des gouvernements et l'armée dans d'autres domaines.


Depuis plusieurs semaines maintenant, le géant américain doit faire face à une fronde de ses employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle. Plus de 4.000 employés ont ainsi signé une pétition demandant à Sundar Pichai de rester en dehors du "commerce de la guerre".

Bientôt plus aucun homme derrière les drones ?

Sous la pression, le groupe a finalement décidé de ne pas renouveler ce contrat avec le ministère de la Défense lors de son arrivée à échéance en 2019. "Nous demandons que le projet Maven (avec le ministère de la Défense, NDLR) soit annulé et que Google rédige, rende publique et mette en œuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", dit aussi la pétition.


Pour des ONG comme l'Electronic Frontier Foundation (EFF) et le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l'apport de l'intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant, selon elles, un problème éthique majeur.

La crainte des robots-tueurs

L'armée américaine, comme d'autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple. Des voix, comme celle du médiatique patron de Tesla et SpaceX Elon Musk ou encore l'ONU, mettent en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant notamment l'avènement d'armes autonomes, ou de "robots-tueurs".

Sundar Pichai promet que les travaux sur l'IA seront uniquement conçus pour des usages qui sont "positifs pour la société" et tiendraient compte des principes de respect de la vie privée. Pour autant, il ajoute "si nous refusons de développer l'intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l'armée dans beaucoup d'autres domaines", comme la cyber-sécurité, la formation, le recrutement militaire, la santé des anciens combattants ou encore les missions de sauvetage.

Tout savoir sur

Tout savoir sur

Jusqu'où ira l'intelligence artificielle ?

Sur le même sujet

Plus d'articles

Lire et commenter