Google promet de ne pas user de l'intelligence artificielle pour des armes

Google promet de ne pas user de l'intelligence artificielle pour des armes

POLÉMIQUE - Google fait face depuis plusieurs semaines à une fronde de ses employés, furieux de le voir travailler avec le Pentagone. L'idée ? Aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle.

Google s'est engagé, ce jeudi soir, à ce que ses travaux en matière d'intelligence artificielle (IA) ne servent pas à fabriquer des armes, entre autres principes éthiques, après un tollé sur une collaboration du groupe avec le Pentagone. "Nous avons conscience qu'une technologie aussi puissante soulève aussi d'importantes questions à propos de son usage", a écrit sur le blog du groupe, le numéro un Sundar Pichai, en énumérant une série de principes sur l'usage de l'intelligence artificielle mais sans renoncer à toute collaboration avec des gouvernements et l'armée dans d'autres domaines.

Depuis plusieurs semaines maintenant, le géant américain doit faire face à une fronde de ses employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle. Plus de 4.000 employés ont ainsi signé une pétition demandant à Sundar Pichai de rester en dehors du "commerce de la guerre".

Toute l'info sur

Jusqu'où ira l'intelligence artificielle ?

Bientôt plus aucun homme derrière les drones ?

Sous la pression, le groupe a finalement décidé de ne pas renouveler ce contrat avec le ministère de la Défense lors de son arrivée à échéance en 2019. "Nous demandons que le projet Maven (avec le ministère de la Défense, NDLR) soit annulé et que Google rédige, rende publique et mette en œuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", dit aussi la pétition.

Pour des ONG comme l'Electronic Frontier Foundation (EFF) et le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l'apport de l'intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant, selon elles, un problème éthique majeur.

La crainte des robots-tueurs

L'armée américaine, comme d'autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple. Des voix, comme celle du médiatique patron de Tesla et SpaceX Elon Musk ou encore l'ONU, mettent en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant notamment l'avènement d'armes autonomes, ou de "robots-tueurs".

Lire aussi

Sundar Pichai promet que les travaux sur l'IA seront uniquement conçus pour des usages qui sont "positifs pour la société" et tiendraient compte des principes de respect de la vie privée. Pour autant, il ajoute "si nous refusons de développer l'intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l'armée dans beaucoup d'autres domaines", comme la cyber-sécurité, la formation, le recrutement militaire, la santé des anciens combattants ou encore les missions de sauvetage.

Sur le même sujet

Les articles les plus lus

EN DIRECT - Euro : Suisse, Suède, Angleterre et République tchèque qualifiées pour les 8e de finale

Autonomie de 1000 km, charge en 3 min... Découvrez la première berline à hydrogène française

VIDÉO - "Mon cœur battait la chamade !" : la voisine française du "Serpent" n’a rien oublié

EN DIRECT - Covid-19 : 10.386 personnes hospitalisées, dont 1655 en soins intensifs

Ce bateau conçu en France défie les lois de la physique

Lire et commenter
LE SAVIEZ-VOUS ?

Logo LCI défend l'ambition d'une information gratuite, vérifiée et accessible à tous grace aux revenus de la publicité .

Pour nous aider à maintenir ce service gratuit vous pouvez "modifier votre choix" et accepter tous les cookies.