En Corée du Sud, ils fabriquent le nouveau Terminator

Publié le 16 juillet 2015 à 20h50
En Corée du Sud, ils fabriquent le nouveau Terminator

SCIENCES – Des ingénieurs sud-coréens travaillent à la fabrication d'armes capables d'identifier et d'éliminer une cible hostile, le tout sans intervention humaine. Un projet à la limite de la science-fiction qui soulève des problèmes éthiques et de respect du droit international.

Ce sont sans doute les armes de demain. Des robots armés dotés d'une intelligence artificielle et pouvant potentiellement agir sans contrôle humain. La société sud-coréenne DoDAAM travaille sur ces produits depuis plusieurs années déjà. Une de leur pièce maîtresse est le Super aEgis 2, comme le rapporte The Guardian. Il s'agit d'une tourelle automatisée lancée en 2010, armée d'un canon de 12,7 mm avec une portée de 4 kilomètres. Une trentaine d'exemplaires ont été vendus dans le monde pour un coût unitaire de 30 millions de dollars.

Equipée d'une caméra dernier cri, cette arme est "en mesure d'identifier, de suivre et de détruire une cible en mouvement à grande distance, théoriquement sans intervention humaine", indique le quotidien britannique . Y est associé un robot vocal qui doit avertir l'intrus d'un possible tir. En effet, en vertu du droit international, il n'y a pas de mise à feu, sans sommation. La riposte peut donc, en théorie, tout à fait se passer d'un contrôle humain. Néanmoins dans le cas du super aEgis 2, le tir ne peut être effectué sans l'aval d'un opérateur humain qui doit entrer un mot de passe et déclencher manuellement le feu.

Un vide juridique sur la question

Ce qui n'était pas prévu à l'origine, précise au Guardian, les ingénieurs sud-coréens de DoDAAM . "Notre version originale avait un système de mise à feu automatique", explique Jungsuk Park au quotidien. "Mais tous nos clients ont demandé l'installation de mesures de sûreté. Technologiquement, ce n'était pas un problème pour nous. Mais ils craignaient que la mitrailleuse puisse faire une erreur."

En fait, vendre des armes capables de faire feu de manière autonome est tout à fait légal. "Cela ne contrevient pas à une quelconque norme internationale, nous indique Jean-Marie Fardeau, le directeur France d'Human Right Watch. Il y a un vide juridique et nous faisons campagne pour le combler en demandant leur interdiction."

La bavure du système Aegis

La recherche sur les armes autonomes remonte déjà à plusieurs années. "Dès la fin des années 1980, le début des années 1990, on a cherché à rendre les armes plus intelligentes, nous explique Raja Chatila, le directeur de l'Institut des systèmes intelligents et de robotique (Isir) . Et ce pour deux raisons : éviter d'exposer ses propres troupes au danger et rendre les armes plus précises doit permettre de limiter les victimes civiles."

Ainsi depuis le début des années 1990 la marine américaine protège ses navires grâce au système Aegis qui repère et détruit automatiquement les missiles ou avions agresseurs. "Le temps de réaction de l'être humain est jugé trop long pour pouvoir détruire le missile à temps, d'où le recours à des systèmes automatisés", précise Raja Chatila. Ce qui n'est pas sans bavure puisque le 3 juillet 1988, le navire de guerre U.S.S. Vincennes qui patrouillait dans le Golfe Persique a abattu par erreur avec des missiles un avion de ligne iranien tuant ses 290 passagers. Le système Aegis l’avait repéré comme étant un avion de combat F-14 iranien et les officiers ont ordonné de faire feu.

LIRE AUSSI >> Le dôme de fer israélien : comment ça marche ?

Comment différencier un civil d'un soldat ?

Aujourd'hui les systèmes d'armes se sont perfectionnés, et "existe la tentation de donner cette capacité d'autonomie à l'arme", estime le directeur de l'Isir. "La machine elle-même va prendre la décision de faire feu. Même si cette tendance ne se retrouve pas chez les militaires que j'ai pu côtoyer, cela pose une question éthique fondamentale." En effet, comment la machine peut-elle faire la différence entre une cible hostile et un civil ? Un soldat qui se rend et un agresseur ?

Pour Raja Chatila, aujourd'hui "la machine est loin de pouvoir faire la part des choses comme un être humain peut le faire". La décision de faire feu est liée à un contexte particulier, à un raisonnement humain que la machine n'est pas en capacité de reproduire. "Certains de mes collègues préconisent de programmer à l'arme un agent moral qui appliquerait le droit international, ce qui limiterait les bavures potentielles", poursuit le chercheur. Mais le droit international et les conventions de Genève s’interprètent aussi en fonction d'une situation précise. La machine est-elle capable d'une telle interprétation ?

Pour tenter d'y répondre, l'ONU a organisé en mai 2014 et mai 2015 deux sessions pour discuter des armes autonomes et de leur éventuelle interdiction, comme cela a été le cas des mines antipersonnelles. C'est en tout cas la volonté de Jean-Marie Fardeau qui pointe le risque de prolifération de ce type d'armement, notamment au sein d'organisations terroristes peu enclines à respecter le droit international, et soulève le problème de "la responsabilité en cas de victime civile" : "il sera juridiquement plus complexe de se retourner contre l'auteur du coup de feu qui est une machine et les droits des victimes seront donc moins bien protégés." L'arme autonome est déjà une réalité mais rien n'existe vraiment pour l'encadrer.

LIRE AUSSI >> Attaques de drones au Pakistan: Ban Ki-moon s'en prend aux Etats-Unis


La rédaction de TF1info

Tout
TF1 Info