Les robots devraient-ils avoir le permis de tuer ?
Marc Roux
2016-06-04 00:00:00
URL

Originally published on Silicon Maniacs on November 24, 2011

as de nouvelles sidérantes : cela fait, bien sûr, plusieurs années que des robots en tout genre ont commencé à envahir les théâtres d’opérations militaires. Les plus célèbres sont les drones volants, mais les armées du monde industrialisé s’équipent aussi de robots démineurs, de robots transporteurs et autres robots de toute sorte. Et l’armée française ne fait que suivre ce mouvement au motif qu’il est censé épargner, à priori, beaucoup de victimes sur les champs de batailles.

Néanmoins, je pense qu’il nous revient de réfléchir, de nous positionner et de nous exprimer en tant que partisans d’un monde où les individus d’origine biologique – humains entre autres – vivraient en bonne entente avec d’autres de facture cybernétique ou robotique.

Comment parviendrons-nous à envisager cette future cohabitation si dés demain certains robots militaires (puis policier ?) sont dotés d’une “licence to kill” ?



Les robots guerriers aujourd’hui






Aux Etats-Unis, la tendance est aujourd’hui à la confiance envers les robots guerriers. Leur emploi en milieu militaire est, en effet, très répandu : aux USA, 1 soldat sur 50 est un robot. Le Congrès américain souhaite augmenter leur utilisation d’ici 2013 pour parvenir à un ratio d’un tiers de robots soldats.

Pour l’instant, on leur confie des missions de transports, de reconnaissance, de surveillance et de transport de matériel, voir à ce sujet le robot Big DOG construit par la DARPA (ci-dessus). Après, il n’est pas impossible qu’on leur confie d’autres missions plus “létale”, notamment par le biais de robots tueurs comme le robots SWORDS (ci-dessous).

Cependant, des voix s’élèvent pour protester ou pour alerter. Prenez l’exemple du commandant Mark Hagerott de la US Naval Academy, selon lequel il faudrait d’urgence établir un cadre de contrôle en raison de la pression économique et de l’inertie des progrès scientifiques. “Face au développement massif de robots capables de déployer une force létale, il faut une prohibition“.

Faut-il accorder, c’est-à-dire programmer, la licence to kill chez les robots guerriers ?



Permis de tuer ?






Le cœur du problème me paraît être que tant qu’ils n’ont pas de sens du bien et du mal, tant qu’ils ne sont pas des personnes, ils ne peuvent pas assumer la responsabilité de leurs actes. C’est la raison principale pour laquelle je pense que nous ne devrions pas leur attribuer l’autonomie dans la décision de tuer ou de risquer de donner la mort. Il me semble qu’il doit toujours y avoir une personne responsable derrière un tel choix, une personne à laquelle la société, les victimes éventuelles, pourront demander des comptes.

Bien sûr, s’il ne s’agit que d’un outil, d’une arme, la responsabilité se reporte sur son utilisateur, son propriétaire, voire son fabricant, mais, en première instance, au moment de « tirer sur la gâchette », les militaires eux-mêmes, les soldats, peuvent-ils accepter de faire dépendre à ce point l’engagement de leur responsabilité de la qualité de leurs armes ?

Vous me direz, quant un soldat appuie sur la gâchette de son fusil-mitrailleur comme quand le commandant d’un sous-marin ordonne le tir d’un missile et encore si un président de la république tourne une clé pour ouvrir le feu nucléaire, tous, au-delà de leur décision humaine, s’en remettent au bon fonctionnement d’une chaîne d’actions, mécaniques ou électroniques, voire d’une chaîne de commandement humain dans laquelle se dilue un peu de leur responsabilité. En cas de disfonctionnement de l’arme, d’accident ou de victimes collatérales par exemple, ils pourraient trouver là des « circonstances atténuantes » à faire valoir devant un tribunal. Ne pourrait-il pas en aller de même avec un robot guerrier programmé pour pouvoir tirer de façon autonome ?

Si les capacités d’informations du système qui entoure le robot atteignent un point où son évaluation est évidemment plus pertinente, plus rapide et plus efficiente que celle de l’humain qui jusque là détient la responsabilité de prendre la décision, ne devient-il pas plus sage de laisser également cette décision au soin du système ?



Comment programmer le sens moral ?

Et bien ma réponse demeure négative, pour la bonne raison que, du point de vue d’une Démocratie digne de ce nom, les facteurs qui mènent à la décision d’agresser un humain ne peuvent jamais dépendre seulement de critères matériels. A la limite, je pourrais envisager d’octroyer une telle « liberté » à des robots le jour où ceux-ci auront montré leur capacité à se retourner contre un ordre humainement inacceptable et à dire : « mon colonel, si vous essayer de faire ça, c’est sur vous que je vais tirer ! »

Ils se peut qu’à un terme plus ou moins long, nous finissions par développer des Intelligences Artificielles performantes au point qu’elles nous donnent l’impression non seulement de passer le test de Turing, mais encore de distinguer le Bien du Mal, de faire preuve d’un sens moral, voire, pourquoi pas, de compassion. Nous pourrions alors peut-être envisager d’en doter des robots de combat auxquels nous attribuerions une autonomie dans l’ouverture du feu. Je pense que nous pourrions alors le faire parce qu’ils auraient cessé d’être de simples machines pour devenir de véritables personnes.

D’ici là, il me semble essentiel de maintenir l’interdiction.