Systèmes d’armes létales autonomes : enjeux éthiques et sécuritaires

Tout public
FULL HD
Vlog / Podcast • 14 minutes
Essayez The Flares en illimité : 0€
Systèmes d'armes létales autonomes : enjeux éthiques et sécuritaires
Téléchargez au format PDF

L’intelligence artificielle se répand dans de nombreux domaines d’activité humaine. Et forcément, l’une d’entre elles c’est l’armement. Lorsque l’on pense aux armes autonomes, une des premières choses qui vient en tête c’est Terminator. Mais en étant plus réaliste, on pense de suite aux drones, car on les voit déjà autour de nous. Pas très difficile de les imaginer chargés d’explosif ou armés d’une mitraillette. Cependant, un nombre grandissant de personnes dans la communauté de chercheur en intelligence artificielle se mobilise pour rédiger un traité international bannissant le développement d’armes autonomes et l’organisation des Nations unies est sollicitée depuis plusieurs années pour prendre une décision internationale, avec un récent sommet à Genève en mars 2019.

Alors quels sont les arguments mis en avant pour bannir ce type d’arme ?

Déjà, il est nécessaire de définir de quoi parle-t-on lorsque l’on mentionne le terme d’arme autonome, aussi appelé systèmes d’armes létales autonomes (SALA). Il s’agit d’une arme qui peut localiser, sélectionner et attaquer mortellement des cibles sans interventions humaines. À ce jour, il n’existe aucune arme offensive de ce type, seulement des dispositifs automatiques défensifs. Type interception de missile balistique.

Les armes autonomes sont une menace à toutes les échelles. À l’échelle individuelle pour un assassinat. À l’échelle gouvernementale pour de la répression. Et à l’échelle d’une attaque massive lors d’un conflit entre deux états ou entre un acteur non étatique et un état.

On peut très bien avoir une seule arme autonome comme un tank, mais également toute une flotte. Car il n’y a pas besoin de superviser chacune d’entre elles comme c’est le cas aujourd’hui avec les drones militaires où un soldat pilote un seul drone. Mais si le drone se pilote et exécute lui même les cibles, alors la taille de la flotte peut s’étendre à plusieurs millions si bien que les armes autonomes entrent dans la catégorie des armes de destruction massive.

Si nous n’avons aucun traité bannissant les armes autonomes, elles seront fabriquées industriellement en grande quantité. À la chaine. Tout comme aujourd’hui avec les armes automatiques. Si bien qu’il y a des dizaines de millions de fusille mitrailleurs dans les mains d’individus que l’on n’a pas trop envie qu’ils les ait. Mais ces armes automatiques ne sont pas des armes de destruction massive. Car elles doivent être portées par leur utilisateur, ce qui limite les dégâts infligés. En revanche, pour une arme autonome, il n’y a pas besoin de 10 millions de personnes pour lancer 10 millions d’attaques. Une personne pourrait se procurer 10 millions de drones autonomes armés, surtout s’ils sont petits et lancés 10 millions d’attaques dans un pays ennemi.

On est donc face à un type d’arme qui peut causer un nombre de victimes qui est sans comparaison, si ce n’est avec les armes nucléaires.

Créer des armes autonomes, c’est donc créer une nouvelle classe d’arme de destruction massive qui sera moins chère, plus prolifique et plus efficace que les armes nucléaires. Ce qui n’est pas des plus rassurant.

Certaines personnes postulent que les armes nucléaires sont une des raisons majeures qui a permis la fin des grands conflits entre pays. Car ceux qui les possèdent savent les conséquences apocalyptiques qui découlent de leurs utilisations. Du coup, on pourrait se dire que si on construit des armes encore plus destructrices, basées sur des hordes de robots tueurs, alors on entrera dans une ère de paix sans précédent et l’idée même de guerre sera révolue.

Mais c’est un argument un petit peu léger … malheureusement, les guerres ne vont pas disparaître simplement, car nos armes sont trop destructrices. Et même si les conséquences d’une guerre à grande échelle dissuadent, comment s’assurer qu’un chef d’État ne devienne pas fou et lance une attaque dévastatrice sur un pays ennemi ? Sans parler du fait que les armes autonomes pourraient être utilisées également pour contrôler les frontières ou pour réprimer la population en cas de révolte. Et la menace d’un acteur non étatique est toujours aussi grande. Un fanatique idéologique pourrait causer des attaques dévastatrices.

En faite, on peut également proposer un argument opposé à celui de la dissuasion. Les armes autonomes pourraient engendrer finalement plus de conflits que par le passé, car elles baissent le seuil de décision d’entrer en guerre ou non. Étant donné qu’il y a moins de soldats humains en jeu, les gouvernements pourraient être plus enclins à régler des conflits par la guerre. C’est plus facile de convaincre l’opinion publique lorsque l’armée n’envoie pas nos enfants aux combats. Pas sûr qu’il y aurait eu autant de manifestations antiguerre du Vietnam si les États-Unis avaient uniquement envoyé des armes autonomes pour massacrer les vietcong.

Ensuite, un autre argument contre les armes autonomes c’est celui de la discrimination et des dommages collatéraux. On peut imaginer qu’avec des capacités surhumaines de reconnaissance d’image, une intelligence artificielle ne fera pas d’erreur lorsqu’il s’agit d’éliminer une cible. Ce qui évite de faire sauter un bâtiment plein de civiles juste pour tuer un leader terroriste par exemple. Mais en temps de guerre, il est bien plus compliqué de définir qui est l’ennemi. Certes, les uniformes ont historiquement été un moyen d’identifier clairement qui est avec nous, et qui est contre nous. Mais les guerres modernes sont beaucoup plus vicieuses, car les soldats ne sont pas forcements en uniforme. Pour reprendre l’exemple de la guerre du Vietnam, l’une des plus grosses difficultés pour les Américains fut de faire la distinction entre les vietcong, et les civiles. Ce qui a conduit à des massacres civils immondes. Il ne faut pas oublier que la première victime de la guerre est les populations civiles. Pendant la 2e guerre mondiale, aussi bien les alliés que les forces de l’axe ont commis des crimes de guerre horribles selon les standards contemporains et il n’y a aucune raison de penser que des armes autonomes seront capables d’éviter les dommages collatéraux. Si une arme autonome n’est pas certaine de savoir qui est l’ennemi, le taux d’erreur pourrait être catastrophique.

Mais je pense que la crainte la plus importante vis-à-vis de ce type d’arme, ce n’est pas vraiment leur utilisation lors de conflit entre grandes puissances lors d’une 3e guerre mondiale, mais bien par des acteurs non etatique. Si elles sont fabriquées en grande quantité, aucun ne doute qu’elles se retrouvent sur le marché noir. Les armes autonomes pourraient devenir les nouvelles Kalachnikovs. Et donc finir dans les mains de terroristes, des dictateurs souhaitant mieux contrôler leur population, des seigneurs de guerre souhaitant un nettoyage ethnique. Grâce aux machine learning, l’intelligence artificielle possède une capacité surhumaine de détection et de reconnaissance visuelle. Si bien qu’une personne pourrait programmer une arme autonome pour massacrer un certain type d’individu. Les algorithmes peuvent cibler des groupes spécifiques en fonction de données telles que l’âge, le sexe, l’appartenance ethnique, les traits du visage, le code vestimentaire ou même le lieu de résidence ou la pratique religieuse. Imaginons un suprémaciste blanc néonazi membre du Klu Klux Klang, autrement dit un être immonde, qui ordonne à 150 drones autonomes armés de tuer toutes les personnes non blanches qu’il détecte lors d’un événement public.

Certains des massacres ethniques les plus horribles de l’histoire, lors de génocide, ont quand même été limités par certains actes d’empathie et de compassion. Par exemple un soldat allemand pendant la 2e guerre mondiale reçoit l’ordre de tuer tous les juifs qu’il rencontre. Lors du nettoyage d’un village par exemple. Mais en faisant face à une femme et ses enfants, ils décident de les épargnés car au final, le type il est humain, il a des émotions, de l’empathie. Ces scénarios sont arrivés souvent en temps de conflit. Maintenant, si c’est une machine autonome à la place du soldat, n’importe qu’elle individu qui correspond aux profils qu’elles possèdent dans sa base de données, et qu’elle a appris via du machine learning, se fera liquidé. Aucun remords, aucune empathie. Ce sera comme activer le mode Terminator.

Un autre argument de taille, c’est qu’en retirant l’humain de la prise de décision de tuer, nous déshumanisons fondamentalement la guerre et nous ne savons pas qui est responsable du dernier recourt pour utiliser la force meurtrière. De plus, il est difficile de savoir qui, le cas échéant, pourrait être tenu pour responsable si une arme autonome provoque des dommages imprévus ou commet des crimes de guerre.

Alors on pourrait être hyper cynique en se disant que même si on établit un traité pour bannir les armes autonomes, cela ne changera rien, car les grandes puissances vont quand même les développer. Mais c’est oublier qu’un traité international rend très difficiles la fabrication de masse et la commercialisation de l’arme qui a été interdite. Surtout si elle nécessite une expertise particulière.

Par exemple, à ce jour, il n’y a aucune production industrielle d’armes chimiques, qui ont été bannies en 1997, ou d’arme biologique, bannie en 1975. Et même au niveau des mines terrestres où de nombreuses puissances militaires comme les États unis, la Chine, le Royaume-Uni ou l’Inde n’ont pas signé le traité en 1999, il n’empêche qu’il n’y a qu’une seule entreprise qui fabrique des mines aujourd’hui, située en Corée du Sud.

Donc clairement, un traité a un effet significatif sur la production industrielle et la prolifération d’un type d’arme. On ne peut pas juste dire que ça ne sert à rien. Et personne n’affirme que l’on doit revenir en arrière et abolir le traité contre les armes biologiques ou chimiques. Tout le monde est bien content de vivre dans un monde sans armes chimiques fabriqué à la chaîne.

On a donc un argument similaire à celui des armes biologiques et chimiques vis-à-vis des armes autonomes. L’idée maîtresse étant de limiter la production de masse et leur prolifération.

Bannir les armes autonomes, c’est augmenter la sécurité générale de la population, et se prémunir de voir des armes dont nous n’avons pas des moyens efficaces de défense, surtout si elles sont sujettes à un piratage ou à un malfonctionnement.

Certain des opposants à un traité sur les armes autonomes avancent l’argument que bannir les armes autonomes va ralentir et poser des obstacles à la recherche en intelligence artificielle militaire qui peut déboucher, comme c’est souvent le cas, sur des applications civiles bénéfiques pour la société. Mais arme autonome, et intelligence artificielle militaire sont deux choses bien différentes. Ce que nous ne voulons pas c’est enlever l’intervention humaine lors de la décision d’éliminer une cible. Cela n’empêche pas les états majors de développer des systèmes autonomes pour porter du matériel, identifier des cibles et toutes autres recherches liées à l’intelligence artificielle. Qui pourrait ensuite avoir des bénéfices dans les domaines civils.

C’est donc un argument qui ne tient pas la route. Et le traité contre les armes biologiques ou chimiques n’a pas empêché les universités du monde entier d’avoir un département biologie, et un département chimie. Les avances récentes en médecine n’ont pas été impactées par le fait qu’on ne peut pas concevoir des armes biologiques.

En faite c’est même l’inverse. Si la chimie était le champ d’études responsable d’atrocité massive constante à travers la planète avec l’utilisation d’arme chimique, pas sûr que ce soit le sujet le plus populaire des campus universitaires. Un traité contre les armes autonomes aura donc le bénéfice de sensibiliser les chercheurs. C’est répandre l’idée que c’est moralement condamnable en quelque sorte. Du coup, ce sera bien plus compliqué pour, disons l’armée française, de trouver des jeunes chercheurs motivés pour bosser sur ce type d’arme. Si 90% des chercheurs en intelligence artificielle condamnent l’utilisation d’armes autonomes, alors cela laisse seulement 10% qui seraient potentiellement recrutable pour de la recherche dans ce domaine. Et probablement pas les meilleurs.

Nous ne voulons pas que les cerveaux les plus brillants de la planète soient réquisitionnés pour développer des armes autonomes. Tout comme ce fut le cas avec le projet Manhattan dans les années 1940 où certains des plus brillants physiciens ont été rassemblés pour développer la bombe nucléaire. Mais il ne faut pas oublier que la majorité d’entre eux étaient persuadés que les nazis étaient proches d’avoir l’arme atomique. Il y avait donc une obligation morale d’y arriver avant eux où l’histoire aurait pu prendre un tournant très sombre. Mais une fois la guerre terminée, de nombreux scientifiques qui ont pris part au projet se sont mobilisés pour réguler les armes nucléaires et sensibiliser le monde sur ses dangers.

Le groupe “Campaign to Stop Killer Robots” s’est formé en 2012. Plus de 25 000 experts en intelligence artificielle se sont positionnés en faveur d’un traité. Le secrétaire général de l’ONU António Guterres a déclaré en mars 2019 que les machines autonomes dotées de la capacité de choisir des cibles et de supprimer une vie sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par des lois internationales. Selon un sondage en décembre 2018 conduit dans 26 pays, 3 personnes sur 5 sont contre l’usage d’arme autonome.

Alors notre position à The Flares, elle est claire. Nous voulons accélérer la mise en place d’un traité pour bannir les systèmes d’armes létales autonomes. À notre échelle, il n’y a pas grand-chose que l’on puisse faire si ce n’est la production de cette vidéo, qui vous offre un aperçu sur le sujet et, on l’espère vous alerte sur les enjeux. Mais on a également décidé d’ajouter une sorte d’appel civique pour que vous puissiez manifester votre position sur le sujet, et pourquoi pas ajouter une petite goutte dans le verre grandissant des personnes faisait pression pour obtenir un traité. (je sais, je suis balèze en métaphore).

Après réflexion, on a opté pour une pétition en ligne. L’idée étant de voir combien de personnes parmi vous, chers internautes, ont l’envie de soutenir un traité contre les armes autonomes. Et en fonction du nombre de signatures, on transmettra la pétition à des ONG, aux ministères de la Défense, et tout autre organisme qui ont des moyens d’action plus importants que nous. On souhaite se positionner en temps que relais et profiter de notre modeste visibilité sur le net pour peser un peu dans la balance.

PETITION pour bannir les armes autonomes : http://chng.it/FtQDjdFyrV

Vous avez également la possibilité de vous rendre sur le site https://www.stopkillerrobots.org/ .Vous y trouverez plein d’info sur le sujet, et la possibilité de rejoindre le mouvement, qui est probablement le plus importants à ce jour pour faire pression sur les institutions internationales.

Nous sommes d’ailleurs entré en contact avec eux et ils nous encouragent dans notre tentative de faire pression sur le gouvernement français. La pétition que nous vous invitons à signer sera partagé avec les membres de campaign to stop killer robots, en esperant que ca aide, ne serait ce qu’un petit peu.

Je pense personnellement que ce n’est qu’une question de temps avant qu’un traité international soit établi. Du même type que celui bannissant les armes chimiques et biologiques. Mais il vaut mieux que ça arrive le plus tôt possible, afin de minimiser les risques d’une course à l’armement.

Rate this post
[contenus_similaires]

Rate this post