Missile-hypersonique-1068x580

Missile hypersonique

Le dernier rapport de la Arms Control Association révèle que si les nouvelles technologies – missiles, intelligence artificielle, robots tueurs et armes autonomes – ont la faveur des autorités militaires, celles-ci n’accordent que peu d’importance aux risques qui y sont liés inexorablement. Le rapport, intitulé Assessing the Dangers: Emerging Military Technologies and Nuclear (In)Stability (Évaluation des dangers : les technologies militaires émergentes et (in)stabilité nucléaire), déplore le fait que les décideurs militaires passent sous silence l’augmentation des risques associés à ces technologies, qui est directement liée à l’escalade technologique. Autrement dit, si un missile hypersonique va plus loin plus vite et possède la capacité de décider où il va tomber, le nombre de possibilités d’erreurs techniques et humaines croit au même rythme que les avancées technologiques.

Le rapport note que les puissances militaires veulent s’approprier un avantage sur les champs de bataille en utilisant l’IA, l’informatique et l’hypersonique, entre autres, rien n’est dit sur les nouveaux risques qui y sont associés. « Certains responsables affirment que l’art de la guerre sera révolutionné par ces technologies, mettant au rancart les armes et les stratégies classiques. Mais il faut que les politiciens, journalistes, éducateurs et membres de la société civile réalisent l’ampleur des risques, alors que les gouvernements vont décider de militariser la technologie ».

De tels systèmes, tels que définis par la Campaign to Stop Killer Robots comme des « systèmes autonomes qui opèrent indépendamment d’un contrôle humain » sont en cours de développement un peu partout : Chine, Israël, Russie, Corée du Sud, Royaume-Uni, États-Unis. L’Air Force américaine, par exemple, teste le système Skyborg, qui permet de coordonner de façon automatique les actions de plusieurs drones en même temps pour attaquer en essaim, sans intervention humaine.

Le déploiement de ces technologies peut sembler souhaitable aux militaires, mais il alarme les diplomates, activistes et tous ceux qui oeuvrent au contrôle des armes. Déployer des armes autonomes équivaut à une baisse de la supervision humaine, et donc la disparition des garde-fous qui nous protègent contre les dérapages et l’escalade du conventionnel vers le nucléaire.

Ceux et celles qui travaillent en technologie ou en informatique savent très bien que les erreurs techniques sont inévitables et que le système parfait n’existe pas. La question n’est pas de savoir si une erreur surviendra, mais plutôt quand elle surviendra.

La deuxième moitié du 20e siècle a été le théâtre de nombreuses fausses alertes nucléaires, suite à des erreurs d’interprétation ou carrément des fiascos technologiques. Il est de bon ton de prétendre que les technologies comme l’IA éliminent les risques d’erreur humaine, mais les recherches tendent à démontrer que ces affirmations peuvent nous entrainer dans un aveuglement volontaire.

Selon un rapport de la corporation Rand de 2018, « trop se fier à l’IA mène vers une nouvelle catégorie de catastrophiques erreurs, à commencer par la tentation de s’en servir avant qu’elle ne soit parvenue à maturité; ou bien on pourrait penser que l’IA est plus performante qu’elle ne l’est en réalité, ce qui créerait des situations sans issue ».

En 2020, le Pentagone a adopté cinq principes de base pour un usage « éthique » de l’IA, mais de nombreux éthiciens se rejoignent pour dire que la seule voie vraiment sécuritaire est l’élimination totale des armes létales autonomes.