
Missile hypersonique
Le rapport note que les puissances militaires veulent s’approprier un avantage sur les champs de bataille en utilisant l’IA, l’informatique et l’hypersonique, entre autres, rien n’est dit sur les nouveaux risques qui y sont associés. « Certains responsables affirment que l’art de la guerre sera révolutionné par ces technologies, mettant au rancart les armes et les stratégies classiques. Mais il faut que les politiciens, journalistes, éducateurs et membres de la société civile réalisent l’ampleur des risques, alors que les gouvernements vont décider de militariser la technologie ».
De tels systèmes, tels que définis par la Campaign to Stop Killer Robots comme des « systèmes autonomes qui opèrent indépendamment d’un contrôle humain » sont en cours de développement un peu partout : Chine, Israël, Russie, Corée du Sud, Royaume-Uni, États-Unis. L’Air Force américaine, par exemple, teste le système Skyborg, qui permet de coordonner de façon automatique les actions de plusieurs drones en même temps pour attaquer en essaim, sans intervention humaine.
Le déploiement de ces technologies peut sembler souhaitable aux militaires, mais il alarme les diplomates, activistes et tous ceux qui oeuvrent au contrôle des armes. Déployer des armes autonomes équivaut à une baisse de la supervision humaine, et donc la disparition des garde-fous qui nous protègent contre les dérapages et l’escalade du conventionnel vers le nucléaire.
Ceux et celles qui travaillent en technologie ou en informatique savent très bien que les erreurs techniques sont inévitables et que le système parfait n’existe pas. La question n’est pas de savoir si une erreur surviendra, mais plutôt quand elle surviendra.
La deuxième moitié du 20e siècle a été le théâtre de nombreuses fausses alertes nucléaires, suite à des erreurs d’interprétation ou carrément des fiascos technologiques. Il est de bon ton de prétendre que les technologies comme l’IA éliminent les risques d’erreur humaine, mais les recherches tendent à démontrer que ces affirmations peuvent nous entrainer dans un aveuglement volontaire.
Selon un rapport de la corporation Rand de 2018, « trop se fier à l’IA mène vers une nouvelle catégorie de catastrophiques erreurs, à commencer par la tentation de s’en servir avant qu’elle ne soit parvenue à maturité; ou bien on pourrait penser que l’IA est plus performante qu’elle ne l’est en réalité, ce qui créerait des situations sans issue ».
En 2020, le Pentagone a adopté cinq principes de base pour un usage « éthique » de l’IA, mais de nombreux éthiciens se rejoignent pour dire que la seule voie vraiment sécuritaire est l’élimination totale des armes létales autonomes.
Aucun commentaire jusqu'à présent.