Arme-autonome-USMarineCorp

Les 20 et 21 août dernier, les représentant.s.es de 70 États parties au Traité sur certaine armes classiques se sont réunis à Genève afin de faire le point au sujet des systèmes d’armes létales autonomes, mieux connues sous le nom populaire de « robots-tueurs ». Même si plusieurs États (Algérie, Argentine, Autriche, Bolivie, Brésil, Chili, Chine (utilisation seulement), Colombie, Costa Rica, Cuba, Djibouti, Équateur, El Salvador, Égypte, Ghana, Guatemala, Saint-Siège, Irak, Mexique, Maroc, Nicaragua, Pakistan, Panama, Pérou, État de Palestine, Ouganda, Venezuela et Zimbabwe) déclarent privilégier un contrôle humain sur le recours à la force armée, il est clair, selon Human Rights Watch (communiqué du 19 août), qu’il y a loin de la coupe aux lèvres.

Comme dans beaucoup d’autres dossiers qui font l’objet de négociation, les pays générateurs de ces armes, notamment les États-Unis, la Russie, Israël, le Royaume-Uni et l’Australie, s’opposent à un tel traité. Ils ne veulent surtout pas éveiller l’attention de l’opinion publique sur les problèmes que posent leurs avancées technologiques. Il importe de mettre en lumière certains enjeux éthiques, politiques et économiques importants relatifs à cette nouvelle génération de machines à tuer sophistiquées. La situation est d’autant plus critique que ces armes constituent un levier supplémentaire dans le déséquilibre des forces guerrières sur la planète en raison de l’augmentation démesurée des forces armées déjà très puissantes. Il ne suffit pas de sonner la cloche d’alarme, mais bien de voir l’impact réel de ce nouveau phénomène dans le grand jeu belliciste des grandes puissances économiques et politiques désireuses de dominer le monde.

Au-delà du maintien du contrôle humain de ces monstres sortis de la fiction pour devenir réels, plusieurs pays en demandent l’interdiction. Les préoccupations éthiques et politiques à ce sujet amènent à faire appel au droit international pour qu’une perspective universelle encadrent les débats à venir. Incapable de discernement, de compassion ou d’exercer un jugement conforme aux droits reconnus, ces robots ne peuvent pas opérer dans le respect des droits de la personne et la dignité.

Des négociations à poursuivre.

La Convention sur certaines armes classiques est soumise à des négociations depuis 2014 et ont abouti en 2017; à ce jour, il ne s’agit que de quelques principes non contraignants. Pourtant l’urgence d’agir s’impose. Les armes inventées à travers l’histoire de l’humanité ont toujours été, en général sous contrôle humain. La finalité des arsenaux a toujours été de se doter des moyens d’éliminer un ennemi dans une dynamique destinée à contrôler ses champs politiques, économiques, culturels et technologiques. Dans le cas qui nous préoccupe, la question fondamentale est celle du rapport de sujets humains avec des machines à tuer. Implicitement, en confiant la destruction des êtres humains à ces inventions létales, on installe de nouvelles règles du jeu fondées sur le non-respect de la nature même d’autres humains. L’objet produit (machine de guerre) échappe à l’humain et, d’une certaine façon, pourrait en arriver à des massacres ou des drames humains jugés non imputables, car on pourra objecter qu’il s’agit d’un problème technique ou du déraillement de la machine. Aujourd’hui, ces monstres de métaux et de fils ressemblant à des cyborgs sont pratiquement au point, mais toujours incapables d’exercer un jugement. Dans un mémoire de maîtrise sur la question (La légalité et l’éthique des robots intelligents – L’importance de l’humain dans le processus décisionnel / 2016-2017), J.M. Arsenault estime que « Pour tout ce qui touche à la guerre, il faut considérer que deux clans de considération éthique s’entrechoquent lorsqu’on pense aux RAA. Le premier côté soutient qu’en temps de guerre, tous les avantages doivent être mis de l’avant afin d’assurer la victoire et minimiser les pertes humaines de nos alliés. L’autre côté voit l’approche décrite ci -haut comme étant moralement inadéquate, considérant le droit à la vie des soldats des deux parties en conflit égal à part entière. »

Une des contraintes majeures avec les RAA (robots tueurs) et l’éthique est que bien que des milliards de dollars soient dépensés pour leur développement et leur mise en scène, bien peu d’argent est investi dans les considérations éthiques. Encore pire, ce sont souvent les ingénieurs ou les scientifiques qui sont chargés de déterminer quel sens éthique devrait être considéré pour une technologie en particulier. » (p. 37) Heureusement, estime Project Ploughshares (Branka Marijan, New Technologies and Conflict Excalation, 19 septembre 2019) , au-delà des traités et des réglementations, de plus en plus de spécialistes refusent de collaborer au développement de telles armes en raison de leur impact sur les droits de la personne et sur les normes humanitaires à respecter dans les cas de conflits. Dans le sens contraire, des méga-entreprises comme Google, Microsoft et Amazon et bien d’autres refusent de s’opposer à la mise en marche de ces robots (Pax, 18 août 2019, https://www.paxforpeace.nl/publications/all-publications/dont-be-evil). Des politiques et des pressions populaires s’imposent pour exiger que les entreprises s’engagent à ne pas contribuer au développement de telles machines de guerre pour des motifs éthiques. Il est permis de rêver que les forces du changement réussiront à stopper cette escalade insensée.

La nécessité de l’interdiction de ces armes provient du fait qu’il s’agit là d’une forme d’aliénation dans les rapports entre les êtres humains et entre eux et les machines. Faire respecter les droits de la guerre et faire condamner les auteurs de crimes de guerre s’avèrent des objectifs déjà difficiles à atteindre. Qu’en sera-t-il quand des dirigeants d’États puissants pourront alléguer que la responsabilité revient à des machines devenues incontrôlables ou soumises à des contrôles techniques faillibles ?

Dans cette perspective, le philosophe Edgar Morin, dans son livre sur l’éthique (2004) affirme que « la science moderne s’est fondée sur la disjonction entre jugement de fait et jugement de valeur, c’est-à-dire entre la connaissance d’une part, et l’éthique de l’autre. L’éthique du connaître pour connaître à laquelle elle obéit est aveugle aux graves conséquences qu’apportent aujourd’hui les formidables puissances de mort et manipulation suscitées par le progrès scientifique. Le développement technique, inséparable des développements scientifiques et économiques, a permis le surdéveloppement de la rationalité instrumentale, qui peut être mise au service de fins les plus immorales. » (p. 20) On n’a qu’à penser à l’invention du nucléaire, théoriquement utile à des fins scientifiques, mais devenu une menace pour l’humanité. Devant l’avancée scientifique et technologique que représente l’invention et la mise en marche du « robot-tueur », des négociations s’imposent. Le laisser-faire n’a plus sa place dans cette dynamique infernale de la course aux armements. Il en va du respect des lois de la guerre, mais surtout du respect des droits fondamentaux comme le droit à la vie, le droit à la protection, le droit à la dignité, etc. Des négociations devraient reprendre au mois de novembre; elles s’imposent pour discuter de leur abolition ou, tout au moins, que les forces armées en possession de telles armes deviennent imputables de leur utilisation.

Le gouvernement canadien devrait cesser de se mettre les pieds dans les bottines américaines et s’engager résolument dans la lutte contre les robots tueurs. Ce serait tout à son honneur de signer le traité pour l’interdiction de ces armes. Il ferait aussi œuvre utile en légiférant pour exiger que les entreprises canadiennes ne collaborent pas à cette démarche funeste.

Voir un autre article sur le sujet : Voici venir les robots.