Le risque posé par des armes contrôlées par l’intelligence artificielle n’est plus à démontrer. Qu’il faille réglementer de telles armes létales ne fait pas de doute. Mais parvenir à un consensus entre les États risque de prendre plusieurs années.
Les réglementations qui existent déjà
La première Convention de Genève remonte à 1864: elle dicte des règles de conduite à adopter en période de conflits armés, et notamment la protection des blessés ou des prisonniers de guerre.
Aujourd’hui, sept textes sont en vigueur, dont les quatre premiers ont été adoptés en 1949. Ils constituent les bases du droit international humanitaire (ou lois sur les conflits armés). Ces traités reprennent les concepts nés au siècle précédent et y ajoutent l’idée de la protection des civils en cas de conflit armé.
En 1980, la Convention sur certaines armes classiques est adoptée. Elle a pour but d’interdire ou de limiter certains types d’armes réputées pour infliger des souffrances inutiles aux combattants ou frapper sans discrimination les civils. Cette convention ouvre ainsi la voie aux réflexions qui vont suivre sur les armes autonomes.
La réglementation actuelle peut-elle encadrer l’IA?
Il n’existe pas de lois spécifiques aux armes autonomes, expliquaient les avocates Christiane Saad et Ewa Gosal dans un texte publié en 2019 sur le site de l’Association du Barreau canadien. Cependant, en principe, les lois déjà en place s’appliquent aussi à ce type d’arme.