Réglementer les usages militaires de l’intelligence artificielle?

intelligence artificielle, IA, armes autonomes
Un prototype de véhicule autonome de combat: le ROBUST, Robotic Autonomous Sensé and Strike. Photo: ministère de la Défense d'Israël
Partagez
Tweetez
Envoyez

Publié 23/01/2024 par Kathleen Couillard

Le risque posé par des armes contrôlées par l’intelligence artificielle n’est plus à démontrer. Qu’il faille réglementer de telles armes létales ne fait pas de doute. Mais parvenir à un consensus entre les États risque de prendre plusieurs années.

Les réglementations qui existent déjà

La première Convention de Genève remonte à 1864: elle dicte des règles de conduite à adopter en période de conflits armés, et notamment la protection des blessés ou des prisonniers de guerre.

Aujourd’hui, sept textes sont en vigueur, dont les quatre premiers ont été adoptés en 1949. Ils constituent les bases du droit international humanitaire (ou lois sur les conflits armés). Ces traités reprennent les concepts nés au siècle précédent et y ajoutent l’idée de la protection des civils en cas de conflit armé.

En 1980, la Convention sur certaines armes classiques est adoptée. Elle a pour but d’interdire ou de limiter certains types d’armes réputées pour infliger des souffrances inutiles aux combattants ou frapper sans discrimination les civils. Cette convention ouvre ainsi la voie aux réflexions qui vont suivre sur les armes autonomes.

Haïti
La salle du Conseil de sécurité de l’ONU. Photo: Nations Unies

La réglementation actuelle peut-elle encadrer l’IA?

Il n’existe pas de lois spécifiques aux armes autonomes, expliquaient les avocates Christiane Saad et Ewa Gosal dans un texte publié en 2019 sur le site de l’Association du Barreau canadien. Cependant, en principe, les lois déjà en place s’appliquent aussi à ce type d’arme.

Publicité

Par exemple, selon le droit humanitaire international, la force ne peut être utilisée qu’en situation de légitime défense, en dernier recours et de façon proportionnée à la menace.

De plus, les opérations doivent être dirigées uniquement contre les combattants et les installations militaires, tout en évitant de s’en prendre à des soldats qui ne sont plus en mesure de se battre.

L’IA manque de jugement et d’empathie

En pratique toutefois, l’application de ces règles à des systèmes d’armes létales autonomes comporte plusieurs défis, relevait dès 2015 Human Rights Watch, une organisation non gouvernementale internationale qui se donne pour mission de défendre les droits humains et le respect de la Déclaration universelle des droits de l’homme.

C’est que les armes autonomes n’ont ni le jugement d’un être humain ni l’empathie nécessaire pour se conformer à ces règles.

Et un autre problème soulevé par Human Rights Watch est l’imputabilité. Qui doit être tenu responsable d’une tuerie de civils par une arme autonome? Il serait difficile de prouver la responsabilité des manufacturiers, des opérateurs ou de leurs supérieurs hiérarchiques, puisqu’il faudrait démontrer qu’ils connaissaient à l’avance les conséquences de l’action.

Publicité

Les États ont-ils pris position?

Dans un article publié en 2017, un professeur de relations internationales et un spécialiste de l’intelligence artificielle soulignaient que tous les pays sont d’accord sur le fait que l’utilisation de telles armes doit être conforme aux lois sur les conflits armés.

Mais dans les faits, alors que certains veulent limiter dès maintenant le développement des armes létales autonomes, d’autres préconisent plutôt d’attendre et de réglementer au fur et à mesure que la technologie se développera.

Par exemple, dans un article publié en décembre 2020, des chercheurs américains écrivaient que les États-Unis, le Royaume-Uni, la Russie et la Turquie, s’opposaient à toute interdiction des armes létales autonomes, parce qu’ils jugeaient cette mesure prématurée.

Moins de «dommages collatéraux»?

Les lois existantes seraient donc suffisantes. Les États-Unis vont jusqu’à dire que les systèmes d’armes létales autonomes permettraient de mieux respecter les lois existantes, puisque leur précision limiterait les «dommages collatéraux».

Au contraire, une trentaine d’États incluant le Pakistan, l’Argentine, l’Autriche, le Brésil, le Maroc et la Nouvelle-Zélande, croient qu’il faut interdire les armes létales autonomes de façon préventive, selon une compilation publiée en 2023 par une chercheuse du Centre pour la science et les affaires internationales de l’Université Harvard.

Publicité

Certains pays ont une position intermédiaire. Par exemple, la Chine propose d’autoriser uniquement les armes défensives.

intelligence artificielle, IA, armes autonomes
Un canon sentinelle autonome anti-aérien, notamment anti-drones. Photo: ministère de la défense de la Pologne

Appels internationaux à des balises

Déjà en 2013, plus de 270 scientifiques de 37 pays exigeaient l’interdiction des robots tueurs. La même année, le rapporteur spécial de l’ONU, Christof Heyns, recommandait aux États d’établir un moratoire sur les armes robotiques autonomes.

Au cours de la même décennie, un groupe d’experts gouvernementaux (GGE) a été mis en place pour étudier les enjeux associés aux systèmes d’armes létales autonomes. Il a adopté en 2019 onze principes devant guider leur développement et leur utilisation.

En 2023, le Secrétaire général des Nations Unies a recommandé aux États de créer d’ici 2026 un instrument juridiquement contraignant pour interdire les armes qui fonctionnent sans le contrôle d’un être humain et dont l’utilisation ne permet pas de respecter le droit international.

Par la suite, en novembre 2023, une résolution a été adoptée à l’assemblée générale des Nations unies par 164 pays. Celle-ci insiste sur l’urgence de réfléchir aux risques soulevés par ces armes et demande au Secrétaire général de recueillir les points de vue des États et des organisations internationales comme la Croix-Rouge, en plus de la communauté scientifique et de l’industrie.

Publicité

Avantages stratégiques

Une telle résolution n’est toutefois pas contraignante et n’a pas la valeur qu’aurait une véritable réglementation, nationale ou internationale. Plusieurs obstacles continuent de ralentir l’adoption d’une telle entente.

D’abord, lorsqu’il est question «d’armes autonomes», le concept «d’autonomie» n’est pas clairement défini. Cette absence de compréhension commune est un obstacle en soi, observaient les chercheurs américains qui, en 2020, s’étaient penchés sur les défis auxquels faisait face toute velléité de réglementation.

Par ailleurs, ajoutaient ces chercheurs, ceux qui s’y opposent le plus sont les États qui sont eux-mêmes de grandes puissances militaires. Historiquement, ces pays se sont montrés réticents à limiter l’utilisation d’armes qu’ils jugeaient efficaces et qui leur procuraient un avantage.

Et ces pays ne veulent pas limiter leur utilisation des armes autonomes si leurs adversaires n’en font pas de même.

On veut que les investissements rapportent

De plus, selon la chercheuse de l’Université Harvard, plusieurs États ont déjà beaucoup investi dans la recherche et le développement des armes létales autonomes. Cela les rend moins enclins à vouloir les interdire complètement.

Publicité

En fait, l’Histoire tend à montrer que les puissances militaires acceptent plus facilement de réguler des armes qui constituent une menace à leur position sur l’échiquier international.

Par conséquent, si les États voyous et les groupes armés non gouvernementaux mettaient la main sur des armes létales autonomes, cela pourrait devenir un incitatif à réglementer plus rapidement.

Auteurs

  • Kathleen Couillard

    Journaliste à l'Agence Science-Presse, média indépendant, à but non lucratif, basé à Montréal. La seule agence de presse scientifique au Canada et la seule de toute la francophonie qui s'adresse aux grands médias plutôt qu'aux entreprises.

  • Agence Science-Presse

    Média à but non lucratif basé à Montréal. La seule agence de presse scientifique au Canada.

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur