En théorie, utiliser l’intelligence artificielle sur le champ de bataille devrait signifier un ciblage de précision: moins de victimes civiles résultant d’erreurs. Or, «il n’y a aucune preuve que l’IA diminue le nombre de décès civils ou de mauvaises cibles», résumait la revue scientifique britannique Nature, dans un reportage sur les armes autonomes paru quelques jours après le début des bombardements en Iran.
La question n’est pas seulement technologique, elle est devenue politique avec la querelle entourant à la fin du mois de février la décision du ministère de la Défense des États-Unis de couper court à toute relation avec la compagnie Anthropic, après que celle-ci eut évoqué deux conditions pour l’utilisation de son IA générative, Claude.
L’une étant le refus qu’elle soit utilisée pour alimenter des «armes létales autonomes» ou «robots tueurs».
Éloigner les humains des décisions
Mais la question est également sémantique. Appliqué à des bombes ou à des missiles, le terme «armes autonomes» réfère au fait que des humains pourraient éventuellement ne pas avoir besoin d’être impliqués dans le processus décisionnel.
C’est la somme d’informations recueillies au fil du temps — des données de géolocalisation de téléphones jusqu’aux images recueillies par des satellites, par des drones ou par des gens sur le terrain — qui permettrait à la bombe de déterminer quelle personne ou quel bâtiment elle doit viser.


