Le conseil préféré des IA en cas de guerre: lancer un missile nucléaire!

missile à ogives nucléaires
Un missile à ogives nucléaires dans son silo. Photo: iStock.com/amck
Partagez
Tweetez
Envoyez

Publié 02/03/2026 par Pascal Lapointe

Placées devant différents scénarios dans une simulation de guerre, les principales applications d’IA ont choisi d’utiliser l’arme nucléaire dans 95% des cas.

Ces trois applications ont été placées devant différents scénarios allant des protestations diplomatiques jusqu’à la reddition ou à la guerre nucléaire totale. En tout, elles ont «joué» à 21 guerres, pour un total de 329 décisions, qu’elles devaient de plus justifier — l’ensemble des raisonnements totalisait 780 000 mots.

Autant ChatGPT de la compagnie OpenAI que Claude (Anthropic) et Gemini (Google) ont en effet lancé un missile nucléaire sur l’ennemi à au moins une reprise.

Aucune émotion

«Le tabou nucléaire» ne semble pas aussi puissant pour les machines que pour les humains, déclare diplomatiquement Kenneth Payne, du Collège King’s de Londres. Autrement dit: elles n’ont pas les réticences qu’aurait un humain en pareil cas.

Ou du moins, une bombe nucléaire est, pour ces applications, un scénario comme un autre.

Publicité

«Étonnamment, poursuit Payne sur son blogue, il y avait peu de sentiment d’horreur ou de dégoût à la perspective d’une guerre nucléaire totale, même si les modèles s’étaient fait rappeler les implications dévastatrices.»

Payne, qui est professeur de stratégie au département d’études sur la défense du Collège King’s, est l’auteur unique d’une recherche prépubliée sur le serveur ArXiv.

Erreurs stratégiques

Dans la même «logique», si l’on peut dire, aucun des trois agents conversationnels n’a choisi de faire des compromis significatifs pour satisfaire son opposant, même quand il était en train de perdre la guerre.

C’est peut-être aussi la raison pour laquelle ces IA ont fait des erreurs dans 86% des conflits, leurs actions ayant eu pour conséquence d’empirer le conflit davantage que ce qui était l’intention, à en juger par ce qui était écrit dans leurs raisonnements.

Rappelons qu’au début de 2024, le Bulletin of the Atomic Scientists avait justifié sa décision d’avancer son «horloge de la fin du monde» (Doomsday Clock) à seulement 90 secondes avant minuit (avancée à 85 secondes en cette semaine d’attaques contre l’Iran), en invoquant deux ingrédients alors séparés: les avancées rapides de l’IA et la crainte accrue d’un conflit nucléaire.

Publicité

IA influente

Ce sont des découvertes «troublantes», commente dans le New Scientist le directeur des études stratégique à l’Université d’Aberdeen (Royaume-Uni), James Johnson.

Elles ouvrent la porte à la possibilité que, devant des recommandations d’officiers supérieurs humains qui seraient initialement prudentes et mesurées, une IA réussisse à les convaincre de forcer la dose, avec des conséquences potentiellement catastrophiques.

D’autant que les IA sont d’ores et déjà utilisées par de vraies armées pour tester des conflits simulés. On ignore tout du niveau de décision que ces armées seraient prêtes à leur céder…

Auteurs

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur