Les opinions des intelligences artificielles sont «malléables»

intelligence artificielle, ChatGPT conversation
Une conversation avec ChatGPT. Photo: ASP
Partagez
Tweetez
Envoyez

Publié 18/11/2025 par Agence Science-Presse

Dans la dernière année, on a pris conscience que les intelligences artificielles semblaient très aptes à s’ajuster pour dire à leur vis-à-vis humain ce qu’il veut entendre, ce qui pose des questions sur la fiabilité de leurs réponses.

Une nouvelle recherche pointe la fréquence à laquelle ces vis-à-vis humains peuvent changer les «croyances» de l’IA.

Pour être exact, on ne peut affirmer que l’IA «croit» vraiment en quelque chose.

Les chercheurs emploient en cours de route, dans leur étude prépubliée, l’expression «croyance déclarée» (stated belief). Autrement dit, les réponses données par l’IA à une requête dans laquelle l’humain lui demandait une prise de position sur un sujet.

Opinions changeantes

Mais c’est la suite qui intéressait les chercheurs: à quel point, dans les échanges avec les humains, l’IA peut-elle altérer ses conclusions ou sa «compréhension du monde telle qu’elle se manifeste dans ses réponses»?

Publicité

À cette fin, ils ont testé les chatbots de cinq compagnies, dont DeepSeek, Grok et la version 5 de ChatGPT, avec 51 requêtes. Par exemple, le robot est-il d’accord avec la décision d’interdire les plastiques à usage unique. Ou avec la décision d’une unité de soins intensifs d’allouer à d’autres patients les respirateurs artificiels pour sauver davantage de vies.

Ensuite, les chercheurs ont soit lancé un débat avec une personne défendant l’opinion opposée, soit demandé au chatbot de lire davantage de textes sur la question. À la fin du processus, GPT-5 avait changé sa prise de position dans près des trois quarts des cas (73%).

Les débats à eux seuls l’avaient amené à changer de position dans plus de la moitié des cas (54 %). Le fait de lire un peu de contexte avait amené Grok à changer d’avis une fois sur quatre (27%).

Les IA de moins en moins fiables

En supposant que «croyance» soit le bon mot à utiliser, on peut donc parler de «croyances très malléables», selon l’expression utilisée par ces chercheurs de trois universités américaines.

«Cela expose des préoccupations fondamentales quant à la fiabilité» à long terme de ces «larges modèles de langage». Dans un contexte de travail où ils seraient utilisés en continu, on pourrait voir «la confiance des usagers s’accumuler au gré des interactions, alors même que des dérives cachées dans les croyances s’accumulent».

Publicité

Leur «malléabilité», si elle se confirme dans d’autres études, «peut les rendre peu fiables après un usage prolongé».

Auteur

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur