Dans la dernière année, on a pris conscience que les intelligences artificielles semblaient très aptes à s’ajuster pour dire à leur vis-à-vis humain ce qu’il veut entendre, ce qui pose des questions sur la fiabilité de leurs réponses.
Une nouvelle recherche pointe la fréquence à laquelle ces vis-à-vis humains peuvent changer les «croyances» de l’IA.
Pour être exact, on ne peut affirmer que l’IA «croit» vraiment en quelque chose.
Les chercheurs emploient en cours de route, dans leur étude prépubliée, l’expression «croyance déclarée» (stated belief). Autrement dit, les réponses données par l’IA à une requête dans laquelle l’humain lui demandait une prise de position sur un sujet.
Opinions changeantes
Mais c’est la suite qui intéressait les chercheurs: à quel point, dans les échanges avec les humains, l’IA peut-elle altérer ses conclusions ou sa «compréhension du monde telle qu’elle se manifeste dans ses réponses»?


