Ces derniers mois, les exemples de robots conversationnels qui ont fourni des fausses informations se sont multipliés. D’abord décrites comme des «hallucinations», ces erreurs révèlent une faille beaucoup plus fondamentale de l’intelligence artificielle. Cela va concerner tous les détecteurs de rumeurs et de fausses nouvelles de ce monde.
Ces robots qui hallucinent
Ces exemples de dérapages sont nombreux et variés:
- Le cas le plus célèbre est celui de cet avocat de New York qui, en choisissant de s’en remettre à un robot conversationnel pour sa recherche, a soumis au juge des exemples de jugements qui n’existaient pas. Le juge n’a pas apprécié.
- Un exemple plus pointu est celui de ce chercheur en mathématiques qui a demandé au robot de lui trouver des références relatives à un problème et qui s’est retrouvé avec des références fictives.
- Des chercheurs ont confirmé en mai ce que plusieurs observateurs avaient déjà rapporté: le robot peut, au fil d’une même conversation, se contredire lui-même.
- Au Canada, plusieurs journalistes qui ont testé ces agents conversationnels ont noté des références fictives relatives aux biographies de vedettes.
Depuis le début de l’année, autant les concepteurs du ChatGPT de la compagnie californienne OpenAI que ceux du Bing de Microsoft ou du Bard de Google, ont tous admis que leurs créations avaient cette propension à dire des faussetés. Ou, dans le langage des informaticiens, à «halluciner».
Prédicteurs de mots
Et la raison n’est pas du tout mystérieuse: ces robots sont avant toute chose des prédicteurs de mots. Cela signifie qu’à partir de leur immense base de données, ils peuvent prédire en une fraction de seconde la séquence de mots la plus probable. Cela leur permet, dans la plupart des cas, de viser juste, mais ils ne «comprennent» pas ce qu’est une vérité ou une fausseté: ils fonctionnent uniquement en terme de probabilités.
Dans une étude pré-publiée en mars par les chercheurs de Microsoft eux-mêmes —pour accompagner la sortie de la nouvelle version du robot— on pouvait lire que celui-ci avait «de la difficulté à savoir quand il devrait être confiant et quand il devrait juste deviner».