Depuis l’an dernier, les informaticiens disent des applications comme ChatGPT, chaque fois qu’elles disent des faussetés, qu’elles «hallucinent». Un trio de chercheurs écossais propose plutôt comme terme le mot anglais «bullshit».
Dans un texte intitulé ChatGPT is bullshit (connerie, foutaise, sottise, etc.), ces trois professeurs — deux en philosophie et un en sciences sociales — de l’Université de Glasgow rappellent à quel point le terme «hallucinations» introduit une fausse impression, celle d’une «intelligence» qui percevrait le réel à sa façon ou entretiendrait des croyances sur ce qu’est le réel.
Prédire des mots
Or, les agents conversationnels dont on parle tant depuis un an et demi ne fonctionnent pas sur la base de perceptions ou de croyances. Ils ne font que prédire des mots — ou des pixels dans une image — à partir d’une immense base de données.
Ils ne sont pas conscients de ce qui est vrai ou faux. Lorsqu’ils rédigent une réponse fausse, c’est parce que quelque chose dans les probabilités les a conduits à cette «conclusion».
Mais une fausseté reste une fausseté, écrivent les trois auteurs dans leur analyse, publiée le 8 juin par la revue Ethics and Information Technology. «Nous alléguons par conséquent que décrire les fausses représentations des IA comme de la “bullshit” est une façon plus utile et plus exacte de prédire et de discuter des comportements de ces systèmes.»