ChatGPT est un perroquet générateur de «bullshit»

ChatGPT
ChatGPT ressemblerait davantage à un perroquet qui répète des sons qu'à un humain qui hallucine. Photo: iStock.com/MagicColors
Partagez
Tweetez
Envoyez

Publié 29/08/2024 par Agence Science-Presse

Depuis l’an dernier, les informaticiens disent des applications comme ChatGPT, chaque fois qu’elles disent des faussetés, qu’elles «hallucinent». Un trio de chercheurs écossais propose plutôt comme terme le mot anglais «bullshit».

Dans un texte intitulé ChatGPT is bullshit (connerie, foutaise, sottise, etc.), ces trois professeurs — deux en philosophie et un en sciences sociales — de l’Université de Glasgow rappellent à quel point le terme «hallucinations» introduit une fausse impression, celle d’une «intelligence» qui percevrait le réel à sa façon ou entretiendrait des croyances sur ce qu’est le réel.

Prédire des mots

Or, les agents conversationnels dont on parle tant depuis un an et demi ne fonctionnent pas sur la base de perceptions ou de croyances. Ils ne font que prédire des mots — ou des pixels dans une image — à partir d’une immense base de données.

Ils ne sont pas conscients de ce qui est vrai ou faux. Lorsqu’ils rédigent une réponse fausse, c’est parce que quelque chose dans les probabilités les a conduits à cette «conclusion».

Mais une fausseté reste une fausseté, écrivent les trois auteurs dans leur analyse, publiée le 8 juin par la revue Ethics and Information Technology. «Nous alléguons par conséquent que décrire les fausses représentations des IA comme de la “bullshit” est une façon plus utile et plus exacte de prédire et de discuter des comportements de ces systèmes.»

Publicité

La population de Mars

Ils ne sont pas les premiers à proposer ce terme. Dans une conférence présentée en mars 2023, l’ingénieur Adam Kaczmarek parlait de ChatGPT comme d’un «perroquet générateur de  bullshit».

Et dans un texte d’opinion publié en avril 2023 par la revue de vulgarisation Undark, deux professeurs américains de biologie proposaient eux aussi d’utiliser «bullshit», ou à tout le moins d’abandonner «hallucinations».

Les prétendues hallucinations de ces «larges modèles de langage ne sont pas des pathologies ou des dysfonctionnements: ce sont plutôt les conséquences directes des philosophies et des décisions de conception qui furent derrière la création de ces modèles. ChatGPT n’est pas malade lorsqu’il affirme que la population de Mars est de 2,5 milliards: il se comporte exactement comme il a été conçu.»

Donner l’impression d’être fiable

Et ce n’est pas seulement un débat sémantique. Les mots que nous utilisons ont le pouvoir d’influencer la perception qu’a le public du potentiel de cette technologie, ainsi que la perception des politiciens qui vont devoir tôt ou tard légiférer pour encadrer cette technologie.

Une partie du public est d’ores et déjà prête à croire que ce que produisent les ChatGPT de ce monde constitue une information fiable: un vocabulaire qui tend à les «humaniser» risque de renforcer cette perception.

Publicité

Alors qu’au contraire, rappelle le trio, ces technologies «ne sont tout simplement pas conçues pour représenter avec précision le réel, mais plutôt pour donner l’impression que c’est ce qu’elles font.»

Auteur

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur