L’IA devient-elle plus humaine? Chose certaine, elle semble imiter les humains sur un aspect qui fait douter de son utilité: une confiance disproportionnée en ses capacités à distinguer le vrai du faux.
Depuis l’arrivée avec fracas, il y a deux ans et demi, des ChatGPT et autres «IA génératives», leur tendance à répondre par des faussetés, voire par des informations complètement inventées, a plusieurs fois été quantifiée.
Probabilités
Dans l’absolu, la cause de ces erreurs réside dans le fait que toutes ces applications «raisonnent» en termes de probabilités. Lorsqu’elles écrivent un texte ou créent une image, elles calculent quel est le mot ou le pixel dont la probabilité est la plus élevée.
Par conséquent, si leur base de données contient des informations erronées, il est inévitable qu’elles fournissent des informations erronées.
Mais cela n’explique pas que, dans bien des circonstances, elles inventent carrément une information qui ne s’y trouvait pas — un livre qu’un auteur n’a jamais écrit, un jugement qu’un tribunal n’a jamais rendu, etc. Qu’est-ce qui peut l’expliquer?