On parle de l’intelligence artificielle avec un «il» ou un «elle», et on utilise des verbes qui laissent croire qu’«elle» vit une émotion. L’erreur est commise par des journalistes, mais aussi par des scientifiques.
Quatre chercheurs de l’Université Stanford, en Californie, ont analysé le contenu de plus de 655 000 publications scientifiques parues entre 2007 et septembre 2023, ainsi que de 14 000 articles journalistiques qui citaient certaines de ces études.
Leur conclusion: on a non seulement tendance à «anthropomorphiser» la technologie — mais en plus, c’est une habitude qui prend plus de place qu’avant. Leur analyse a été prépubliée au début de février sur le serveur ArXiv.
Anthropomorphisme
L’anthropomorphisme renvoie à ce réflexe de prêter à un animal, ou même à un objet, des comportements humains, des émotions, voire des intentions.
Par exemple: dire de l’IA qu’elle «hallucine» plutôt que de dire qu’elle commet des erreurs ou dit des faussetés.