Se rappeler que l’intelligence artificielle n’est pas humaine

intelligence artificielle
La tendance à anthropomorphiser la technologie s'accentue. Photo: iStock/cosmin4000
Partagez
Tweetez
Envoyez

Publié 16/03/2024 par Agence Science-Presse

On parle de l’intelligence artificielle avec un «il» ou un «elle», et on utilise des verbes qui laissent croire qu’«elle» vit une émotion. L’erreur est commise par des journalistes, mais aussi par des scientifiques.

Quatre chercheurs de l’Université Stanford, en Californie, ont analysé le contenu de plus de 655 000 publications scientifiques parues entre 2007 et septembre 2023, ainsi que de 14 000 articles journalistiques qui citaient certaines de ces études.

Leur conclusion: on a non seulement tendance à «anthropomorphiser» la technologie — mais en plus, c’est une habitude qui prend plus de place qu’avant. Leur analyse a été prépubliée au début de février sur le serveur ArXiv.

Anthropomorphisme

L’anthropomorphisme renvoie à ce réflexe de prêter à un animal, ou même à un objet, des comportements humains, des émotions, voire des intentions.

Par exemple: dire de l’IA qu’elle «hallucine» plutôt que de dire qu’elle commet des erreurs ou dit des faussetés.

Publicité

La mauvaise habitude serait devenue particulièrement forte avec l’arrivée des agents conversationnels tels que ChatGPT, selon les auteurs, qui ont conçu une méthode de «pointage» pour tenter de le mesurer.

Artificielle, pas supérieure

Et c’est une mauvaise habitude qui n’est pas sans conséquence. Elle conduit à tromper le public sur ce qu’est vraiment l’IA et à surestimer ce que sont ses véritables capacités. Cela peut amener le public à lui faire un peu trop confiance, ou à la voir comme une forme d’intelligence supérieure.

Une éventuelle règlementation devra tenir compte de cette tendance à préjuger de ce qu’est l’IA — et de ce qu’elle n’est pas.

Auteur

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur