Le vocabulaire qui donne l’illusion que l’IA est humain

IA, intelligence artificielle
Le vocabulaire que nous utilisons pour décrire l’IA peut renforcer l’impression qu'elle a des caractéristiques humaines. Photo: iStock/ArtemisDiana
Partagez
Tweetez
Envoyez

Publié 12/05/2023 à 16h34 par Kathleen Couillard

Lorsque les médias parlent de l’agent conversationnel ChatGPT, ils lui prêtent souvent des caractéristiques humaines, comme des intentions ou des émotions. Jusqu’à quel point le simple choix des mots peut-il donner cette illusion?

L’essor des agents conversationnels

Les agents conversationnels, ou chatbots, se sont beaucoup développés ces dernières années grâce à l’essor d’une nouvelle branche de l’intelligence artificielle, le traitement du langage naturel.

Comme l’expliquait l’an dernier la Harvard Business Review, cette technologie repose entre autres sur l’utilisation des statistiques pour prédire le prochain mot d’une phrase, en se basant sur les mots précédents.

Cette approche est la même que celle qui nous suggère des mots lors de la rédaction d’un courriel ou d’un message texte.

Imiter des conversations humaines

Mais si les agents conversationnels tentent de prédire le prochain mot, c’est parce qu’ils ont avant tout pour fonction d’imiter des conversations humaines.

l-express.ca remercie ses partenaires. En devenir.

C’est ce que soulignent des scientifiques des Pays-Bas qui ont réalisé une revue de la littérature sur le sujet. Et plus ils y parviennent, plus il peut être tentant de prêter à ces logiciels des caractéristiques humaines comme des émotions, des intentions ou des comportements: un phénomène appelé anthropomorphisme.

Selon des chercheurs allemands qui ont exploré ce sujet en 2021, l’anthropomorphisme permet aux utilisateurs de se sentir plus en contrôle face à une nouvelle technologie, puisqu’ils lui prêtent des caractéristiques qu’ils connaissent bien.

En fait, des scientifiques qui avaient publié un article sur l’anthropomorphisme et l’IA en 2020 proposaient que la tendance à représenter l’IA avec des traits humains reflétait la compréhension limitée du grand public face à cette technologie.

Les mots pour décrire l’IA dans les médias

En 2020, deux chercheurs britanniques ont analysé le discours des médias au sujet des logiciels utilisant l’IA dans le réseau de la santé.

Ils ont observé que cette tendance à humaniser l’IA s’est accentuée dans les dernières années.

l-express.ca remercie ses partenaires. En devenir.

Plusieurs médias prêtent des intentions à l’IA ou sous-entendent que cette technologie surpasse l’expertise des professionnels de la santé et pourrait même prendre leur place.

Le phénomène serait particulièrement présent dans les médias financiers. Par exemple, un article du Wall Street Journal titrait «Le Docteur IA vous verra maintenant» (The AI doctor will see you now).

Anthropomorphisme

En 2021, des chercheurs de l’Afrique du Sud se sont penchés sur la façon de présenter l’IA dans des journaux en ligne du pays. Sur 126 articles analysés, seulement 19 n’utilisaient pas d’expressions anthropomorphiques.

Ainsi, dans un article, on écrivait que «les machines, tout comme les humains, font preuve de discrimination à l’endroit des minorités ethniques et des personnes pauvres».

Les auteurs de l’étude écrivaient qu’en s’exprimant de cette façon, les journalistes prêtaient à l’IA des intentions morales.

l-express.ca remercie ses partenaires. En devenir.

Chatbot raciste

Des chercheurs de Liverpool qui s’intéressent aux dangers des descriptions anthropomorphiques donnaient également, en 2019, l’exemple d’un chatbot qui «aurait appris à produire des tweets racistes».

En fait, écrivaient-ils, il serait plus juste de dire «qu’il n’a pas été développé de façon à filtrer les contenus racistes».

Selon la directrice de la recherche du Poynter Institute, une école de journalisme de la Floride, les journalistes ne devraient pas utiliser des mots comme «apprendre», «argumenter» ou même «écrire» lorsqu’il est question d’IA.

En effet, ces termes font normalement référence à des activités typiquement humaines et exagèrent donc les capacités de l’intelligence artificielle : ce que l’on appelle de l’anthropomorphisme. Ils contribuent ainsi à une mauvaise compréhension de cette technologie.

Les mots pour décrire l’IA chez les informaticiens

Ce texte du Poynter Institute paru en février dernier remarque toutefois que les informaticiens eux-mêmes ont tendance à utiliser ce genre d’expressions pour décrire leurs travaux.

l-express.ca remercie ses partenaires. En devenir.

D’ailleurs, sur le site d’OpenAI, la firme où a été créé ChatGPT, on peut lire que l’application a certaines limites… que l’on décrit comme «des biais sociaux et des hallucinations».

L’auteure du Poynter Institute suggère aux chercheurs de privilégier des termes comme «exploration de données» ou «optimisation statistique» plutôt qu’«apprentissage automatique» ou «intelligence», qui portent à confusion.

La Raspberry Pi Foundation, une organisation cherchant à outiller les jeunes en lien avec l’informatique, propose aux programmeurs, dans un texte paru le 13 avril, d’éviter des termes comme  l’IA écoute» ou «l’IA comprend».

Elle recommande de leur préférer des expressions comme «l’IA reçoit un signal» ou «l’IA traite l’information». La fondation suggère également de remplacer des expressions comme «l’IA apprend» ou «l’IA fait» par «les applications d’IA sont développées pour…» ou «les développeurs qui travaillent dans le domaine de l’IA développent des applications qui…»

Selon l’organisation, ces précautions évitent d’anthropormophiser l’IA et d’ajouter à l’incompréhension du public quant aux possibilités de cette technologie.

l-express.ca remercie ses partenaires. En devenir.

Les mots utilisés par l’IA

Il faut toutefois se rappeler que c’est volontairement que la conception des agents conversationnels donne l’impression que ceux-ci sont «presque humains».

Des études réalisées au Minnesota, en Australie et aux Pays-Bas, ont montré que les chatbots qui passent pour humains et qui ont un style de communication informel sont plus appréciés des utilisateurs.

En effet, puisqu’un agent conversationnel ne peut utiliser son apparence physique ou son langage non verbal, les mots qu’il emploie sont sa seule option pour créer l’illusion.

L’intelligence artificielle humoriste

Différentes études, dont celles nommées plus haut et d’autres réalisées par des chercheurs allemandsnéerlandais et de Singapour, ont ainsi répertorié des éléments verbaux permettant d’augmenter facilement l’impression que l’IA est humaine.

  • Lui donner un nom humain: «Bonjour, je suis Teddy» plutôt que «bonjour, je suis un agent conversationnel automatisé» ou «bonjour, je suis ChatBotX».
  • Faire référence à lui-même grâce à des pronoms: «Je», «me», «moi», plutôt que «Cet agent conversationnel».
  • Saluer l’utilisateur: «Bonjour» plutôt que «Commencez» ou «Au revoir» plutôt que «Quitter».
  • Utiliser des expressions empathiques: «Je suis désolé», «je vous félicite».
  • Faire référence à des processus cognitifs: «Laissez-moi réfléchir», «je pense que».
  • Utiliser des banalités ou du «small talk»: «Quel temps fait-il à Montréal?»

Certaines applications utilisent même l’humour («Aimeriez-vous une blague? Pourquoi le lion a-t-il mangé le funambule? Parce qu’il voulait un repas équilibré.»).

l-express.ca remercie ses partenaires. En devenir.

Auteurs

  • Kathleen Couillard

    Journaliste à l'Agence Science-Presse, média indépendant, à but non lucratif, basé à Montréal. La seule agence de presse scientifique au Canada et la seule de toute la francophonie qui s'adresse aux grands médias plutôt qu'aux entreprises.

  • Agence Science-Presse

    Média à but non lucratif basé à Montréal. La seule agence de presse scientifique au Canada.

Partagez
Tweetez
Envoyez
l-express.ca remercie ses partenaires. En devenir.

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur