Lorsque les médias parlent de l’agent conversationnel ChatGPT, ils lui prêtent souvent des caractéristiques humaines, comme des intentions ou des émotions. Jusqu’à quel point le simple choix des mots peut-il donner cette illusion?
L’essor des agents conversationnels
Les agents conversationnels, ou chatbots, se sont beaucoup développés ces dernières années grâce à l’essor d’une nouvelle branche de l’intelligence artificielle, le traitement du langage naturel.
Comme l’expliquait l’an dernier la Harvard Business Review, cette technologie repose entre autres sur l’utilisation des statistiques pour prédire le prochain mot d’une phrase, en se basant sur les mots précédents.
Cette approche est la même que celle qui nous suggère des mots lors de la rédaction d’un courriel ou d’un message texte.
Imiter des conversations humaines
Mais si les agents conversationnels tentent de prédire le prochain mot, c’est parce qu’ils ont avant tout pour fonction d’imiter des conversations humaines.