L’intelligence artificielle générative, toujours là pour répondre aux questions, semble devenir un psychothérapeute virtuel, pour se confier, voir demander conseil en cas de souci affectif. Mais des parents sonnent l’alarme après le suicide de leur ado. Ils pointent du doigt l’influence néfaste des machines sur la santé mentale de leur progéniture.
Idem pour un entrepreneur ontarien de 48 ans. Allan Brooks poursuit une entreprise d’IA, l’accusant d’avoir déclenché chez lui une crise délirante , après l’avoir rendu dépendant.
«Lorsque l’IA vous valide sans condition, cela peut renforcer de mauvais choix, une pensée déformée, voire des croyances dangereuses», estime Michael Inzlicht, professeur de psychologie à l’Université de Toronto, qui étudie notamment les interactions entre l’IA et les humains.
Danger: flatterie
«À mon avis, le plus grand danger est la flatterie. Les compagnons IA ont tendance à valider et à approuver plutôt qu’à contredire. Ils appuient les opinions des utilisateurs même lorsqu’ils ont tort», ajoute Michael Inzlicht.

Les compagnons IA sont des assistants intelligents, des agents conversationnels ou de simples plateformes d’IA générative telles que ChatGPT ou Mistral qui répondent aux questions d’ordre affectif des utilisateurs.






