Les compagnons IA néfastes pour votre santé mentale ?

Excès d’empathie

compagnon IA, intelligence artificielle
L’intelligence artificielle générative devient un psychothérapeute virtuel. Mais des parents sonnent l’alarme après le suicide de leur ado. Photo: iStock.com/Lidiia Moor
Partagez
Tweetez
Envoyez

Publié 13/03/2026 par Charles-Antoine Rouyer

L’intelligence artificielle générative, toujours là pour répondre aux questions, semble devenir un psychothérapeute virtuel, pour se confier, voir demander conseil en cas de souci affectif. Mais des parents sonnent l’alarme après le suicide de leur ado. Ils pointent du doigt l’influence néfaste des machines sur la santé mentale de leur progéniture.

Idem pour un entrepreneur ontarien de 48 ans. Allan Brooks poursuit une entreprise d’IA, l’accusant d’avoir déclenché chez lui une crise délirante , après l’avoir rendu dépendant.

«Lorsque l’IA vous valide sans condition, cela peut renforcer de mauvais choix, une pensée déformée, voire des croyances dangereuses», estime Michael Inzlicht, professeur de psychologie à l’Université de Toronto, qui étudie notamment les interactions entre l’IA et les humains.

Danger: flatterie

«À mon avis, le plus grand danger est la flatterie. Les compagnons IA ont tendance à valider et à approuver plutôt qu’à contredire. Ils appuient les opinions des utilisateurs même lorsqu’ils ont tort», ajoute Michael Inzlicht.

compagnon IA, intelligence artificielle
Michael Inzlicht.

Les compagnons IA sont des assistants intelligents, des agents conversationnels ou de simples plateformes d’IA générative telles que ChatGPT ou Mistral qui répondent aux questions d’ordre affectif des utilisateurs.

Publicité

Un groupe de travail sur l’IA de la Société canadienne de psychologie planche d’ailleurs sur des directives ciblant l’IA et la santé mentale, depuis juin 2025.

«Étant donné que les agents conversationnels et les assistants intelligents basés sur l’IA sont conçus pour simuler l’empathie, il existe toujours un risque de dépendance émotionnelle», constate Lisa Votta-Bleeker, chef de direction de la Société canadienne de psychologie.

Empathie trompeuse?

«L’obséquiosité de l’IA (la tendance des agents conversationnels à être d’accord avec l’utilisateur) peut causer des problèmes si les entreprises spécialisées en IA ne mettent pas en place des procédures de sécurité et des garde-fous appropriés», observe la Dre Votta-Bleeker.

«Par exemple, elle peut exacerber les délires, contribuer à une perception déformée de la réalité et, dans des cas extrêmes, soutenir la décision d’un utilisateur d’adopter des comportements dangereux ou autodestructeurs», ajoute-t-elle.

love
L’IA est trop empathique. Photo: iStock.com/Makhbubakhon Ismatova

Notre ombre, pas notre miroir

Selon Khedidja Hmamad, une psychothérapeute à Toronto et chargée de cours en psychologie au Collège Glendon de l’Université York, «l’IA s’alimente de nos discussions, de nos propres réflexions, elle est notre ombre et non notre miroir».

Publicité
compagnon IA, intelligence artificielle
Khedidja Hmamad.

L’excès d’empathie caractéristique de l’IA pourrait enfermer les gens dans leur bulle numérique complaisante, sans réelle réflexion ou questionnement extérieur, prévient Khedidja Hmamad.

«Parfois l’IA isole, on ne va pas chercher l’aide en dehors de cette discussion intime, chez soi dans son espace ‘sécure’. Il n’y a pas de regard externe pour juger. On ne sait pas comment la personne pose les questions, interprète les retours.»

Le chercheur en psychologie Michael Inzlicht confirme: «Les compagnons IA sont doués pour apporter un soutien émotionnel. Le problème, c’est que cette efficacité, combinée à une disponibilité constante et à une absence totale de friction, rend ces modèles très addictifs.»

Soulagement rapide, mais…

La facilité d’accès rend aussi l’IA attrayante, ajoute Khedidja Hmamad. «Quand on est stressé, en mal de vivre, on veut ressentir un soulagement rapide, obtenir des réponses immédiates à des émotions qui nous oppressent. La souffrance cherche sa sortie de secours, et l’IA offre une accessibilité 24 h/24, sans jugement apparent, sans liste d’attente.»

«Surtout quand on sait combien te temps il faut attendre pour obtenir de l’aide… comme malheureusement la fusillade de Colombie-Britannique semble mettre en lumière.»

Publicité

La psychothérapeute observe aussi une tendance inquiétante à l’autodiagnostic avec la machine. «Un diagnostic prématuré peut figer une identité, enfermer la personne dans une étiquette plutôt que de l’inviter à se comprendre dans toute sa complexité. Un diagnostic demande une véritable expertise et on ne l’utilise pas à tout va.»

Tumbler Ridge
Le chef conservateur Pierre Poilievre, le premier ministre libéral Mark Carney, la gouverneure générale Mary Simon à Tumbler Ridge peu après la fusillade du 10 février. Photo: X

Ligne invisible à ne pas franchir

«Comme source d’information, comme outil d’aide à la réflexion, pourquoi pas. Le problème se pose quand l’IA franchit cette ligne invisible: quand elle pose des diagnostics sans l’expertise clinique nécessaire, ou pire encore, suggère de mettre fin à ses jours, comme cela semble avoir tragiquement été le cas aux États-Unis», dit Khedidja Hmamad.

«Ces dérives nous rappellent que l’IA n’a ni conscience, ni responsabilité, ni capacité à mesurer la portée existentielle de ses mots.»

Comment alors répondre à ces préoccupations? Le professeur de psychologie Michael Inzlicht estime que «les développeurs doivent intégrer des désaccords réfléchis. L’IA doit interpeller les utilisateurs de manière constructive, et pas seulement les valider.»

«Les parents et les éducateurs doivent enseigner aux enfants que l’empathie de l’IA est simulée et ne correspond pas à une attention réciproque. Il faut repérer tout retrait social qui coïncide avec une utilisation intensive de l’IA», recommande Michael Inzlicht.

Publicité

Répondre aux suicides d’ados

Une autre ligne invisible franchie serait-elle les récents suicides d’adolescents qui auraient été imputés aux conseils de l’IA?

compagnon IA, intelligence artificielle
Lisa Votta-Bleeker.

«Bien que la Société canadienne de psychologie ne puisse pas commenter les détails de chaque incident, ces exemples illustrent pourquoi des mesures de protection solides, des cadres de responsabilité clairs et des normes de conception responsables sont essentiels», résume Dre Votta-Bleeker.

La psychothérapeute Khedidja Hmamad abonde en ce sens. «Il faut absolument qu’une assise d’urgence ait lieu» pour baliser l’application de cette nouvelle technologie et mettre en place des garde-fous éthiques, pour que la responsabilité n’incombe pas uniquement à l’individu.

Et même si Michael Inzlicht se dit prudemment optimiste envers l’IA, il tranche catégoriquement: «Il nous faut une réglementation. Les compagnons IA ne doivent pas être traités comme des outils neutres, mais doivent être réglementés comme les autres formes de soins professionnels.»

Auteurs

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur