Tumbler Ridge, Colombie-Britannique, en février 2026, et Tallahassee, Floride, en avril 2025: en ces deux endroits, on reproche à ChatGPT d’avoir encouragé une tuerie de masse. Huit personnes mortes dans le premier cas, deux dans l’autre, et plusieurs blessées.
Dans les deux circonstances, l’agent conversationnel avait dialogué avec le tueur, sans en référer à des personnes compétentes qui auraient peut-être pu l’aider.
Et ce ne sont que les deux cas les plus tragiques de délires psychotiques qui ont possiblement été renforcés par ces outils d’intelligence artificielle et qui ont été rapportés par des professionnels de la santé mentale.
Amplificateur d’idées délirantes
«Ces outils pourraient être un amplificateur d’idées délirantes, comme se sentir observé en permanence, ou être doté d’une mission spéciale», soutient le professeur de psychiatrie et d’addictologie de l’Université de Montréal, Alexandre Hudon, coauteur d’une recherche récente.
Au contraire «de conversations avec les proches, les cliniciens et les infirmières, qui sont plus susceptibles de nous confronter».


