Les dernières avancées dans le domaine de l’intelligence artificielle (IA) permettent de produire des fausses nouvelles plus facilement et plus rapidement. Mais la même technologie permettrait-elle de détecter des fausses nouvelles plus facilement et plus rapidement?
Vérifier si une affirmation douteuse est vraie ou fausse, revenir à la source pour dégager les faits des opinions peut prendre beaucoup de temps, comme les journalistes peuvent en témoigner. C’est pourquoi certains informaticiens prétendent que l’intelligence artificielle pourrait automatiser une partie de la démarche.
En effet, ces agents conversationnels ou grands modèles de langage (LLM), dont on parle beaucoup depuis l’an dernier, ont cette capacité à fournir, dans un langage compréhensible, des réponses à des requêtes comportant un grand nombre de paramètres. Ils pourraient donc, en théorie, déterminer si une allégation est vraie ou fausse.
L’IA limitée par ses connaissances
Mais ce n’est pas aussi simple, même pour un ordinateur.
Si l’on demande à une telle IA de vérifier un fait, elle cherchera d’abord dans les connaissances qu’elle a acquises lorsqu’elle a été développée — c’est-à-dire la base de données à laquelle on lui a donné accès.