La croissance de la «bouillie» (slop en anglais), ce contenu de mauvaise qualité généré par l’intelligence artificielle, atteint la production scientifique. Dans certaines disciplines, des groupes tirent la sonnette d’alarme sur le fait qu’ils reçoivent de plus en plus de propositions de textes qui ont été apparemment générés par des applications.
Ce n’est pas une surprise: dans l’écosystème de la recherche universitaire, le «publier ou périr» est depuis des décennies désigné comme un problème, qui peut inciter des chercheurs peu scrupuleux à publier souvent, au détriment de la qualité.
Au cours des deux dernières décennies, on a également vu apparaître le phénomène dit des «revues prédatrices», qui publient n’importe quoi pourvu qu’on les paie, un phénomène qui n’aurait pas pu devenir lucratif s’il n’existait pas cette pression énorme à publier.
Mais l’arrivée de l’IA fait craindre que certains secteurs puissent être submergés par ces contenus sans intérêt et sans originalité.
Recherche sur le cancer
Déjà en novembre, la plateforme de prépublication ArXiv avait pris la décision inédite de désormais refuser les revues d’articles ou les prises de position provenant des sciences informatiques, ayant constaté une hausse aussi soudaine qu’anormale des textes refusés par les modérateurs.


