Dans l’univers de la désinformation, il y a un agent perturbateur dont on parle beaucoup, mais qui ne s’est pourtant pas plus matérialisé cette année que l’an dernier: le deepfake, ou la capacité à mettre dans la bouche des gens, sur vidéo, des mots qu’ils n’ont jamais prononcés.
De fait, 2018 n’a pas été l’année du deepfake, et 2019 ne le sera probablement pas non plus.
Course aux armements
Selon Claire Wardle, directrice de l’organisme américain First Draft, nous serions encore à environ quatre ans du niveau de qualité qui pourrait vraiment causer du tort, et en parallèle, on assiste depuis au moins deux ans à une «course aux armements» entre les promoteurs du deepfake et les développeurs de technologies capables de détecter des vidéos «modifiées».
Déjà, lors du congrès 2018 de l’International Fact-Checking Network (IFCN), la bonne nouvelle avait été que l’impact des vidéos truquées reste encore à prouver.
Le montage laisse des traces
Parce que jusqu’ici, le montage vidéo laisse des traces qui ne peuvent pas échapper à l’intelligence artificielle, comme un collage saccadé d’images, un mouvement des lèvres incohérent ou une désynchronisation entre les mots et les lèvres (comme dans un doublage).
Les traces peuvent même se trouver dans le texte lu: quantité anormale de phrases ultra-courtes, d’interjections, etc.