On peut détecter des images créées par l’IA? Pour l’instant oui…

intelligence artificielle, IA, fausses photos
Des mains qui ont six doigts... et d'autres expériences avec Midjourney. Photo: Compte Twitter Weird AI Generation
Partagez
Tweetez
Envoyez

Publié 27/04/2023 par Pascal Lapointe

Le pape dans un manteau Balenciaga, Donald Trump en état d’arrestation, Emmanuel Macron dans un bain de boue… Les images créées par l’intelligence artificielle – fausses mais troublantes de réalisme – se sont multipliées ces dernières semaines. Pour l’instant, il est relativement facile de déterminer qu’il s’agit d’une fausse image. Mais l’IA va progresser.

Les réflexes de base continuent de s’appliquer

Pour commencer, les réflexes de base pour discerner le faux du vrai restent les mêmes: vérifier la source avant de partager une information — qu’il s’agisse d’un texte ou d’une image — et chercher une deuxième source si l’on a des doutes.

Ce sont ces mêmes réflexes sur lesquels on insiste depuis quelques années dans les formations de lutte contre la désinformation. Les avancées fulgurantes de l’intelligence artificielle (IA) montrent que l’acquisition de ces réflexes est encore plus importante qu’auparavant.

Vérifier la source… Qui est derrière le compte Facebook, Instagram, TikTok ou autre, de cette photo? Cette personne s’identifie-t-elle? A-t-elle un site web sur lequel on peut trouver une page «qui sommes-nous» (about us). Si cette photo a été publiée par un inconnu: méfiance.

Chercher une deuxième source… À l’évidence, si Donald Trump avait été arrêté ou si Emmanuel Macron s’était baigné dans la boue, quantité de médias en auraient parlé, en quelques minutes.

Publicité
IA, intelligence artificielle, fausse photo
Trump arrêté… Photo: Midjourney

La recherche d’image inversée reste la technique à privilégier

Si la personne qui nous a partagé cette photo n’en est pas l’auteur, il est relativement facile d’en retracer l’origine par une technique appelée recherche d’image inversée.

Cette procédure ne prend que quelques secondes. Sur l’écran de l’ordinateur, il suffit de faire glisser l’image suspecte depuis sa page vers celle de Google Images ou, par exemple, de TinEye. Sur le téléphone, on peut télécharger l’image, mais avec Google, il faudra aussi avoir l’application (gratuite) Google Lens, pour chercher dans notre photothèque.

On peut aussi chercher une image à partir de son URL. Sur l’ordi, il faut appuyer sur le bouton de droite de la souris et sélectionner «Copier l’adresse de l’image». Sur le téléphone, avec la plupart des navigateurs, il faut appuyer sur la photo et, dans le menu qui apparaît, sélectionner Partager, puis Copier.

Si la photo a déjà été abondamment rediffusée, il faudra peut-être cliquer sur quelques-unes avant de trouver l’originale. La fonction «Voir la source de l’image» permet de restreindre les résultats, mais ne conduit pas nécessairement à la source originale.

Midjourney, l’équivalent visuel de ChatGPT

Dans le cas de fausses photos devenues virales, il est probable que vous remarquiez tout de suite, parmi les résultats de votre recherche, des médias ou des individus qui ont d’ores et déjà signalé qu’il s’agit d’une fausse photo, preuves à l’appui.

Publicité

Dans le cas des fausses photos de Trump, du pape ou de Macron devenues virales en mars 2023, il s’agissait d’images générées par la dernière version d’une IA appelée Midjourney. Elle fait, pour l’image, l’équivalent de ce que fait ChatGPT pour le texte, c’est-à-dire créer une image à partir d’une requête.

L’auteur lui-même peut s’être identifié. Dans le cas de la fausse arrestation de Donald Trump, il s’agit d’Eliot Higgins, fondateur du média d’enquête Bellingcat, le 20 mars 2023, avec l’aide du logiciel Midjourney.

IA, intelligence artificielle, fausse photo
Le pape à la mode. Photo: Midjourney

Quant à la «photo» du pape dans un manteau de marque Balenciaga, elle a été publiée le 24 mars sur le sous-forum de la plateforme Reddit consacré à Midjourney, en compagnie de trois autres images (Midjourney en crée quatre pour chaque requête).

L’auteur, qui a été interviewé par BuzzFeed le 27 mars, s’est dit surpris que tant de gens soient tombés dans le panneau. C’est «définitivement apeurant» que «des gens aient pensé que c’était vrai sans se questionner».

La signature de DALL-E

Enfin, il faut savoir qu’au moins une IA place une «signature», sous la forme d’une discrète bande multicolore, en bas à droite de toutes ses images. Il s’agit de DALL-E, qui avait commencé à faire sensation sur Internet dès l’été 2022.

Publicité

On aimerait bien qu’elle soit imposée aux autres: une signature ne solutionnerait pas tous les problèmes de désinformation, mais elle les atténuerait.

IA, intelligence artificielle, fausse photo
La bande de couleurs de DALL-E, signalant que l’image a été créée par une IA. Photo: DALL-E

Repérez ce que l’IA n’est pas encore capable de faire

Différents médias ayant examiné en mars 2023 les photos générées par IA ont tous remarqué les mêmes défauts: des objets qui défient les lois de la gravité, des inscriptions incompréhensibles, des ombres ou des reflets irréalistes… et des mains qui ont six doigts.

Le point commun à tous ces défauts: l’IA voit des pixels, mais elle ne les comprend pas.

De la même façon que ChatGPT voit des séquences de mots et prédit la plus probable, Midjourney, DALL-E et les autres voient des assemblages de pixels et font «simplement» des prédictions à partir de là.

S’il s’agit de produire un visage déjà apparu sur des millions de photos, comme le pape, c’est facile. Mais s’il s’agit de produire une main qui est souvent à moitié cachée, ou floue, parfois ouverte, parfois fermée, parfois à moitié fermée, le risque d’erreur est plus élevé.

Publicité

Les mains aberrantes sont devenues des erreurs si typiques qu’elles ont engendré des mèmes cet hiver.

L’IA voit deux dimensions

Problème similaire avec toute image qui implique de la profondeur. L’IA voit deux dimensions — longueur et largeur des objets — mais ne comprend pas ou ne sait pas comment interpréter la troisième dimension, expliquait en février l’informaticien Peter Bentley, du Collège universitaire de Londres, dans un reportage de la BBC.

«Ces modèles sont séparés de la réalité, ils n’ont ni la connaissance ni la capacité à considérer le contexte d’une image. Ils ne font que combiner le tas de données que nous leur envoyons.»

C’est ainsi qu’une IA a correctement reproduit un parasol tenu par le pape sur une plage, mais qu’elle a ignoré qu’un parasol ne peut pas être planté dans le ventre du pape. Ou qu’elle a produit ce qui ressemble à une tasse de café, mais tenue à l’envers. Ou qu’elle présente des ombres ou des reflets qui ne collent pas à la réalité (voir d’autres exemples iciici et ici).

Ces erreurs, résumait le 27 mars le journaliste James Vincent, spécialisé en IA, sont «des produits d’un système qui connaît la surface de la réalité, mais pas les règles sous-jacentes qui gouvernent les interactions entre les objets du monde physique».

Publicité

Logos difficiles à décrypter

Enfin, les inscriptions, comme celles sur les casques des policiers, posent un problème particulier. Le robot voit une série de pixels et tente de reproduire la «forme» la plus probable… Mais il n’a manifestement pas «compris» que cette «forme» devait avoir une signification: qu’il s’agisse d’un logo ou d’un acronyme.

Et quand bien même le saurait-il, encore faudrait-il qu’on ait inscrit dans sa programmation les acronymes et les logos de toutes les polices du monde… et de toutes les équipes sportives.

C’est la raison pour laquelle on se retrouve avec des séquences de lettres qui n’ont pas de sens… comme sur la couverture d’un livre que lit Donald Trump en prison.

IA, intelligence artificielle, fausse photo
Que lit Trump en prison? Photo: Eliott Higgins via Midjourney

Parfois, un outil de grossissement, l’équivalent virtuel d’une loupe, peut aider. Ainsi, Invid-WeVerify permet de «zoomer» sur la main, l’objet ou l’inscription bizarre. Ou sur l’arrière-plan, tant le robot semble encore brouillon sur les détails formant un décor qui ne lui est pas familier.

Verdict : pour l’instant…

Inévitablement, l’IA va s’améliorer. Le cas des mains semble indiquer que certains détails, auxquels on n’aurait pas pensé a priori, sont plus difficiles à corriger que prévu. Mais pour l’instant, tout laisse croire que, tôt ou tard, ce sera corrigé.

Publicité

Il n’est pas impossible que d’autres IA soient développées avec la capacité de détecter les erreurs typiques des IA. Mais là encore, rien ne permet de croire que ces erreurs ne pourront pas elles aussi être corrigées.

La solution idéale serait l’obligation d’imposer une signature sur les images générées par IA. Mais encore faudrait-il pour cela une entente internationale.

En attendant, utiliser son esprit critique et vérifier la source avant de partager une image restent les meilleures défenses contre la diffusion de ces images trafiquées. Pour ne pas ajouter soi-même à la désinformation!

Auteurs

  • Pascal Lapointe

    Journaliste à l'Agence Science-Presse, média indépendant, à but non lucratif, basé à Montréal. La seule agence de presse scientifique au Canada et la seule de toute la francophonie qui s'adresse aux grands médias plutôt qu'aux entreprises.

  • Agence Science-Presse

    Média à but non lucratif basé à Montréal. La seule agence de presse scientifique au Canada.

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur