Vrai ou faux Anomalies visuelles, recherche inversée... Cinq conseils pour reconnaître une image générée par intelligence artificielle

La démocratisation des IA génératives a mis à la portée de tous la création d'images synthétiques. Face aux risques de manipulation, de désinformation et d'escroqueries, plusieurs astuces permettent d'éviter de se laisser abuser.

Article rédigé par Linh-Lan Dao
France Télévisions
Publié
Temps de lecture : 13min
Les images générées ou altérées par des IA génératives pullulent sur internet depuis que ces outils sont accessibles au grand public. (FRANCEINFO / HELOÏSE KROB)
Les images générées ou altérées par des IA génératives pullulent sur internet depuis que ces outils sont accessibles au grand public. (FRANCEINFO / HELOÏSE KROB)

Un adorable ours polaire sauvé par des marins, un Oscar calciné dans les décombres des incendies de Los Angeles, Emmanuel Macron qui se lance dans un tutoriel de coiffure... Toutes ces images sont fausses, mais toutes ont pu défiler sur vos fils sur les réseaux sociaux. Amorcée il y a trois ans, la révolution des modèles d'intelligence artificielle générative, comme DALL-E, Stable Diffusion et Midjourney, a permis au grand public de produire des images surprenantes de réalisme à partir d'instructions de quelques mots. Au point que 29% des Français interrogés dans un sondage publié par Ipsos en février disent avoir déjà utilisé une IA pour générer une image.

En inondant les réseaux sociaux, ces contenus instillent le doute : "La perte de visibilité de ce qui est réel et généré par IA" constitue un risque pour 43% des personnes interrogées, selon le même sondage Ipsos. D'autant que ces technologies, désormais aussi intégrées à des logiciels de retouche tels que Photoshop, se perfectionnent avec le temps. Utilisées à des fins commerciales, artistiques ou de divertissement, elles servent aussi parfois à des fins politiques ou de désinformation. Alors, comment discerner le vrai de l'artificiel ? Après s'être penché sur les textes générés par IA, franceinfo donne cinq conseils pour repérer des images artificielles, avec l'aide de spécialistes. Attention : il n'existe aucune méthode fiable à 100% !

1 Passer la source au crible

Ce conseil vaut pour n'importe quel contenu glané sur internet : il faut, dans l'idéal, revenir à la source. Ici, chercher qui a posté pour la première fois l'image qui vous semble douteuse, et qui a probablement beaucoup circulé avant d'arriver jusqu'à vous. Effectuer une recherche inversée, notamment grâce aux plateformes Google Images, Fact Check Explorer de Google ou encore TinEye permet de retrouver l'origine d'un contenu, et parfois d'évaluer sa viralité.

Une fois la source identifiée, tentez d'établir si elle est fiable. En octobre 2024, une vidéo de Michel Barnier, alors Premier ministre, avait circulé, le montrant sur un plateau de TF1 en train d'annoncer l'installation dans les véhicules d'un boîtier afin d'instaurer "une taxe de 0,5 centime par kilomètre". Il s'agissait en réalité d'un "deepfake", une vidéo modifiée à l'aide d'une IA, dont l'auteur était un compte parodique sur TikTok se présentant comme produisant "de l'humour et de la parodie par intelligence artificielle". Mais la vidéo, à l'aspect relativement réaliste, avait été repostée par d'autres comptes faisant apparaître (volontairement ou non) cet extrait comme authentique.

"Si c'est AP [une agence de presse américaine] qui me fournit une image, j'aurai davantage confiance. Un anonyme sur TikTok, ce n'est pas une source fiable", tranche auprès de franceinfo Sabine Süsstrunk, professeure à l'École polytechnique fédérale de Lausanne (EPFL), où elle dirige le laboratoire d'images et de représentation visuelle. En effet, une photo provenant d'un média reconnu ou d'une agence de presse a plus de crédibilité, puisqu'elle repose sur le travail de journalistes sur le terrain.

2 Chercher la mention "généré par IA"

C'est sera bientôt une obligation européenne. Dans le cadre de l'AI Act, règlement européen adopté en août 2024 et qui entre progressivement en vigueur, les systèmes d'IA générative devront étiqueter tout contenu (images, vidéos, sons ou texte) créé ou modifié par IA à partir du mois d'août, dans un souci de transparence. Cet étiquetage consiste en des filigranes, invisibles par les utilisateurs mais détectables par des logiciels, ou une mention dans les données associées au fichier.

Certaines plateformes ont fait le choix d'afficher cette information, comme le fait déjà Meta sur Facebook et Instagram depuis février 2024, en se reposant sur un mélange de détection automatique et de signalement par l'utilisateur. Sur TikTok, ce sont les créateurs eux-mêmes qui doivent mentionner qu'une IA a été utilisée, si l'image à "une apparence réaliste", selon le règlement de la plateforme. Autrement dit, ce n'est pas parce que la mention "généré par IA" n'apparaît pas que l'image est nécessairement authentique.

Le photographe australien Peter Yan a vu sa vraie photo étiquetée par erreur par Meta avec la mention "fait avec une IA", en mai 2024. (PETER YAN / THREADS)
Le photographe australien Peter Yan a vu sa vraie photo étiquetée par erreur par Meta avec la mention "fait avec une IA", en mai 2024. (PETER YAN / THREADS)

Ce système peut aussi montrer des limites dans le sens inverse : Meta a été épinglé pour avoir étiqueté à tort des images réelles, comme un cliché du mont Fuji posté sur Instagram par le photographe australien Peter Yan, qui avait dénoncé la méprise sur un autre réseau du groupe, Threads. L'artiste expliquait avoir simplement "nettoyé" quelques tâches indésirables avec Photoshop. "Si un outil de retouche photo utilise l'IA pour modifier la taille ou la couleur d'une image, celle-ci peut alors comporter un signal indiquant qu'elle a été modifiée à l'aide de l'IA. Ces signaux sont lus par les systèmes de Meta pour déterminer si le contenu a besoin d'une étiquette", explique l'entreprise de Mark Zuckerberg sur son site. Ces étiquettes sont donc utiles, mais à prendre avec des pincettes. "Il faudrait que les plateformes mentionnent la différence entre une image totalement générée par une IA et une image ayant subi des petites modifications par IA", suggère Sabine Süsstrunk.

3 Vérifier la reprise du contenu dans les médias

Emmanuel Macron a-t-il présenté sa démission ? Sur Facebook et TikTok, plusieurs publications annonçant le retrait du chef d'Etat français ont essaimé en septembre 2023, sur des comptes basés dans des pays d'Afrique. Comme l'ont expliqué l'AFP ou France 24, les images censées le prouver étaient en réalité un extrait vidéo d'une prise de parole du président de la République sur un tout autre sujet, sur lequel a été apposé un "deepfake" audio reproduisant la voix d'Emmanuel Macron et lui faisant tenir des propos inventés. Le contenu douteux provenait du compte TikTok ElyseeParodies.

Vu de France, il était facile de douter de cette vidéo. "Si on allume la radio, qu'on regarde dans un média sur le web, ce genre d'information, si elle était vraie, serait en une immédiatement", rappelle auprès de franceinfo Denis Teyssou, manager éditorial au sein du Medialab de l'AFP, qui développe des projets innovants au sein de l'agence de presse. L'absence de reprise médiatique d'une information qui n'a aucune raison d'être ignorée peut donc mettre la puce à l'oreille. A condition que le média consulté soit rigoureux : toujours en 2023, la fausse photo d'une explosion près du Pentagone, le ministère de la Défense américain, qui avait brièvement semé la panique et perturbé la bourse américaine, avait été reprise sur Twitter par le compte de Russia Today et à l'antenne par la chaîne de télévision indienne Republic TV.

"Avec l'explosion de l'IA, on va être submergé par de plus en plus de contenus synthétiques humoristiques, satiriques ou malveillants. C'est l'opportunité pour les médias de qualité de se réaffirmer comme fiables dans cet écosystème", analyse Chine Labbé, rédactrice en chef Europe de NewsGuard, un site spécialiste du repérage de fausses informations.

4 Repérer des anomalies visuelles

Fini les humains à six doigts : la qualité des images crées avec l'aide des IA s'est nettement améliorée depuis les premiers générateurs d'images accessibles au grand public. Pour Denis Teyssou de l'AFP, "un certain nombre d'anomalies visuelles persistent dans les images créées par IA". Il faut donc s'attarder sur des détails comme "les yeux asymétriques, l'expression des personnages en arrière-plan qui ressemblent parfois à des zombies, les oreilles bizarres", détaille-t-il. Une façon de les détecter sur une vidéo est de la ralentir, en l'analysant image par image. Dans une vidéo devenue virale mi-février, des célébrités juives américaines, comme Scarlett Johansson et Steven Spielberg, étaient mises en scène en dénonçant silencieusement des propos antisémites du rappeur américain Kanye West. Mais plusieurs détails permettaient de se rendre compte que la vidéo était générée par IA, comme des visages ou des mains qui se déforment légèrement.

Dans une vidéo en apparence très réaliste produite en février 2024 par Sora d'OpenAI, l'entreprise qui a aussi créé ChatGPT, une femme se retourne dans son lit, puis son chat lui effleure le nez. "Le mouvement n'est pas naturel. Les modèles actuels sont encore assez mauvais en physique", explique Sabine Süsstrunk. L'informaticienne invite à se méfier des "images trop lisses", à s'attarder sur de "petits détails" tels que la présence d'imperfections ou non sur la peau. Dans la vidéo en question, le grain de peau de la jeune femme est parfaitement lisse, tandis que son nez offre une perspective étrange. La couette voit ses rayures disparaître temporairement lors du mouvement, et l'emplacement de la main gauche de la jeune femme est incohérent par rapport au reste du corps. Le chat, quant à lui, semple posséder trois pattes avant.

Une vidéo générée par l'IA générative Sora en février 2024, qui présente plusieurs anomalies. (SORA)
Une vidéo générée par l'IA générative Sora en février 2024, qui présente plusieurs anomalies. (SORA)

5 Utiliser un détecteur d'images

Winston AI, Reality Defender, Sightengine... De nombreux détecteurs d'images générées par IA existent sur le marché, au point qu'il n'est pas facile de s'y retrouver. "Il n'y a pas de solution miracle", soutient Denis Teyssou de l'AFP. Tout dépend notamment de la façon dont le détecteur a été entraîné : s'il a seulement travaillé sur des images en haute définition, il rencontrera des difficultés à reconnaître la marque de l'IA sur des images à la qualité dégradée.

Franceinfo a ainsi soumis à plusieurs détecteurs une image virale représentant une statuette des Oscars brûlée, qui avait beaucoup circulé pendant les incendies ayant ravagé Los Angeles. Ce qui semble être l'image originelle avait déjà été classée, lors de sa publication, comme artificielle par la modération du réseau social Reddit. Le site Is it AI? évalue à 81% la probabilité que ce même contenu soit "générée par IA", et cite la plateforme Midjourney comme "potentielle méthode" de génération.

Une image virale d'un Oscar calciné a été évaluée comme très probablement "générée par IA" par le détecteur Is it AI?, selon un test de franceinfo. (IS IT AI? / FRANCEINFO)
Une image virale d'un Oscar calciné a été évaluée comme très probablement "générée par IA" par le détecteur Is it AI?, selon un test de franceinfo. (IS IT AI? / FRANCEINFO)

Winston AI, un des détecteurs les plus populaires de la toile, est encore plus proche de la vérité, estimant à 92% la probabilité que l'image soit générée par une IA.

Winston AI, un autre détecteur d'images générées par IA, est lui aussi capable de reconnaître que cette image est synthétique quand on lui soumet une version en haute résolution. (WINSTON AI / FRANCEINFO)
Winston AI, un autre détecteur d'images générées par IA, est lui aussi capable de reconnaître que cette image est synthétique quand on lui soumet une version en haute résolution. (WINSTON AI / FRANCEINFO)

Mais lorsque franceinfo a soumis à cette même plateforme une capture d'écran de la même image, cette fois trouvée sur X, le résultat était diamétralement différent. La plateforme a estimé que l'origine était humaine à 99%. II s'agit donc d'un "faux négatif", probablement à cause de la qualité dégradée de l'image analysée.

Le détecteur Winston AI n'est en revanche pas capable de reconnaître cette même image synthétique dans une plus faible résolution. (WINSTON AI / FRANCEINFO)
Le détecteur Winston AI n'est en revanche pas capable de reconnaître cette même image synthétique dans une plus faible résolution. (WINSTON AI / FRANCEINFO)

Conscient des imperfections de ces détecteurs, Viginum, le service français de vigilance et de protection contre les ingérences numériques étrangères, et le PERen, pôle d'expertise de la régulation numérique, ont conjointement lancé fin janvier un appel à collaborations auprès du grand public afin de créer un "méta-détecteur" de contenus générés par IA, permettant d'évaluer les points forts et les points faibles de chacun.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.