: Vrai ou faux Anomalies visuelles, recherche inversée... Cinq conseils pour reconnaître une image générée par intelligence artificielle
La démocratisation des IA génératives a mis à la portée de tous la création d'images synthétiques. Face aux risques de manipulation, de désinformation et d'escroqueries, plusieurs astuces permettent d'éviter de se laisser abuser.
Un adorable ours polaire sauvé par des marins, un Oscar calciné dans les décombres des incendies de Los Angeles, Emmanuel Macron qui se lance dans un tutoriel de coiffure... Toutes ces images sont fausses, mais toutes ont pu défiler sur vos fils sur les réseaux sociaux. Amorcée il y a trois ans, la révolution des modèles d'intelligence artificielle générative, comme DALL-E, Stable Diffusion et Midjourney, a permis au grand public de produire des images surprenantes de réalisme à partir d'instructions de quelques mots. Au point que 29% des Français interrogés dans un sondage publié par Ipsos en février disent avoir déjà utilisé une IA pour générer une image.
En inondant les réseaux sociaux, ces contenus instillent le doute : "La perte de visibilité de ce qui est réel et généré par IA" constitue un risque pour 43% des personnes interrogées, selon le même sondage Ipsos. D'autant que ces technologies, désormais aussi intégrées à des logiciels de retouche tels que Photoshop, se perfectionnent avec le temps. Utilisées à des fins commerciales, artistiques ou de divertissement, elles servent aussi parfois à des fins politiques ou de désinformation. Alors, comment discerner le vrai de l'artificiel ? Après s'être penché sur les textes générés par IA, franceinfo donne cinq conseils pour repérer des images artificielles, avec l'aide de spécialistes. Attention : il n'existe aucune méthode fiable à 100% !
1 Passer la source au crible
Ce conseil vaut pour n'importe quel contenu glané sur internet : il faut, dans l'idéal, revenir à la source. Ici, chercher qui a posté pour la première fois l'image qui vous semble douteuse, et qui a probablement beaucoup circulé avant d'arriver jusqu'à vous. Effectuer une recherche inversée, notamment grâce aux plateformes Google Images, Fact Check Explorer de Google ou encore TinEye permet de retrouver l'origine d'un contenu, et parfois d'évaluer sa viralité.
Une fois la source identifiée, tentez d'établir si elle est fiable. En octobre 2024, une vidéo de Michel Barnier, alors Premier ministre, avait circulé, le montrant sur un plateau de TF1 en train d'annoncer l'installation dans les véhicules d'un boîtier afin d'instaurer "une taxe de 0,5 centime par kilomètre". Il s'agissait en réalité d'un "deepfake", une vidéo modifiée à l'aide d'une IA, dont l'auteur était un compte parodique sur TikTok se présentant comme produisant "de l'humour et de la parodie par intelligence artificielle". Mais la vidéo, à l'aspect relativement réaliste, avait été repostée par d'autres comptes faisant apparaître (volontairement ou non) cet extrait comme authentique.
"Si c'est AP [une agence de presse américaine] qui me fournit une image, j'aurai davantage confiance. Un anonyme sur TikTok, ce n'est pas une source fiable", tranche auprès de franceinfo Sabine Süsstrunk, professeure à l'École polytechnique fédérale de Lausanne (EPFL), où elle dirige le laboratoire d'images et de représentation visuelle. En effet, une photo provenant d'un média reconnu ou d'une agence de presse a plus de crédibilité, puisqu'elle repose sur le travail de journalistes sur le terrain.
2 Chercher la mention "généré par IA"
C'est sera bientôt une obligation européenne. Dans le cadre de l'AI Act, règlement européen adopté en août 2024 et qui entre progressivement en vigueur, les systèmes d'IA générative devront étiqueter tout contenu (images, vidéos, sons ou texte) créé ou modifié par IA à partir du mois d'août, dans un souci de transparence. Cet étiquetage consiste en des filigranes, invisibles par les utilisateurs mais détectables par des logiciels, ou une mention dans les données associées au fichier.
Certaines plateformes ont fait le choix d'afficher cette information, comme le fait déjà Meta sur Facebook et Instagram depuis février 2024, en se reposant sur un mélange de détection automatique et de signalement par l'utilisateur. Sur TikTok, ce sont les créateurs eux-mêmes qui doivent mentionner qu'une IA a été utilisée, si l'image à "une apparence réaliste", selon le règlement de la plateforme. Autrement dit, ce n'est pas parce que la mention "généré par IA" n'apparaît pas que l'image est nécessairement authentique.
Ce système peut aussi montrer des limites dans le sens inverse : Meta a été épinglé pour avoir étiqueté à tort des images réelles, comme un cliché du mont Fuji posté sur Instagram par le photographe australien Peter Yan, qui avait dénoncé la méprise sur un autre réseau du groupe, Threads. L'artiste expliquait avoir simplement "nettoyé" quelques tâches indésirables avec Photoshop. "Si un outil de retouche photo utilise l'IA pour modifier la taille ou la couleur d'une image, celle-ci peut alors comporter un signal indiquant qu'elle a été modifiée à l'aide de l'IA. Ces signaux sont lus par les systèmes de Meta pour déterminer si le contenu a besoin d'une étiquette", explique l'entreprise de Mark Zuckerberg sur son site. Ces étiquettes sont donc utiles, mais à prendre avec des pincettes. "Il faudrait que les plateformes mentionnent la différence entre une image totalement générée par une IA et une image ayant subi des petites modifications par IA", suggère Sabine Süsstrunk.
3 Vérifier la reprise du contenu dans les médias
Emmanuel Macron a-t-il présenté sa démission ? Sur Facebook et TikTok, plusieurs publications annonçant le retrait du chef d'Etat français ont essaimé en septembre 2023, sur des comptes basés dans des pays d'Afrique. Comme l'ont expliqué l'AFP ou France 24, les images censées le prouver étaient en réalité un extrait vidéo d'une prise de parole du président de la République sur un tout autre sujet, sur lequel a été apposé un "deepfake" audio reproduisant la voix d'Emmanuel Macron et lui faisant tenir des propos inventés. Le contenu douteux provenait du compte TikTok ElyseeParodies.
Vu de France, il était facile de douter de cette vidéo. "Si on allume la radio, qu'on regarde dans un média sur le web, ce genre d'information, si elle était vraie, serait en une immédiatement", rappelle auprès de franceinfo Denis Teyssou, manager éditorial au sein du Medialab de l'AFP, qui développe des projets innovants au sein de l'agence de presse. L'absence de reprise médiatique d'une information qui n'a aucune raison d'être ignorée peut donc mettre la puce à l'oreille. A condition que le média consulté soit rigoureux : toujours en 2023, la fausse photo d'une explosion près du Pentagone, le ministère de la Défense américain, qui avait brièvement semé la panique et perturbé la bourse américaine, avait été reprise sur Twitter par le compte de Russia Today et à l'antenne par la chaîne de télévision indienne Republic TV.
"Avec l'explosion de l'IA, on va être submergé par de plus en plus de contenus synthétiques humoristiques, satiriques ou malveillants. C'est l'opportunité pour les médias de qualité de se réaffirmer comme fiables dans cet écosystème", analyse Chine Labbé, rédactrice en chef Europe de NewsGuard, un site spécialiste du repérage de fausses informations.
4 Repérer des anomalies visuelles
Fini les humains à six doigts : la qualité des images crées avec l'aide des IA s'est nettement améliorée depuis les premiers générateurs d'images accessibles au grand public. Pour Denis Teyssou de l'AFP, "un certain nombre d'anomalies visuelles persistent dans les images créées par IA". Il faut donc s'attarder sur des détails comme "les yeux asymétriques, l'expression des personnages en arrière-plan qui ressemblent parfois à des zombies, les oreilles bizarres", détaille-t-il. Une façon de les détecter sur une vidéo est de la ralentir, en l'analysant image par image. Dans une vidéo devenue virale mi-février, des célébrités juives américaines, comme Scarlett Johansson et Steven Spielberg, étaient mises en scène en dénonçant silencieusement des propos antisémites du rappeur américain Kanye West. Mais plusieurs détails permettaient de se rendre compte que la vidéo était générée par IA, comme des visages ou des mains qui se déforment légèrement.
Dans une vidéo en apparence très réaliste produite en février 2024 par Sora d'OpenAI, l'entreprise qui a aussi créé ChatGPT, une femme se retourne dans son lit, puis son chat lui effleure le nez. "Le mouvement n'est pas naturel. Les modèles actuels sont encore assez mauvais en physique", explique Sabine Süsstrunk. L'informaticienne invite à se méfier des "images trop lisses", à s'attarder sur de "petits détails" tels que la présence d'imperfections ou non sur la peau. Dans la vidéo en question, le grain de peau de la jeune femme est parfaitement lisse, tandis que son nez offre une perspective étrange. La couette voit ses rayures disparaître temporairement lors du mouvement, et l'emplacement de la main gauche de la jeune femme est incohérent par rapport au reste du corps. Le chat, quant à lui, semple posséder trois pattes avant.
5 Utiliser un détecteur d'images
Winston AI, Reality Defender, Sightengine... De nombreux détecteurs d'images générées par IA existent sur le marché, au point qu'il n'est pas facile de s'y retrouver. "Il n'y a pas de solution miracle", soutient Denis Teyssou de l'AFP. Tout dépend notamment de la façon dont le détecteur a été entraîné : s'il a seulement travaillé sur des images en haute définition, il rencontrera des difficultés à reconnaître la marque de l'IA sur des images à la qualité dégradée.
Franceinfo a ainsi soumis à plusieurs détecteurs une image virale représentant une statuette des Oscars brûlée, qui avait beaucoup circulé pendant les incendies ayant ravagé Los Angeles. Ce qui semble être l'image originelle avait déjà été classée, lors de sa publication, comme artificielle par la modération du réseau social Reddit. Le site Is it AI? évalue à 81% la probabilité que ce même contenu soit "générée par IA", et cite la plateforme Midjourney comme "potentielle méthode" de génération.
Winston AI, un des détecteurs les plus populaires de la toile, est encore plus proche de la vérité, estimant à 92% la probabilité que l'image soit générée par une IA.
Mais lorsque franceinfo a soumis à cette même plateforme une capture d'écran de la même image, cette fois trouvée sur X, le résultat était diamétralement différent. La plateforme a estimé que l'origine était humaine à 99%. II s'agit donc d'un "faux négatif", probablement à cause de la qualité dégradée de l'image analysée.
Conscient des imperfections de ces détecteurs, Viginum, le service français de vigilance et de protection contre les ingérences numériques étrangères, et le PERen, pôle d'expertise de la régulation numérique, ont conjointement lancé fin janvier un appel à collaborations auprès du grand public afin de créer un "méta-détecteur" de contenus générés par IA, permettant d'évaluer les points forts et les points faibles de chacun.
À regarder
-
Sauvetage spectaculaire : hélitreuillé depuis l'Arc de triomphe
-
Retour de S. Lecornu : peut-il tenir ?
-
"Je ne l'ai pas tuée" : Cédric Jubillar réaffirme son innocence
-
Oeufs, à consommer sans modération ?
-
Ours : ils attaquent même dans les villes
-
Ce radar surveille le ciel français
-
On a enfin réussi à observer un électron !
-
"Manifestation des diplômés chômeurs, un concept marocain !"
-
Crise politique : "La dernière solution, c'est la démission du président de la République"
-
Le loup fait taire la Fête de la science
-
Les tentatives de suic*de en hausse chez les adolescentes
-
Défi chips : alerte dans un collège
-
Quand tu récupères ton tel à la fin des cours
-
Ukraine : le traumatisme dans la peau
-
Teddy Riner s'engage pour sensibiliser sur la santé mentale
-
Suspension de la réforme des retraites : les gagnants et les perdants
-
Ukraine : le traumatisme dans la peau
-
L'espoir renaît à Gaza après l'accord de cessez-le-feu
-
Une école pour se soigner et réussir
-
Taux immobiliers : est-ce le moment d'acheter ?
-
La panthéonisation de Robert Badinter
-
Cancer : des patientes de plus en plus jeunes
-
"Le Bétharram breton" : 3 établissements catholiques dénoncés par d'anciens élèves
-
Cessez-le-feu à Gaza : un premier pas vers la paix
-
Quand t'as cours au milieu des arbres
-
Il gravit la tour Eiffel en VTT et en 12 min
-
Pourquoi on parle de Robert Badinter aujourd'hui ?
-
Robert Badinter : une vie de combats
-
La tombe de Robert Badinter profanée à Bagneux
-
Accord Hamas-Israël, la joie et l’espoir
Commentaires
Connectez-vous ou créez votre espace franceinfo pour commenter.
Déjà un compte ? Se connecter