:
Podcast
Deepfakes, quand l'IA cherche à nous désinformer
L'intelligence artificielle générative a ouvert une nouvelle ère de désinformation avec la prolifération de deepfakes et de voix clonées. Comment sont-ils utilisés pour alimenter des campagnes de désinformation, notamment dans un contexte électoral ?
/2023/07/07/64a7df4c5fe71_placeholder-36b69ec8.png)
/2025/04/03/obama-67ee9f654481b007595725.jpg)
Barack Obama insultant Donald Trump dans une vidéo vue des millions de fois… c'était en 2018.. Le premier deepfake "grand public" était à l'époque devenu viral et mettait en lumière le phénomène. Depuis, des campagnes de désinformation à grande échelle utilisent l'intelligence artificielle pour tromper les internautes, comme cette fausse allocution du président ukrainien Volodymyr Zelensky annonçant sa défaite face à l'armée russe, ou encore ce deepfake imitant l'ex-Premier ministre Michel Barnier tenant des propos qu'il n'a jamais prononcés.
La démocratisation des outils de génération audio par l'IA générative a considérablement accéléré la production de ces contenus trompeurs, rendant leur identification de plus en plus ardue. Cette intensification des deepfakes est aussi liée à l'année 2024 qualifiée d'historique en raison du grand nombre d'élections à travers le monde. La crainte de manipulations de l'opinion publique via la diffusion massive de ces contenus synthétiques par des acteurs nationaux ou étrangers est devenue palpable. Bien que les risques ne soient pas nouveaux, comme l'a illustré le scandale Cambridge Analytica en 2016, la facilité croissante de production de contenus synthétiques réalistes à grande échelle, notamment des images, amplifie considérablement ces dangers pour l'intégrité des scrutins et la stabilité des démocraties. Des enquêtes ont d'ailleurs révélé une présence significative de désinformation et d'images générées par IA lors des élections françaises et européennes de 2024, souvent sans mention de leur origine artificielle.
L'IA au service de la désinformation
Si le phénomène n'a pas atteint l'ampleur redoutée en 2023, la vigilance reste de mise face à son évolution. Les objectifs de la diffusion de deepfakes sont multiples : nuire à la réputation de candidats politiques, capter l'attention en diffusant des images fortes et orienter le débat public. Le recours aux deepfakes vient s'ajouter à des stratégies d'influence plus classiques telles que les campagnes d'amplification artificielle et l'astroturfing, une technique visant à simuler un soutien populaire massif sur un sujet en coordonnant un grand volume de publications par un petit nombre de comptes. L'IA générative amplifie la productivité de ces campagnes en permettant de produire des contenus plus nombreux, plus crédibles et mieux adaptés à différentes cibles, tout en facilitant la création de faux profils et l'automatisation de leur activité.
Les impacts à long terme sont également préoccupants. La diffusion de deepfakes à caractère sexuel pourrait dissuader les femmes politiques et journalistes de participer au débat public. On observe également une multiplication de "médias synthétiques" non fiables générés par l'IA, avec plus de 1200 sites recensés par l'AI Tracking Center de NewsGuard. En France, une enquête a révélé l'existence d'au moins 1000 sites web d'information générés par intelligence artificielle. Cette prolifération risque d'éroder la confiance des citoyens dans l'information et pourrait même conduire à un scepticisme généralisé quant à notre perception de la réalité.
Les "voice fakes", plus difficiles encore à détecter
Dans le domaine spécifique des "voice fakes", l'imitation de voix grâce à l'IA s'améliore constamment et constitue une arme de désinformation puissante. Des exemples concrets incluent l'imitation de personnalités politiques comme Emmanuel Macron en 2021 pour tenter de manipuler des dirigeants d'entreprise, ou celle de l'ancien Premier ministre britannique David Cameron en 2017 pour diffuser de fausses informations. L'efficacité des voice fakes réside dans la facilité avec laquelle une voix peut être reproduite à partir de quelques dizaines de secondes d'enregistrement. Ces clones vocaux sont extrêmement difficiles à détecter à l'oreille humaine car ils imitent fidèlement la prosodie, les accents et les intonations. La démonstration en direct de voix générées par l'IA via le logiciel Eleven Labs a illustré de manière convaincante cette réalité.
Si la détection humaine est complexe, l'intelligence artificielle elle-même peut être mobilisée pour identifier ces faux contenus. Des logiciels basés sur l'IA sont capables de repérer des caractéristiques perceptibles ou cachées dans les deepfakes, que ce soit de l'audio, de la vidéo ou de l'image. Cependant, l'efficacité des deepfakes ne repose pas uniquement sur la technologie de production, mais aussi sur leur capacité à jouer avec nos émotions et à exploiter les algorithmes de recommandation et les techniques de personnalisation pour cibler efficacement les individus.
Viginum, un rempart contre les ingérences numériques
Face à ces défis, des mesures de protection sont mises en place. Pour les assistants vocaux virtuels, une obligation légale impose désormais d'informer l'utilisateur de son interaction avec une machine, explique Katya Lainé, directrice de Talkr.ai, un éditeur d'assistants vocaux pour les entreprises. Le marquage des productions générées par IA est également une piste, bien que son application puisse être limitée. En France, le service Viginum est spécifiquement chargé de la vigilance et de la protection contre les ingérences numériques étrangères utilisant notamment l'IA générative. Viginum se concentre sur la détection de manœuvres étrangères visant à nuire aux intérêts de la nation par des contenus trompeurs et des dynamiques artificielles. Jean Cattan, secrétaire général du Conseil du numérique, explique comment l'outil 3 Delta, développé par Viginum, permet de détecter la duplication de contenus artificiels, et sa mise à disposition en open source, favorisant une démarche collective de détection.
Malgré ces efforts, la menace demeure importante et une action coordonnée au niveau international est nécessaire. Au-delà des solutions techniques, il est crucial de renforcer l'information et la sensibilisation du public face à ces usages problématiques de l'IA.
"Les voies de l'IA", un podcast original franceinfo, en partenariat avec l'Observatoire de l'intelligence artificielle de l'université Paris 1 Panthéon-Sorbonne et Sorbonne TV. Une production du studio Radio France et de Sorbonne TV, avec le soutien financier des projets Sorb'Rising et UNA Europa financés par l'ANR dans le cadre de France 2030. Un podcast à retrouver sur le site de franceinfo, l'application Radio France, Sorbonne TV, et plusieurs autres plateformes comme Apple podcasts, Podcast Addict, Spotify, ou Deezer.
Production : Pauline Pennanec'h, Célia Zolynski, Camille Salinesi, Margaux Debosque Trubert, Lydie Rollin-Jenouvrier | Technique : Cédric Châtelus | Réalisation : Marie Plaçais | Mixage : Manon Houssin
À regarder
-
Avions : quand des batteries prennent feu
-
Affaire Epstein : le prince Andrew renonce à son titre royal
-
Grandir à tout prix
-
Cédric Jubillar : 30 ans de prison pour meurtre
-
Mal de dos : comment le soigner
-
Faire des têtes au foot, c'est stylé, mais...
-
En Chine, le plus haut pont du monde est devenu une attraction touristique
-
Quand t’es collé en forêt
-
À Marseille, la Bonne Mère retrouve sa couronne
-
Meurtre de Lola : ce qu’il s’est passé
-
Chili : un miracle dans le désert
-
Faux diplômes : tricher pour se faire embaucher
-
Vignes : des algues pour remplacer les pesticides
-
Du Maroc au Népal, en passant par Madagascar, la génération Z structure ses luttes sur Discord
-
À Londres, le café c'est dans les toilettes
-
De la propagande russe dans nos infos locales
-
Ordures ménagères : une taxe toujours plus chère
-
Temu, Shein... ça va coûter plus cher ?
-
C'est très compliqué dès qu'on parle de la France
-
Départ anticipé d’E. Macron : “La seule décision digne qui permet d’éviter 18 mois de crise”
-
Donald Trump : le Venezuela dans sa ligne de mire
-
Hommage à Samuel Paty : des minutes de silence "inutiles" pour sa sœur.
-
Avion low cost : payer pour incliner son siège
-
Otages français en Iran : l'appel de détresse de leurs familles
-
Cédric Jubillar : ses défenseurs passent à l'attaque
-
Salomé Zourabichvili : "La Russie utilise la Géorgie comme test"
-
Se faire recruter dans l’armée par tirage au sort ?
-
La détresse de Cécile Kohler et Jacques Paris, otages en Iran
-
Le fléau des courses-poursuites à Los Angeles
-
Se soigner risque-t-il de coûter plus cher ?
Commentaires
Connectez-vous ou créez votre espace franceinfo pour commenter.
Déjà un compte ? Se connecter