Cybercrime : que doit-on craindre de l’usage de l’intelligence artificielle ?

Des campagnes de désinformation, des opérations d'usurpation d'identité et la composition de logiciels malveillants représentent les principales utilisations de l'intelligence artificielle par les cybercriminels.

Article rédigé par franceinfo, Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
Certains pirates s'appuient sur ChatGPT pour identifier des bugs. (MATTJEACOCK / DIGITAL VISION VECTORS)
Certains pirates s'appuient sur ChatGPT pour identifier des bugs. (MATTJEACOCK / DIGITAL VISION VECTORS)

À l’instar des entrepreneurs, les criminels cherchent à optimiser leurs gains et à réduire leurs risques. Il a fallu attendre un peu - non pas pour que les personnes malveillantes utilisent l’intelligence artificielle mais - pour identifier leurs pratiques et les caractériser. Un rapport publié mi-juin 2025 par OpenAI, la maison mère de ChatGPT, nous éclaire sur leurs principaux modes opératoires.

Pollution informationnelle

Pour commencer, il s’agit pour les fraudeurs d’intervenir massivement sur les réseaux sociaux. Avec la génération automatisée de grandes quantités de profils destinés à créer des campagnes de soutien ou de dénigrement. Il s’agit de donner le sentiment qu’un mouvement spontané vient dénoncer telle politique ou au contraire saluer telle prise de position. À ce jeu, les États sont aussi à la manœuvre. Ainsi, OpenAI désigne la Chine comme étant le commanditaire de publications fabriquées par des algorithmes pour, par exemple, critiquer Taiwan ou commenter abondamment la fermeture du programme humanitaire US Aid par les États-Unis. Avec des versions produites en chinois, anglais et en ourdou, la langue parlée au Pakistan.

Il ne s’agit pas tant d’intéresser un grand nombre de lecteurs ou de susciter des réactions et des partages que de saturer l’espace informationnel. D’autres opérations de pollution du débat public ont été documentées comme étant d’origine russe contre l’OTAN et les autorités allemandes. C’est le cas également en Iran ou aux Philippines.

À chaque fois, OpenAI annonce avoir clos les comptes ayant servi à concevoir ces publications.

De la programmation malveillante

Des utilisateurs passaient commande de formules de code informatique pour élaborer des outils de piratage. Par exemple, pour écrire des programmes permettant de tester à grande échelle des séries de mots de passe afin de tenter d’accéder par effraction à des comptes de particuliers sur des sites Internet, ou élaborer des moyens de s’introduire dans des systèmes d’information intégrant des points de faiblesse technique, certains pirates s’appuyant aussi sur ChatGPT pour identifier les défauts (bugs) qui fragilisaient leurs logiciels d’attaque.

Cibler les réseaux sociaux

ChatGPT est mis à contribution pour éditer à l’envi des CV sur les réseaux sociaux professionnels. Le but est d’entrer en contact sous ces fausses identités avec des personnes en poste dans des administrations ou des entreprises ciblées.

Soit pour collecter des informations ou profiter d’une prise de contact pour leur adresser un message contenant une pièce jointe comportant un virus informatique. C’est aussi le moyen de postuler à des emplois stratégiques, souvent en télétravail. Afin d’accéder à des postes permettant ensuite d’infiltrer une société ou de capter des renseignements sensibles. La Corée du Nord semble une habituée de ce type de pratiques.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.