Pédocriminalité : l’Europe face au vide juridique des images d’abus d’enfants créées par intelligence artificielle

L’Internet Watch Foundation alerte sur l’usage de l’intelligence artificielle pour générer des contenus pédocriminels, exposant un vide juridique sur les images fictives impliquant des enfants.

Article rédigé par Angélique Bouin
Radio France
Publié Mis à jour
Temps de lecture : 5min
En juillet 2025, une enquête précédente de l’IWF avait déjà permis de collecter près de 1 300 vidéos en ligne, générées par de l'IA(photo d'illustration). (THOMAS WINZ / PHOTODISC)
En juillet 2025, une enquête précédente de l’IWF avait déjà permis de collecter près de 1 300 vidéos en ligne, générées par de l'IA(photo d'illustration). (THOMAS WINZ / PHOTODISC)

L'association britannique IWF, spécialisée dans la lutte contre la diffusion en ligne de contenus pédocriminels, alerte sur l'apparition d'agents conversationnels offrant la possibilité à des pédocriminels de générer les scénarios les plus abjects mettant en scène des enfants. L'essor de l'IA dans le domaine des violences sexuelles sur des enfants est une préoccupation majeure des associations de défense de l'enfance. Une directive européenne en cours de négociation à Bruxelles doit permettre de légiférer, mais la nature fictive des images pose un débat juridique.

Les analystes de l’Internet Watch Foundation (IWF) déclarent avoir identifié des contenus pédocriminels liés à des agents conversationnels. À première vue, le site étudié par l'association propose aux utilisateurs d'interagir pour visionner des contenus légaux, mais derrière cette façade se cache un canal confidentiel où sont diffusées des images de violences sexuelles sur des enfants, entièrement générées par intelligence artificielle. Le catalogue proposé met en scène des scénarios d’une extrême violence. 

Le site web étudié offre aux utilisateurs un temps de chat gratuit et limité avant de leur proposer un abonnement payant pour avoir un accès illimité aux personnages du chatbot IA. Les appels vocaux avec les chatbots sont annoncés comme étant "bientôt disponibles", souligne IWF.

"Malheureusement, nous constatons que les avancées rapides de l'intelligence artificielle sont systématiquement exploitées par les criminels à des fins malveillantes", explique Kerry Smith, Directrice générale de l’IWF pour qui "il est donc essentiel que toutes les formes d’abus sexuel d’enfants en ligne soient sanctionnées et poursuivies, quel que soit le mode de production ou le lieu de diffusion".

En juillet 2025, une enquête précédente de l’IWF avait déjà permis de collecter près de 1 300 vidéos en ligne, générées par de l'IA dont une large majorité montrait des viols, des tortures sexuelles ou encore des scènes de bestialité.

Un vide juridique débattu à Bruxelles

Cette irruption de l’intelligence artificielle dans le domaine de la pédocriminalité bouleverse le droit. Peut-on criminaliser la consommation d’images abominables mais fictives, qui ne mettent pas en scène de vrais enfants ? La question est actuellement discutée dans le cadre de la révision d’une directive européenne.

Les eurodéputés affichent une position claire, il faut criminaliser ces contenus, mais les représentants des États membres restent divisés. À ce stade précoce des négociations, les associations européennes de protection de l’enfance craignent un manque d’harmonisation, laissant aux législations nationales la décision d’interdire ou non ces images.

Dans sa forme actuelle, le texte pourrait conduire à ce que, dans certains États membres, la possession à des fins "d'usage personnel" de contenus générés par l'IA ne soit pas considérée comme une infraction, sauf si ces pays adoptent des règles nationales plus strictes, affirme dans un communiqué IWF.

Les associations mettent en garde contre la banalisation

"L'Union européenne est à un moment charnière et aura, dans les prochaines semaines, l'occasion de se positionner en tant que leader, aux côtés du Royaume-Uni, de la lutte contre ce fléau", explique de son côté Angèle Lefranc, chargée de plaidoyer à la Fondation pour l’Enfance. "Nous demandons également au Conseil de l’Union européenne de reconnaître de manière inconditionnelle que la pédocriminalité générée par l'IA est un crime". 

La Fondation pour l’Enfance s’oppose fermement à l’idée selon laquelle visionner des contenus fictifs pourrait être une alternative moins grave à la consultation d’images réelles. "Une personne qui consulte des images pédopornographiques peut ne jamais passer à l'acte", rappelle Angèle Lefranc, "mais toutes les personnes poursuivies après avoir agressé des enfants avaient visionné ce type de contenus par le passé."

Les défenseurs de l’enfance rappellent tous que la consultation de ces vidéos peut contribuer à banaliser les violences sexuelles sur mineurs. L’IWF souligne également que certaines IA ont été entraînées à partir d’images réelles d’abus, aggravant le problème.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.