Intelligence artificielle : une ONG américaine recommande l'interdiction des compagnons virtuels aux mineurs

Selon Common Sense, les compagnons IA "sont conçus pour créer un attachement et une dépendance émotionnels, ce qui est particulièrement préoccupant pour des adolescents dont le cerveau est en développement".

Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 2min
Un chatbot personnel d'intelligence artificielle, connu sous le nom de Replika, à Varsovie, en Pologne, le 22 juillet 2023. (JAAP ARRIENS / NURPHOTO / AFP)
Un chatbot personnel d'intelligence artificielle, connu sous le nom de Replika, à Varsovie, en Pologne, le 22 juillet 2023. (JAAP ARRIENS / NURPHOTO / AFP)

Conseils dangereux, manipulation, dépendance... L'ONG américaine Common Sense recommande d'interdire aux mineurs les compagnons virtuels appuyés sur l'intelligence artificielle (IA) générative, dans une étude réalisée en collaboration avec des experts en santé mentale de l'université de Stanford (Californie) et publiée mercredi 30 avril. Plusieurs start-up ont lancé, ces dernières années, des interfaces axées sur l'échange et le contact avec des compagnons IA, façonnables selon ses goûts et ses besoins.

Common Sense en a testé plusieurs (Nomi, Character AI et Replika) pour évaluer leurs réponses. Si certains de leurs usages "sont prometteurs", "ils ne sont pas sûrs pour les enfants", affirme l'organisation, qui fait des recommandations sur la consommation de contenus et produits technologiques par les enfants.

"Une crise de santé publique"

Pour Common Sense, les compagnons IA "sont conçus pour créer un attachement et une dépendance émotionnels, ce qui est particulièrement préoccupant pour des adolescents dont le cerveau est en développement". Les tests menés montrent, selon l'association, que ces chatbots de nouvelle génération "proposent des réponses nocives" et des "'conseils' dangereux". Parmi les exemples cités par l'étude, celui d'un utilisateur à qui un compagnon de la plateforme Character AI conseille de tuer quelqu'un, ou un autre en recherche d'émotions fortes qui se voit suggérer de prendre une "speedball", mélange de cocaïne et d'héroïne.

"Ceci est une crise de santé publique, qui nécessite une action préventive et pas seulement des mesures réactives", a déclaré Nina Vasan, responsable du laboratoire Stanford Brainstorm, qui travaille à l'intersection entre santé mentale et technologie. En octobre, une mère a assigné en justice Character AI, accusant l'un de ses compagnons d'avoir contribué au suicide de son fils de 14 ans, faute de l'avoir clairement dissuadé de passer à l'acte.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.