Comment réparer les préjudices économiques résultant d’un usage de l’IA ?

La cour d'appel de Paris publie une note pour expliquer le régime de responsabilité juridique des intelligences artificielles.

Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
La justice et l'intelligence artificielle : comment évaluer et réparer d'éventuels préjudices ? (J STUDIOS / DIGITAL VISION / GETTY IMAGES)
La justice et l'intelligence artificielle : comment évaluer et réparer d'éventuels préjudices ? (J STUDIOS / DIGITAL VISION / GETTY IMAGES)

On parle de confier de plus en plus de tâches à des intelligences artificielles. Mais comment se conçoit leur responsabilité juridique en cas de préjudices à des tiers ? La question a mobilisé une équipe pluridisciplinaire rassemblant des avocats, magistrats, experts financiers et universitaires sous l’égide du pôle économique de la cour d’appel de Paris.

Ces professionnels du droit ont mis en commun leur expertise afin de proposer une approche pratique, dès lors qu’il n’existe pas encore de jurisprudence conséquente et que les législations nationales sont appelées à encore évoluer. Notamment avec les étapes successives d’entrée en vigueur du Règlement européen sur l’Intelligence Artificielle. Ce qui explique que ce cadre juridique, et donc son interprétation, sont certainement loin d'être figés, d'autant que de nouvelles offres technologiques arrivent sur le marché.

Expliquer le droit applicable à l'IA

Cette analyse transverse prend la forme d’un document de synthèse accessible sur le site Internet de la Cour d’appel de Paris. Ce format est à la disposition de tous : concepteurs, utilisateurs ou clients d’un service d’intelligence artificielle.

Premier constat : la nécessité d'en finir avec une démarche d’autorégulation, où les acteurs du domaine édictent leurs propres règles, pour aller vers un régime plus classique de droit légiféré, régime initié par les États ou les instances comme l’Union européenne.

Second constat : sans nier les formidables opportunités en termes de progrès, de gains de productivité et de croissance que l’IA peut susciter, il est admis que cette technologie peut porter atteinte aux intérêts publics et aux droits fondamentaux des individus. Le préjudice causé peut-être tant matériel qu’immatériel, y compris physique, psychologique, sociétal ou économique. On est donc loin d’une adoption béate et naïve de cette machinerie numérique.

L'IA n'est évidemment pas une personne

On veillera à éviter une vision anthropomorphique de l’IA qui assimilerait l’intelligence artificielle à une personne, en la dotant d’une personnalité juridique (comme on peut le faire pour les personnes morales, telles les entreprises ou les associations). Pas question, donc, de mettre en cause la responsabilité "personnelle" d’un système d’IA. Les articles 25 et 26 du Règlement européen sur l’IA établissent bien les rôles et responsabilités respectifs entre le fabricant (désigné sous le terme de "fournisseur d’IA") et celui qui déploie cette mécanique algorithmique.

Il s’agit bien pour tous de comprendre comment défendre nos droits dans un environnement économique et même administratif de plus en plus irrigué par les systèmes d’intelligence artificielle. Systèmes qui peuvent ressembler à des "boîtes  noires" dont on ne perçoit pas aisément le fonctionnement.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.