17/02/2025 : ATTENTION :Cette news n’est déjà plus d’actualité. Le 11 février 2025, la Commission européenne a annoncé le retrait des projets de Directive sur la responsabilité liée à l’IA. Cette annonce se comprend dans le cadre des relations de plus en plus complexes avec les USA. Elle vise notamment à limiter le « chilling effect » d’une régulation trop stricte sur l’IA, afin de favoriser le développement économique lié à ce secteur. Restez informé à ce sujet sur nos plateformes de réseaux sociaux, sur notre site web et surtout participez à notre earlegal ! |
Cet article examine la question de la responsabilité civile dans le contexte de l’intelligence artificielle (IA), avec un éclairage particulier sur la situation en Belgique.
Le cadre européen de la responsabilité en matière d’IA
Au niveau européen, le règlement sur l’IA (AI Act) met l’accent sur les obligations de conformité des acteurs de la chaîne de valeur, tout en restant relativement silencieux sur la question de la responsabilité civile. Deux directives européennes visent toutefois à combler ce vide juridique : la directive sur la responsabilité du fait des produits (Product Liability Directive, PLD) et la directive sur la responsabilité liée à l’IA (AI Liability Directive, AILD).
La responsabilité du fait des produits et la responsabilité pour faute
La PLD instaure une responsabilité stricte pour les fabricants, élargit les types de dommages indemnisables et limite les moyens de défense des professionnels, renforçant ainsi la protection des consommateurs. De son côté, l’AILD repose sur une approche classique de la responsabilité pour faute, tout en introduisant des mécanismes facilitant la preuve du lien de causalité et imposant des obligations en matière de conservation des preuves.
La situation en Belgique : un cadre juridique encore en construction
En Belgique, aucune législation spécifique à l’IA n’existe encore. Cependant, la neutralité technologique des lois en vigueur permet d’aborder ces problématiques dans le cadre juridique actuel. Bien que peu d’affaires concrètes aient été rapportées dans le pays, certains épisodes notables méritent d’être mentionnés : l’usage controversé de ChatGPT dans le milieu universitaire ou encore un incident tragique impliquant un outil d’IA à visée psychanalytique. Pour l’instant, l’IA reste largement un argument marketing sur le marché belge, son adoption ayant (encore) un impact limité sur la vie quotidienne.
Les enjeux juridiques du non-usage de l’IA
Au-delà des cas de responsabilité liés à l’usage de l’IA, il convient de considérer également les conséquences juridiques potentielles de son non-usage. En effet, des professionnels pourraient être tenus responsables s’ils négligent d’utiliser des outils reconnus comme des références techniques ou ignorent les recommandations issues de systèmes basés sur l’IA. À titre d’exemple, un radiologue omettant de recourir à un dispositif de diagnostic intégré pourrait engager sa responsabilité professionnelle.
Notre conseil :
Ainsi, bien que le droit européen s’adapte progressivement aux spécificités de l’IA, les cadres juridiques nationaux, comme en Belgique, restent opérationnels. Néanmoins, les défis pratiques demeurent conséquents, en particulier en ce qui concerne la collecte des preuves et l’expertise technique.
Enfin, l’intégration généralisée d’outils d’IA performants dans diverses professions pourrait, à terme, générer de nouveaux cas de responsabilité, qu’il s’agisse d’erreurs dans leur utilisation ou du refus d’y recourir.