Le développement spectaculaire des systèmes d’intelligence artificielle (IA) suscite divers questionnements sociétaux et juridiques. La problématique de la responsabilité en cas de préjudice causé par une IA en constitue un bon exemple.
Afin de répondre au mieux à cette problématique, la Commission européenne a présenté deux propositions de directive :
- la Directive sur la responsabilité en matière d’IA ;
- la réforme de la Directive relative à la responsabilité du fait des produits défectueux.
Quels sont les éléments principaux apportés par la Directive sur la responsabilité en matière d’IA ?
Premièrement, la directive donne le droit à toute victime d’un dommage causé par un système d’IA à haut risque d’accéder aux éléments de preuve auprès de l’entreprise pertinente (fournisseur ou utilisateur d’IA selon le cas d’espèce).
Cette mesure vise à éviter le risque que certaines victimes soient découragées d’introduire une action en responsabilité face à la difficulté de démontrer la faute du fournisseur ou de l’utilisateur d’IA, compte tenu de la complexité de certains systèmes d’IA.
Deuxièmement, la charge de la preuve de la victime est allégée grâce à la mise en place d’une présomption de causalité lorsque la faute est établie et que le lien causal entre cette faute et le dommage semble suffisamment plausible.
Quelles sont les changements majeurs de la Directive relative à la responsabilité du fait des produits défectueux ?
Afin d’adapter le cadre juridique existant aux particularités de l’IA, la Commission européenne a notamment proposé les modifications suivantes :
- les logiciels, les systèmes d’IA et les produits au sein desquels une IA est incorporée sont désormais expressément désignés comme des « produits» ;
- les victimes disposent d’un droit d’accès aux éléments de preuve similaire à ce qui est prévu dans la proposition de Directive sur la responsabilité en matière d’IA ;
- le refus de fournir les éléments de preuves demandés entraine une présomption de défectuosité du produit ;
- une double présomption (défectuosité et lien causal) peut également être appliquée si la victime a fourni des éléments de preuve suffisamment pertinents ;
- les fabricants peuvent être considérés comme responsables des modifications qu’ils apportent aux produits qu’ils ont déjà mis sur le marché (par exemple via des mises à jour ou par apprentissage automatique de l’IA) ;
- les fournisseurs de logiciels ou de services numériques qui influent sur le fonctionnement d’un produit peuvent également être tenus pour responsables ;
Unsere Empfehlung:
Ces propositions de directive sont les premiers instruments légaux visant à harmoniser, dans une certaine mesure, les règles nationales de responsabilité en cas de préjudice causé par une IA.
Ces nouvelles règles doivent être prises en compte dans les projets reposant sur l’IA, afin d’anticiper dans les contrats et les méthodes de gestion des projets les contraintes et risques qu’elles comportent.
Si vous souhaitez en apprendre davantage sur ce cadre juridique futur, n’hésitez pas à vous inscrire à notre formation de ce vendredi 22 mars earlegal – IA en plein essor : réinventer le droit pour un cadre adapté ?
Les avocats du département Creactivity de Lexing se tiennent à votre disposition pour vous conseiller pour tout projet relatif à un système d’IA.