De spectaculaire ontwikkeling van artificiële intelligentie (AI)-systemen roept een aantal maatschappelijke en juridische vragen op. De kwestie van aansprakelijkheid in geval van schade veroorzaakt door een AI-systeem is hier een goed voorbeeld van.
Om hier zo goed mogelijk op in te spelen, heeft de Europese Commissie twee voorstellen voor richtlijnen gepresenteerd:
- de Richtlijn over de aansprakelijkheid inzake AI ;
- la hervorming van de Richtlijn betreffende de aansprakelijkheid voor producten met gebreken.
Wat zijn de belangrijkste kenmerken van de richtlijn over aansprakelijkheid op het gebied van AI ?
Ten eerste geeft de richtlijn elk slachtoffer van schade die is veroorzaakt door een AI-systeem met een hoog risico het recht op toegang tot bewijsmateriaal bij de betrokken onderneming (AI-aanbieder of -gebruiker, afhankelijk van het geval).
Deze maatregel is bedoeld om het risico te vermijden dat sommige slachtoffers worden ontmoedigd om een aansprakelijkheidsvordering in te stellen omdat het, gezien de complexiteit van bepaalde AI-systemen, moeilijk is om de schuld van de AI-aanbieder of -gebruiker aan te tonen.
Ten tweede wordt de bewijslast voor het slachtoffer verlicht dankzij de invoering van een vermoeden van causaliteit wanneer de fout is vastgesteld en het oorzakelijk verband tussen deze fout en de schade voldoende aannemelijk lijkt.
Wat zijn de belangrijkste wijzigingen in de Richtlijn Productaansprakelijkheid?
Om het bestaande juridisch kader aan te passen aan de specifieke kenmerken van AI heeft de Europese Commissie met name de volgende wijzigingen voorgesteld:
- software, AI-systemen en producten waarin AI is verwerkt, worden nu uitdrukkelijk “producten” genoemd;
- Slachtoffers hebben een recht op toegang tot bewijsmateriaal dat vergelijkbaar is met het recht waarin de voorgestelde richtlijn inzake aansprakelijkheid op het gebied van AI voorziet;
- Weigering om de gevraagde bewijselementen te leveren leidt tot een vermoeden dat het product gebrekkig is;
- Een dubbel vermoeden (gebrekkigheid en oorzakelijk verband) kan ook worden toegepast als het slachtoffer voldoende relevant bewijsmateriaal heeft verstrekt;
- Fabrikanten kunnen aansprakelijk worden gesteld voor wijzigingen die zij aanbrengen aan producten die zij al op de markt hebben gebracht (bijvoorbeeld via updates of door automatisch AI-leren);
- aanbieders van software of digitale diensten die de werking van een product beïnvloeden, kunnen ook aansprakelijk worden gesteld.
Ons advies:
Deze voorstellen van richtlijn zijn de eerste juridische instrumenten die tot op zekere hoogte de nationale aansprakelijkheidsregels bij schade door AI harmoniseren.
Bij AI-projecten moet rekening worden gehouden met deze nieuwe regels, zodat in contracten en projectmanagementmethoden kan worden geanticipeerd op de verplichtingen en risico’s die ze met zich meebrengen.
Als u meer wilt weten over dit toekomstige juridische kader, aarzel dan niet om u in te schrijven voor onze opleiding earlegal – IA en plein essor : réinventer le droit pour un cadre adapté ?
De advocaten van het departement Creactivity staan te uwer beschikking om u te adviseren voor elk project met betrekking tot een AI-systeem.