Het nieuwe regelgevende kader voor artificiële intelligentie is in de maak. Wacht niet tot uw concurrenten het doen: anticipeer op de nieuwe wettelijke verplichtingen en behaal een concurrentievoordeel!
Artificiële intelligentie heeft haar potentiële bijdrage op veel gebieden van menselijke activiteit bewezen, door winst in efficiëntie, door het aanbod van innovatieve oplossingen of verbeteringen in de kwaliteit van bestaande producten of diensten (met name door een meer gedetailleerde analyse van de behoeften en verwachtingen van de klant), en een betere optimalisatie van het beheer (met name van projecten). Artificiële intelligentie kan dus een hefboom zijn voor groei voor de ondernemingen die er gebruik van maken. Ze kan ook nieuwe kansen creëren door teams te bevrijden van repetitieve taken.
Hoewel de voordelen van artificiële intelligentie dus niet meer hoeven te worden aangetoond, is de kracht van deze nieuwe technologie een reden tot bezorgdheid en stellen zich veel vragen: transparantie, traceerbaarheid, controle van leren en ontwikkelingen door gegevens, betrouwbaarheid, vooringenomenheid, veiligheid en vertrouwelijkheid…
Dit zijn allemaal legitieme vragen die zijn versterkt door het succes van ChatGPT, maar ook door de media-aandacht voor bepaalde vormen van misbruik van deze tools.
Als antwoord op deze vragen en angsten zijn meerdere belangrijke wetgevingsinitiatieven gelanceerd, waarbij Europa een pionier is op dit gebied. Het doel van de Europese wetgever is om het gebruik van artificiële intelligentie te reguleren, zodat op AI gebaseerde oplossingen en hulpmiddelen worden ontwikkeld en gebruikt in overeenstemming met de waarden van de Europese Unie en zodat duidelijke verantwoordelijkheidsbeginselen het vertrouwen van de gebruikers kunnen waarborgen.
De pijlers van deze regulering van artificiële intelligentie zijn :
- De Europese verordening betreffende AI (AI Act) (1) ;
- De Europese richtlijn betreffende de aansprakelijkheid inzake AI (2) ;
- Herziening van de richtlijn betreffende de aansprakelijkheid voor producten met gebreken (3).
Het wettelijke kader voor artificiële intelligentie omvat tal van verplichtingen en regels waarmee al in de beginfase van een AI-project rekening moet worden gehouden om ervoor te zorgen dat het AI-systeem conform wordt ontworpen en om latere wijzigingen te vermijden. Het identificeren van de punten waarop wordt voldaan aan de Europese AI-verordening is daarom een cruciale fase in AI-projecten. Op dezelfde manier zorgt het identificeren van contractuele risico’s voor de rechtszekerheid van een project en de daaropvolgende exploitatie van de resultaten. De combinatie van deze twee elementen maakt het mogelijk om de toepasselijke verplichtingen en de elementen die moeten worden opgenomen in de contracten voor de implementatie van een AI-oplossing te inventariseren.
Anticiperen op deze wettelijke en contractuele verplichtingen helpt om latere wijzigingen en vertragingen te voorkomen en zorgt ervoor dat al in de ontwerpfase aan de eisen wordt voldaan. Dit is een belangrijk concurrentievoordeel op een gebied waar deadlines cruciaal zijn.
Dankzij haar erkende expertise in innovatie- en technologierecht heeft Lexing tools ontwikkeld om ondernemingen te ondersteunen bij hun projecten op het gebied van artificiële intelligentie:
- opleidingsmateriaal voor AI-projectteams
- hulpmiddelen om de toepasselijke regels te identificeren;
- een reeks oplossingen om de integratie van reglementaire verplichtingen in projecten en de bijbehorende juridische documenten (praktische fiches, modelclausules, enz.) te vergemakkelijken.
Als u op zoek bent naar een betrouwbare juridische partner om uw AI-projecten te ondersteunen, neem dan contact op met het Lexing-team!
De AI-Verordening wil een kader bieden voor het op de Europese markt brengen van AI-systemen.
Het doel is tweeledig. Enerzijds specifieke verplichtingen opleggen aan de verschillende operatoren in de AI-keten (aanbieders, gebruikers, importeurs of distributeurs) om de gezondheid en veiligheid van gebruikers te waarborgen. Anderzijds AI-systemen promoten die voldoen aan de waarden van de Europese Unie, en in het bijzonder om ervoor te zorgen dat de grondrechten die zijn vastgelegd in het Europees Handvest voor de Rechten van de Mens worden gerespecteerd.
Overzicht van de structuur van de Verordening
De AI-verordening is gebaseerd op een risicobeheerbenadering van het gebruik van AI. Afhankelijk van de mate van risico worden AI-systemen ingedeeld in verschillende categorieën waarvoor verschillende verplichtingen gelden. Hoe hoger de risico’s van een AI-systeem, hoe strenger de verplichtingen waaraan het moet voldoen.
Sommige toepassingen van AI zijn ook volledig verboden, zoals systemen die subliminale technieken gebruiken om te misleiden of systemen die misbruik maken van de kwetsbaarheid van mensen.
AI-systemen met een hoog risico zijn daarentegen onderworpen aan de strengste regels. Voor de aanbieder van zo’n AI-systeem gaat het vooral om verplichtingen met betrekking tot :
- de implementatie van een risicobeheersysteem dat een alomvattend beleid beschrijft (identificatie van risico’s, beoordeling, behandeling van risico’s, beheer van eventuele restrisico’s), evenals een kwaliteitscontrolesysteem;
- de ontwikkeling van een gegevensbeheerbeleid om de kwaliteit te waarborgen van de gegevens die worden gebruikt bij de ontwikkeling en training van AI-modellen;
- het opzetten van logsystemen om het gebruik van AI gedurende de levenscyclus te monitoren;
- het ontwerp van AI-instrumenten om een niveau van betrouwbaarheid en cyberbeveiliging te waarborgen dat past bij het beoogde gebruik ervan;
- de verstrekking van volledige documentatie over het AI-systeem en de conformiteit ervan met de eisen van de AI-verordening, met een eis tot transparantie ten aanzien van gebruikers (om ervoor te zorgen dat zij volledig op de hoogte zijn van de mogelijkheden en prestaties van het AI-instrument dat zij gebruiken, en om hen aan te geven hoe zij menselijke controle over het gebruik ervan kunnen waarborgen).
Naast het onderscheid op basis van het type AI-systeem, introduceert de verordening ook een onderscheid op basis van de rol van de speler in de ontwikkelings-/exploitatieketen van het AI-systeem. Hoe nauwer de rol verbonden is met het ontwerp en de configuratie van het instrument, hoe zwaarder de verplichtingen zullen zijn. De aanbieder van het AI-systeem wordt logischerwijs het meest blootgesteld aan de verplichtingen van de Verordening.
Het belang van de kwalificatie van het AI-systeem
De vaststelling van regels die zijn aangepast aan het risiconiveau, en dus aan elk type AI-systeem, maakt de vraag naar de kwalificatie van het AI-systeem binnen deze risicoschaal cruciaal.
Om te anticiperen op de tenuitvoerlegging van de AI-verordening moet de aard van elk AI-instrument dus zorgvuldig worden beoordeeld om te bepalen aan welke regels het moet voldoen.
Zo wordt een AI-systeem dat bedoeld is om als veiligheidscomponent van een product te worden gebruikt of dat zelf een product is waarvoor een conformiteitsbeoordeling door een derde partij op basis van EU-harmonisatiewetgeving vereist is (bijvoorbeeld medische hulpmiddelen), als een “hoog risico” beschouwd.
Bijlage III van de AI-verordening bevat een lijst van systemen die als hoog risico worden beschouwd.
De identificatie van de rol
De AI-verordening gebruikt een tweede beoordelingscriterium ter classificatie, gebaseerd op de rol van de actoren binnen de AI-keten. Deze classificatie is complementair aan de classificatie op basis van de aard van het AI-systeem. Het is daarom essentieel om de wettelijke kwalificatie die moet worden verbonden aan elke deelnemer aan een project gelinkt aan een AI-systeem, correct te beoordelen.
De aanbieder is bijvoorbeeld de persoon die een AI-systeem ontwikkelt (of namens hem door een derde laat ontwikkelen) en het in zijn naam en voor zijn rekening op de markt brengt. Elk project dat geheel of gedeeltelijk is gebaseerd op het gebruik van AI-systemen moet daarom de samenwerkingsafspraken tussen de deelnemers controleren om ervoor te zorgen dat de rollen die onder de AI-verordening vallen correct worden geïdentificeerd. Deze kwalificatie van rollen maakt het mogelijk om de toepasselijke verplichtingen vast te stellen en deze vervolgens te kunnen opnemen in de contracten waarin het project wordt georganiseerd.
Parallel aan de voorgestelde verordening over AI heeft de Europese Commissie een nieuwe richtlijn over aansprakelijkheid op het gebied van AI voorgesteld.Het doel is om het vertrouwen van gebruikers van AI-systemen te versterken door geharmoniseerde regels op te stellen voor de vergoeding van schade die wordt veroorzaakt door AI-systemen en door het voor slachtoffers eenvoudiger te maken om een civiele schadevergoeding te eisen.
De moeilijkheid om een fout en een oorzakelijk verband vast te stellen bij technisch complexe systemen vormt een belemmering voor de wijdverspreide toepassing van AI-systemen.
Het voorstel voor een richtlijn is daarom opgebouwd rond twee hoofdbeginselen: rechtsmiddelen vereenvoudigen door de bewijslast te verlichten via een vermoeden van causaliteit. Het waarborgt ook de toegang tot de technische informatie die nodig is om een fout vast te stellen, door specifieke verplichtingen op te leggen aan aanbieders van AI-systemen.
Het vermoeden van causaliteit
Aangezien het in de praktijk vaak moeilijk is om het verband te bewijzen tussen een fout en het gebruik van een technisch instrument zoals een AI-systeem, voert het voorstel van richtlijn een vermoeden van causaal verband in zodra de fout bewezen is en het verband tussen deze fout en de schade redelijk aannemelijk lijkt. Hierdoor wordt de bewijslast voor het slachtoffer vereenvoudigd, aangezien hij of zij niet meer in detail hoeft aan te tonen hoe de schade is veroorzaakt door een fout van de AI-aanbieder of -gebruiker.
De toegang tot bewijselementen door het slachtoffer
Het bewijs van een fout vereist de analyse van technische gegevens die niet altijd gemakkelijk toegankelijk zijn. De richtlijn geeft slachtoffers van schade als gevolg van AI-systemen met een hoog risico daarom het recht om de benodigde informatie te verkrijgen van denbetrokken onderneming (aanbieder of gebruiker van AI, al naar gelang het geval).
Het doel van deze bepaling is om slachtoffers aan te moedigen verhaal te zoeken, zodat ze niet worden geblokkeerd door de ondoorzichtigheid of complexiteit van AI-systemen.
Deze richtlijn vergemakkelijkt verhaal door slachtoffers die schade hebben geleden als gevolg van een gebrekkig product.
Het grootschalige gebruik van AI-systemen opent het vooruitzicht op talrijke gevallen van slecht functionerende instrumenten, waarbij het zeer ingewikkeld kan blijken om de schuldige partij aan te wijzen. Het doel van de herziening van deze richtlijn is dan ook om het mogelijke beroep op deze objectieve aansprakelijkheid met betrekking tot AI-systemen veilig te stellen.
Wat het toepassingsgebied betreft, wordt het begrip gebrekkig product uitgebreid tot software en producten waarin AI-systemen zijn geïmplementeerd.
Wat het bewijs betreft, moet worden opgemerkt dat een weigering om het door het slachtoffer gevraagde bewijs (met name technisch bewijs) te leveren, automatisch leidt tot het vermoeden dat het product in kwestie gebrekkig is. Als het slachtoffer erin slaagt om relevant bewijs te leveren dat aannemelijk maakt dat de schade verband houdt met een gebrek in het AI-systeem, kan bovendien een dubbel vermoeden worden toegepast, waardoor zowel de gebrekkigheid van het product als het oorzakelijk verband tussen deze gebrekkigheid en de geleden schade kan worden aangenomen. Tot slot kan de rechter de bewijslast ook omkeren als het slachtoffer buitensporige moeilijkheden ondervindt door de technische of wetenschappelijke complexiteit van de zaak.
Het is ook belangrijk om op te merken dat fabrikanten aansprakelijk kunnen worden gesteld voor wijzigingen die ze aanbrengen aan producten die al op de markt zijn, door middel van updates of AI-machine learning. Ook aanbieders van software of digitale diensten die de werking van een product beïnvloeden, kunnen aansprakelijk worden gesteld voor schade die wordt veroorzaakt door het gebrek van het product.
Er moet ook worden opgemerkt dat bij de beoordeling van “gebrekkigheid” rekening zal worden gehouden met nieuwe omstandigheden, zoals de mogelijke impact van het vermogen van een product om te leren op de veiligheid nadat het geïmplementeerd is.
Naast onze verschillende nieuwsartikelen, die je hieronder kunt vinden, bieden we ook een aantal video’s aan:
Onze laatste nieuwsberichten over dit onderwerp
-
20/03/24
Voordelen en risico’s van AI bij werving
Alexandre Cruquenaire -
19/03/24
Artificiële intelligentie en auteursrecht
Anne-Valentine RensonnetAlexandre Cruquenaire -
18/03/24
Welke aansprakelijkheid voor AI-systemen ?
Quentin BebronneAlexandre Cruquenaire