Der neue Rechtsrahmen für künstliche Intelligenz nimmt Gestalt an. Warten Sie nicht darauf, dass Ihre Konkurrenten es tun: Erkennen Sie die neuen gesetzlichen Auflagen frühzeitig und verschaffen Sie sich einen Wettbewerbsvorteil!
Künstliche Intelligenz hat ihren potenziellen Beitrag in zahlreichen Bereichen menschlicher Tätigkeit bewiesen: durch Effizienzsteigerungen, durch das Angebot innovativer Lösungen oder die Verbesserung der Qualität bestehender Produkte oder Dienstleistungen (insbesondere durch eine genauere Analyse der Bedürfnisse oder Erwartungen der Kunden), durch eine bessere Optimierung im Management (insbesondere von Projekten). Künstliche Intelligenz kann also ein Wachstumshebel für die Unternehmen sein, die sie einsetzen. Sie kann auch neue Möglichkeiten eröffnen, indem sie Teams von sich wiederholenden Aufgaben befreit.
Die Vorteile der künstlichen Intelligenz sind also unbestritten, doch die Macht dieser neuen Technologie beunruhigt und es stellen sich zahlreiche Fragen: Transparenz, Rückverfolgbarkeit, Kontrolle des Lernens und der Entwicklungen durch die Daten, Zuverlässigkeit, Bias, Sicherheit und Vertraulichkeit?
All dies sind legitime Fragen, die durch den Erfolg von ChatGPT, aber auch durch die Medienberichte über den Missbrauch dieser Tools noch verstärkt wurden.
Um auf diese Fragen und Befürchtungen zu reagieren, wurden mehrere wichtige Gesetzesinitiativen ins Leben gerufen, wobei Europa in diesem Bereich eine Vorreiterrolle einnimmt. Das Ziel des europäischen Gesetzgebers ist es, den Einsatz künstlicher Intelligenz zu regeln, damit KI-basierte Lösungen und Werkzeuge im Einklang mit den Werten der Europäischen Union entwickelt und eingesetzt werden und damit klare Haftungsgrundsätze das Vertrauen der Nutzer sicherstellen.
Die Eckpfeiler dieser Regulierung der künstlichen Intelligenz sind:
- Das EU-Gesetz über KI (AI Act) (1);
- Die EU-Richtlinie über KI-Haftung (2);
- Die Überarbeitung der EU-Richtlinie über die Haftung für fehlerhafte Produkte (3).
Der Rechtsrahmen für künstliche Intelligenz enthält zahlreiche Pflichten und Regeln, die bereits in der Anfangsphase eines KI-Projekts berücksichtigt werden müssen, um eine konforme Gestaltung des KI-Systems zu gewährleisten und spätere Änderungen zu vermeiden.
Die Identifizierung von Punkten, an denen die EU-KI-Verordnung eingehalten werden muss, ist daher ein entscheidender Schritt bei KI-Projekten. Ebenso kann durch die Identifizierung vertraglicher Risiken die Rechtssicherheit eines Projekts und der späteren Nutzung seiner Ergebnisse gewährleistet werden. Die Kombination dieser beiden Elemente ermöglicht es, die geltenden Einschränkungen und die Elemente aufzulisten, die in den Verträgen, die die Einführung einer KI-Lösung organisieren, enthalten sein müssen.
Wenn Sie diese rechtlichen und vertraglichen Beschränkungen voraussehen, können Sie spätere Änderungen und Verzögerungen vermeiden und die Einhaltung der Vorschriften bereits bei der Konzeption sicherstellen. Ein nicht zu unterschätzender Wettbewerbsvorteil in einem Bereich, in dem Fristen von entscheidender Bedeutung sind.
Dank seiner anerkannten Expertise im Innovations- und Technologierecht hat Lexing Instrumente entwickelt, die Unternehmen bei ihren Projekten im Bereich der künstlichen Intelligenz unterstützen sollen:
– Materialien, mit denen die Ausbildung von KI-Projektteams gewährleistet werden kann;
– Werkzeuge, die die Identifizierung der anwendbaren Regeln erleichtern;
– eine Palette von Lösungen, die die Integration der regulatorischen Zwänge in die Projekte und die begleitenden Rechtsdokumente erleichtern (Praxisblätter, Vorlagen für spezifische Klauseln…).
Wenn Sie einen vertrauenswürdigen juristischen Partner suchen, um Ihre KI-Projekte zu begleiten, kontaktieren Sie das Lexing-Team!
Die KI-Verordnung soll einen Rahmen für das Inverkehrbringen von KI-Systemen auf dem europäischen Markt schaffen.
Sie verfolgt zwei Ziele. Einerseits sollen den verschiedenen Akteuren in der KI-Kette (Lieferanten, Nutzer, Importeure oder Händler) spezifische Verpflichtungen auferlegt werden, um die Gesundheit und Sicherheit der Nutzer zu gewährleisten. Andererseits sollen KI-Systeme gefördert werden, die mit den Werten der Europäischen Union im Einklang stehen, und insbesondere die Achtung der in der Europäischen Charta der Menschenrechte verankerten Grundrechte sicherstellen.
Überblick über die Struktur der Verordnung
Die KI-Verordnung beruht auf einem Ansatz, der auf dem Management der Risiken basiert, die mit dem Einsatz von KI verbunden sind. Je nach Grad der Risiken werden KI-Systeme in verschiedene Kategorien eingeteilt, für die unterschiedliche Verpflichtungen gelten. Je höher die Risiken eines KI-Systems sind, desto strenger sind die Verpflichtungen, die es erfüllen muss.
Einige KI-Nutzungen sind zudem gänzlich verboten, z. B. Systeme, die subliminale Techniken zur Irreführung einsetzen, oder Systeme, die die Schwachstellen von Menschen ausnutzen.
Für Hochrisiko-KI-Systeme gelten die strengsten Regeln. Für den Anbieter eines solchen KI-Systems bestehen vor allem folgende Verpflichtungen:
- die Einführung eines Risikomanagementsystems, das eine umfassende Politik beschreibt (Identifizierung von Risiken, Bewertung, Behandlung von Risiken, Umgang mit möglichen Restrisiken), sowie ein Qualitätskontrollsystem;
- Entwicklung einer Data-Governance-Politik, die die Qualität der Daten sicherstellt, die bei der Entwicklung und dem Training von KI-Modellen verwendet werden;
- die Einrichtung von Log-Systemen, die es ermöglichen, die Nutzung von KI über ihren gesamten Lebenszyklus hinweg zu verfolgen;
- die Entwicklung von KI-Werkzeugen, die ein dem Verwendungszweck angemessenes Maß an Zuverlässigkeit und Cybersicherheit gewährleisten;
- Bereitstellung einer vollständigen Dokumentation des KI-Systems und seiner Konformität mit den Anforderungen der KI-Verordnung mit der Verpflichtung zur Transparenz gegenüber den Nutzern (um sicherzustellen, dass sie die Fähigkeiten und Leistungen des von ihnen genutzten KI-Werkzeugs vollständig kennen und wissen, wie sie die menschliche Kontrolle über diese Nutzung sicherstellen können).
Neben der Unterscheidung nach der Art des KI-Systems führt die Verordnung auch eine Unterscheidung nach der Rolle des Beteiligten in der Entwicklungs-/Betriebskette des KI-Systems ein. Je enger die Rolle mit der Konzeption und Konfiguration des Werkzeugs verknüpft ist, desto schwerer wiegen die Verpflichtungen. Der Anbieter des KI-Systems ist logischerweise den Verpflichtungen der Verordnung am stärksten ausgesetzt.
Die Bedeutung der Qualifikation des KI-Systems
Die Festlegung von Regeln, die auf die jeweilige Risikostufe und damit auf jede Art von KI-System zugeschnitten sind, macht die Frage der Einstufung des KI-Systems innerhalb dieser Risikoskala zu einer entscheidenden Frage.
Um die Umsetzung der KI-Verordnung antizipieren zu können, muss daher die Art jedes KI-Werkzeugs sorgfältig bewertet werden, um die Regeln zu bestimmen, die es einhalten muss.
Ein KI-System, das als Sicherheitskomponente eines Produkts verwendet werden soll oder das selbst ein Produkt ist, das einer Konformitätsbewertung durch Dritte auf der Grundlage der Harmonisierungsrechtsvorschriften der Union unterzogen werden muss (z. B. Medizinprodukte), gilt als „hochriskant“.
Anhang III der IA-Verordnung listet eine Reihe von Systemen auf, die als Hochrisikosysteme gelten.
Die Identifizierung der Rolle
Die KI-Verordnung verwendet eine zweite Klassifizierungsachse, die auf der Rolle der Akteure innerhalb der KI-Kette basiert. Diese Klassifizierung ergänzt die Klassifizierung, die auf der Natur des KI-Systems beruht. Es ist daher von entscheidender Bedeutung, die rechtliche Einstufung, die mit jedem Teilnehmer an einem Projekt im Zusammenhang mit einem KI-System verbunden sein muss, richtig einzuschätzen.
Beispielsweise ist ein Anbieter derjenige, der ein KI-System entwickelt (oder in seinem Auftrag von einem Dritten entwickeln lässt) und es in seinem Namen und auf seine Rechnung auf den Markt bringt. Jedes Projekt, das ganz oder teilweise auf dem Einsatz von KI-Systemen beruht, erfordert daher eine Überprüfung der Modalitäten der Zusammenarbeit zwischen den Beteiligten, um sicherzustellen, dass die Rollen, auf die die KI-Verordnung abzielt, korrekt identifiziert werden. Diese Qualifizierung der Rollen ermöglicht es, die anwendbaren Verpflichtungen zu identifizieren und diese in den Verträgen, die das Projekt organisieren, umzusetzen.
Parallel zum Vorschlag für eine KI-Verordnung wurde von der Europäischen Kommission eine neue Richtlinie über die Haftung für KI vorgeschlagen. Ziel ist es, das Vertrauen der Nutzer von KI-Systemen zu stärken, indem harmonisierte Regeln für die Wiedergutmachung von Schäden, die durch KI-Systeme verursacht werden, festgelegt werden und es Opfern erleichtert wird, zivilrechtliche Ansprüche geltend zu machen.
Die Schwierigkeit, angesichts technisch komplexer Systeme ein Verschulden und einen Kausalzusammenhang nachzuweisen, stellt ein Hindernis für die allgemeine Einführung von KI-Systemen dar.
Der Richtlinienvorschlag ist daher um diese beiden Hauptachsen herum aufgebaut: Vereinfachung der Rechtsbehelfe durch Erleichterung der Beweislast durch eine Kausalitätsvermutung. Außerdem soll der Zugang zu den technischen Elementen, die den Nachweis des Fehlers ermöglichen, durch spezifische Verpflichtungen für die Anbieter von KI-Systemen gewährleistet werden.
Die Kausalitätsvermutung
Da es in der Praxis oft schwierig ist, den Zusammenhang zwischen einem Verschulden und der Nutzung eines technischen Hilfsmittels wie eines KI-Systems nachzuweisen, führt der Richtlinienvorschlag eine Kausalitätsvermutung ein, sobald das Verschulden nachgewiesen ist und der Zusammenhang zwischen diesem Verschulden und dem Schaden vernünftigerweise plausibel erscheint. Folglich wird die Beweislast für den Geschädigten vereinfacht, da er nicht mehr im Einzelnen nachweisen muss, wie der Schaden durch ein Verschulden des Anbieters oder Nutzers der KI verursacht wurde.
Der Zugang des Opfers zu Beweismitteln
Der Nachweis des Fehlverhaltens wiederum erfordert die Analyse technischer Daten, die nicht immer leicht zugänglich sind. Daher räumt die Richtlinie Opfern von Schäden, die durch Hochrisiko-KI-Systeme verursacht wurden, das Recht ein, die erforderlichen Informationen von dem betreffenden Unternehmen (je nach Fall Anbieter oder Nutzer der KI) zu erhalten.
Diese Bestimmung soll Opferklagen fördern, indem sie verhindert, dass sie durch die undurchsichtige Funktionsweise oder die Komplexität von KI-Systemen blockiert werden.
Diese Richtlinie ermöglicht es Opfern, die durch ein fehlerhaftes Produkt einen Schaden erlitten haben, leichter Rechtsmittel einzulegen.
Der Einsatz von KI-Systemen in großem Umfang eröffnet die Aussicht auf zahlreiche Fälle von Werkzeugfehlfunktionen, bei denen sich die Identifizierung der schuldigen Partei als sehr komplex erweisen könnte. Das Ziel der Überarbeitung dieser Richtlinie ist es daher, die mögliche Anwendung der verschuldensunabhängigen Haftung für KI-Systeme abzusichern.
In Bezug auf den Anwendungsbereich wird der Begriff des fehlerhaften Produkts auf Software und Produkte ausgeweitet, in denen KI-Systeme implementiert sind.
In Bezug auf die Beweisführung ist anzumerken, dass die Weigerung, die vom Opfer geforderten (insbesondere technischen) Beweise vorzulegen, automatisch zu einer Vermutung der Fehlerhaftigkeit des betreffenden Produkts führt. Wenn es dem Geschädigten gelingt, relevante Beweise dafür vorzulegen, dass es plausibel ist, dass der Schaden mit einem Fehler des KI-Systems zusammenhängt, kann darüber hinaus eine doppelte Vermutung gelten, die sowohl die Fehlerhaftigkeit des Produkts als auch den kausalen Zusammenhang zwischen diesem Fehler und dem erlittenen Schaden vermuten lässt. Schließlich kann der Richter auch die Beweislast umkehren, wenn der Geschädigte aufgrund der technischen oder wissenschaftlichen Komplexität des Falles auf übermäßige Schwierigkeiten stößt.
Wichtig ist auch, dass Hersteller für Änderungen haftbar gemacht werden können, die sie an bereits auf dem Markt befindlichen Produkten vornehmen, sei es durch Updates oder durch das maschinelle Lernen der KI. Ebenso können Anbieter von Software oder digitalen Diensten, die die Funktionsweise eines Produkts beeinflussen, für Schäden haftbar gemacht werden, die durch den Fehler des Produkts verursacht werden.
Es sei noch angemerkt, dass bei der Beurteilung der „Fehlerhaftigkeit“ auch neue Umstände berücksichtigt werden, wie z. B. die möglichen Auswirkungen der Lernfähigkeit eines Produkts auf seine Sicherheit nach dem Einsatz.
Zusätzlich zu unseren verschiedenen aktuellen Artikeln, die Sie unten finden, bieten wir Ihnen einige Videos an:
Unsere letzten Nachrichten zu diesem Thema
-
06/01/25
L’impact de L’IA dans le secteur de l’architecture
Ismaël OulouanAlexandre Cassart -
02/12/24
Comment contractualiser la gestion des risques liés à l’IA ?
Anne-Valentine RensonnetAlexandre Cruquenaire -
05/11/24
Règlement IA : Données d’entraînement et aspects contractuels clés
Quentin BebronneAlexandre Cruquenaire