L’Intelligence artificielle (IA) influence le droit contractuel à divers moments d’un contrat, qu’il s’agisse de sa formation, de son exécution ou de la responsabilité des parties. Et elle peut aussi se trouver au cœur même du contrat. C’est le cas lorsqu’une relation s’établit entre un fournisseur de système d’IA et un déployeur. Si ce dernier subit un préjudice lié à l’utilisation du système d’IA, la question de la responsabilité se pose : qui en est responsable, le fournisseur ou l’IA elle-même ?
L’IA, n’ayant pas de personnalité juridique, ne peut être tenue responsable. Par conséquent, lorsqu’un contrat lie les parties, la responsabilité contractuelle du fournisseur peut être engagée en cas de dommage causé au déployeur par l’utilisation du système d’IA. Avec l’entrée en vigueur du Règlement européen sur l’intelligence artificielle, des obligations spécifiques s’imposent aux différents acteurs. Ces obligations sont renforcées lorsque le système d’IA traite de données sensibles, telles que des données biométriques, médicales, ou encore de recrutement. Le système d’IA est alors qualifié de : « système à haut risque ». En cas de manquement aux obligations du fournisseur, si cela cause un préjudice au déployeur, la responsabilité contractuelle du fournisseur pourrait être engagée.
Obligations du fournisseur pour sécuriser un système d’IA à haut risque
La gestion de la qualité d’un système d’IA repose sur des systèmes de gestion rigoureux des données, pour en assurer la pertinence et la fiabilité, ainsi que sur une gestion des risques, de la maintenance et des notifications d’incidents. Une évaluation de conformité, par audits ou avec l’autorité compétente, est essentielle, avec des mesures correctives, en cas de non-conformité et une communication au déployeur. Le contrôle humain et la coopération avec les autorités compétentes sont également essentiels pour garantir le respect des normes et obligations.
Mise en cause de la responsabilité contractuelle du fournisseur
En cas de non-respect de ces obligations, le risque que le système d’IA cause un préjudice au déployeur augmente. Parmi les risques potentiels, se trouvent :
- Cyberattaques : une attaque peut entraîner une violation et une divulgation des données.
- Erreurs induites par des données de mauvaise qualité : l’IA se développe en traitant un grand volume de données ; si celles-ci n’ont pas été gérées avec soin, pour garantir leur qualité et leur pertinence, le système risque de se baser sur des informations erronées.
- Erreurs induites par des données obsolètes : si les données ne sont pas régulièrement mises à jour, l’IA pourrait induire le déployeur en erreur.
- Absence de contrôle humain : sans supervision humaine, le système pourrait produire des résultats incorrects ou inappropriés.
- Perte de données : si le système n’est pas régulièrement entretenu, cela peut mener à des pertes de données importantes.
Non seulement, le fournisseur voit sa responsabilité contractuelle engagée, mais en plus il devra payer une amende administrative (montant restant à déterminer en Belgique).
Unsere Empfehlung:
Toutes ces questions doivent faire l’objet d’une évaluation diligente, n’hésitez pas à prendre conseil auprès d’un avocat.
Inscrivez-vous à notre formation earlegal du 13 décembre 2024 « Encadrez vos projets IA : questions contractuelles » ! Nous aborderons les questions suivantes :
- Quels sont les principaux aspects contractuels à prendre en compte au stade du développement d’une IA ?
- Quels sont les aspects contractuels à prendre en compte au stade de la commercialisation d’une IA ?
- Comment assurer une bonne gestion des incidents liés à l’IA dans la chaîne contractuelle
- Comment gérer contractuellement votre conformité au règlement IA ?
Pour plus d’informations, rendez-vous ici.