Le Règlement sur l’intelligence artificielle (AI Act), adopté par l’Union européenne, vise à encadrer le développement et l’utilisation des systèmes d’intelligence artificielle afin d’en garantir la sécurité, la transparence et la conformité aux droits fondamentaux.
Inspiré du RGPD, ce texte introduit une approche basée sur le niveau de risque des systèmes d’IA, imposant des obligations graduelles aux acteurs du secteur.
En effet, l’AI Act impose un cadre strict aux entreprises qui développent, distribuent ou utilisent des systèmes d’IA.
Si certaines obligations, comme la sensibilisation des employés et l’adoption d’une charte interne sur l’usage de l’IA, sont déjà en vigueur depuis le 2 février 2025, d’autres dispositions entreront en application le 2 août 2025, notamment les sanctions administratives.
Les entreprises doivent dès maintenant s’assurer de leur conformité à ce nouveau texte, car les sanctions prévues sont lourdes et comparables à celles du RGPD.
Un régime de sanctions strict et dissuasif
L’IA Act prévoit des amendes administratives significatives en cas de non-conformité, avec une graduation en fonction de la gravité de l’infraction :
- Non-respect des interdictions absolues (ex. IA manipulatrice, notation sociale) : amende pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel.
- Non-respect des obligations des opérateurs d’IA (fournisseurs, distributeurs, importateurs, déployeurs) : sanction allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial.
- Fourniture d’informations inexactes ou trompeuses aux autorités : amende pouvant aller jusqu’à 7,5 millions d’euros ou 1 % du chiffre d’affaires mondial.
- PME et startups : un plafond réduit s’applique, correspondant au montant le plus faible entre un pourcentage du chiffre d’affaires et un montant fixe. Par exemple, une startup réalisant un chiffre d’affaires annuel de 500.000 € pourrait se voir infliger une amende maximale de 1 % de ce montant, soit 5.000 €, au lieu des millions prévus pour les grandes entreprises.
Sanctions : des critères d’évaluation précis
Chaque État membre de l’Union européenne doit désigner, d’ici le 2 août 2025, au moins une autorité nationale compétente chargée de veiller à l’application du règlement.
Ces autorités auront pour mission de superviser la conformité des systèmes d’IA, d’effectuer des contrôles, de traiter les signalements et d’imposer des sanctions en cas de manquement.
En Belgique, le SPF Économie est chargé de la coordination générale de la mise en œuvre du Règlement IA.
Les autorités compétentes tiendront compte de plusieurs facteurs pour évaluer la sanction applicable, notamment :
- la gravité et la durée de l’infraction ;
- le nombre de personnes affectées et les préjudices subis ;
- l’existence ou non d’antécédents de non-conformité ;
- la taille et le chiffre d’affaires de l’entreprise ;
- la coopération avec les autorités
- et les mesures correctives mises en place.
Comment anticiper ces obligations et éviter les sanctions ?
Les entreprises doivent dès maintenant adapter leurs pratiques et structurer leur conformité.
Quelques actions essentielles :
- Identifier et cartographier les systèmes d’IA utilisés afin d’évaluer leur niveau de risque.
- Mettre en place une charte IA interne et sensibiliser les employés, une obligation déjà en vigueur depuis le 2 février 2025.
- Réviser les contrats conclus avec les fournisseurs et partenaires pour s’assurer qu’ils respectent les exigences du règlement.
- Réaliser une analyse d’impact sur les risques IA, en particulier pour les systèmes à haut risque.
- Documenter les décisions algorithmiques et garantir la transparence des modèles utilisés.
Unsere Empfehlung:
Pour un accompagnement sur mesure, nos avocats sont à votre disposition pour évaluer votre conformité et mettre en place les mesures adaptées.
Nous pouvons également auditer vos afin d’identifier et corriger d’éventuelles non-conformités avant l’entrée en vigueur des sanctions.
