AI ActAI ActRisqueConformité

Les systèmes d'IA à haut risque

Le Règlement (UE) 2024/1689 sur l'intelligence artificielle (AI Act) adopte une approche fondée sur le risque. Les systèmes d'IA à haut risque sont soumis aux obligations les plus contraignantes avant leur mise sur le marché. Comprendre leur définition et leur régime est essentiel pour tout juriste du numérique.

L'approche par le risque de l'AI Act

L'AI Act classe les systèmes d'IA en quatre niveaux de risque :
  • Risque inacceptable (article 5) : pratiques interdites, dont la mise sur le marché est prohibée. Exemples : notation sociale par les pouvoirs publics, manipulation subliminale à l'insu de la personne, identification biométrique à distance en temps réel dans les espaces publics (sauf exceptions strictes).
  • Haut risque (articles 6 à 49) : systèmes autorisés mais soumis aux obligations de conformité les plus strictes avant leur mise sur le marché.
  • Risque limité (article 50) : obligations de transparence allégées. L'utilisateur doit être informé qu'il interagit avec une IA (exemple : chatbots, deep fakes).
  • Risque minimal : aucune obligation spécifique. Exemples : filtres anti-spam, jeux vidéo intégrant de l'IA.
Les systèmes d'IA à usage général (GPAI), comme les grands modèles de langage (GPT, Claude…), font l'objet d'un régime particulier aux articles 51 à 56, distinct de la classification par risque.

Définition des systèmes d'IA à haut risque

Deux catégories de systèmes à haut risque (article 6 AI Act) :
  • Systèmes listés à l'Annexe I — composants de sécurité de produits déjà réglementés : IA intégrée dans des jouets, véhicules, dispositifs médicaux, ascenseurs, équipements radio, etc. Ces systèmes sont soumis aux procédures de mise sur le marché existantes pour le produit concerné.
  • Systèmes listés à l'Annexe III — domaines à haut risque autonomes : 8 catégories spécifiques identifiées comme présentant des risques pour les droits fondamentaux (identification biométrique, infrastructures critiques, éducation, emploi, services essentiels comme le crédit ou l'assurance, répression, migration, administration de la justice).

Comprendre les Annexes I et III

Les deux annexes jouent des rôles distincts dans la classification :

Annexe I — Produits réglementés intégrant de l'IA : elle liste les catégories de produits déjà soumis à une réglementation européenne de sécurité (directive jouets, règlement dispositifs médicaux, règlement véhicules à moteur, etc.). Lorsqu'un système d'IA est intégré à l'un de ces produits en tant que composant de sécurité, il est automatiquement classé à haut risque. L'objectif est d'éviter qu'une couche d'IA vienne affaiblir les garanties de sécurité de produits déjà encadrés.

Annexe III — Domaines sensibles autonomes : elle liste 8 catégories d'usages de l'IA qui sont considérés comme intrinsèquement risqués pour les droits fondamentaux, indépendamment de tout produit physique. L'objectif est de soumettre à un contrôle renforcé les applications d'IA susceptibles d'affecter des décisions importantes pour les individus (accès à l'emploi, au crédit, à la justice, contrôle aux frontières, etc.). Cette annexe peut être mise à jour par la Commission par actes délégués pour intégrer de nouveaux usages.

Obligations applicables aux systèmes à haut risque

Les fournisseurs de systèmes d'IA à haut risque doivent : (1) Mettre en place un système de gestion des risques (article 9) ; (2) Assurer la gouvernance des données d'entraînement (article 10) ; (3) Établir une documentation technique (article 11) ; (4) Mettre en place une journalisation automatique des événements (article 12) ; (5) Garantir la transparence et fournir des instructions d'utilisation (article 13) ; (6) Prévoir une supervision humaine (article 14) ; (7) Garantir un niveau approprié d'exactitude, robustesse et cybersécurité (article 15) ; (8) Procéder à une évaluation de la conformité avant mise sur le marché.

Procédures d'évaluation de la conformité

Avant la mise sur le marché, une évaluation de la conformité est obligatoire. Selon le type de système : (1) Autoévaluation par le fournisseur avec documentation technique + déclaration UE de conformité pour la plupart des systèmes de l'Annexe III ; (2) Évaluation par un organisme notifié tiers pour les systèmes d'identification biométrique à distance en temps réel et certains systèmes de l'Annexe I. Le marquage CE est requis pour les systèmes à haut risque conformes. Les systèmes doivent être enregistrés dans la base de données EU de l'IA (article 71).

Articles clés à connaître

  • Article 6 AI ActDéfinition des systèmes d'IA à haut risque : deux catégories (Annexe I et Annexe III).
  • Article 9 AI ActSystème de gestion des risques : obligation d'identifier, analyser et évaluer les risques tout au long du cycle de vie.
  • Article 10 AI ActDonnées et gouvernance des données : qualité, pertinence, absence de biais dans les données d'entraînement.
  • Article 14 AI ActSupervision humaine : les systèmes à haut risque doivent permettre une surveillance et une intervention humaines effectives.
  • Annexe III AI ActListe des 8 domaines de systèmes d'IA à haut risque : biométrie, infrastructures critiques, éducation, emploi, services essentiels, répression, migration, justice.

💡 Exemple concret

Un système d'IA utilisé par une banque pour décider automatiquement d'accorder ou refuser un crédit relève de l'Annexe III, catégorie 5 (accès aux services essentiels). Il est classé à haut risque. La banque (déployeur) doit s'assurer que le fournisseur du système respecte toutes les obligations des articles 8 à 15, mettre en place une supervision humaine significative, et effectuer une évaluation d'impact sur les droits fondamentaux avant déploiement.

Pièges à éviter

  • Ne pas confondre fournisseur (qui développe et met sur le marché) et déployeur (qui utilise le système dans un contexte professionnel) : leurs obligations sont différentes.
  • Un système d'IA à haut risque n'est pas interdit — il doit simplement respecter les obligations de conformité avant sa mise sur le marché.
  • Les systèmes d'IA à usage général (comme les grands modèles de langage type GPT) relèvent d'un régime distinct (articles 51-56), sauf s'ils sont intégrés dans un système à haut risque.
  • L'Annexe III peut être modifiée par actes délégués de la Commission pour ajouter de nouveaux domaines.

L'essentiel à retenir

  • Deux sources de systèmes à haut risque : Annexe I (sécurité de produits réglementés) et Annexe III (8 domaines sensibles).
  • 7 obligations clés : gestion des risques, gouvernance des données, documentation technique, journalisation, transparence, supervision humaine, robustesse.
  • Évaluation de conformité obligatoire avant mise sur le marché + marquage CE.
  • Distinction fournisseur / déployeur : obligations différentes.
  • Sanction pour non-conformité : jusqu'à 30 millions € ou 6 % du CA mondial annuel.