Les systèmes d'IA à haut risque
Le Règlement (UE) 2024/1689 sur l'intelligence artificielle (AI Act) adopte une approche fondée sur le risque. Les systèmes d'IA à haut risque sont soumis aux obligations les plus contraignantes avant leur mise sur le marché. Comprendre leur définition et leur régime est essentiel pour tout juriste du numérique.
L'approche par le risque de l'AI Act
- Risque inacceptable (article 5) : pratiques interdites, dont la mise sur le marché est prohibée. Exemples : notation sociale par les pouvoirs publics, manipulation subliminale à l'insu de la personne, identification biométrique à distance en temps réel dans les espaces publics (sauf exceptions strictes).
- Haut risque (articles 6 à 49) : systèmes autorisés mais soumis aux obligations de conformité les plus strictes avant leur mise sur le marché.
- Risque limité (article 50) : obligations de transparence allégées. L'utilisateur doit être informé qu'il interagit avec une IA (exemple : chatbots, deep fakes).
- Risque minimal : aucune obligation spécifique. Exemples : filtres anti-spam, jeux vidéo intégrant de l'IA.
Définition des systèmes d'IA à haut risque
- Systèmes listés à l'Annexe I — composants de sécurité de produits déjà réglementés : IA intégrée dans des jouets, véhicules, dispositifs médicaux, ascenseurs, équipements radio, etc. Ces systèmes sont soumis aux procédures de mise sur le marché existantes pour le produit concerné.
- Systèmes listés à l'Annexe III — domaines à haut risque autonomes : 8 catégories spécifiques identifiées comme présentant des risques pour les droits fondamentaux (identification biométrique, infrastructures critiques, éducation, emploi, services essentiels comme le crédit ou l'assurance, répression, migration, administration de la justice).
Comprendre les Annexes I et III
Annexe I — Produits réglementés intégrant de l'IA : elle liste les catégories de produits déjà soumis à une réglementation européenne de sécurité (directive jouets, règlement dispositifs médicaux, règlement véhicules à moteur, etc.). Lorsqu'un système d'IA est intégré à l'un de ces produits en tant que composant de sécurité, il est automatiquement classé à haut risque. L'objectif est d'éviter qu'une couche d'IA vienne affaiblir les garanties de sécurité de produits déjà encadrés.
Annexe III — Domaines sensibles autonomes : elle liste 8 catégories d'usages de l'IA qui sont considérés comme intrinsèquement risqués pour les droits fondamentaux, indépendamment de tout produit physique. L'objectif est de soumettre à un contrôle renforcé les applications d'IA susceptibles d'affecter des décisions importantes pour les individus (accès à l'emploi, au crédit, à la justice, contrôle aux frontières, etc.). Cette annexe peut être mise à jour par la Commission par actes délégués pour intégrer de nouveaux usages.
Obligations applicables aux systèmes à haut risque
Procédures d'évaluation de la conformité
Articles clés à connaître
- Article 6 AI ActDéfinition des systèmes d'IA à haut risque : deux catégories (Annexe I et Annexe III).
- Article 9 AI ActSystème de gestion des risques : obligation d'identifier, analyser et évaluer les risques tout au long du cycle de vie.
- Article 10 AI ActDonnées et gouvernance des données : qualité, pertinence, absence de biais dans les données d'entraînement.
- Article 14 AI ActSupervision humaine : les systèmes à haut risque doivent permettre une surveillance et une intervention humaines effectives.
- Annexe III AI ActListe des 8 domaines de systèmes d'IA à haut risque : biométrie, infrastructures critiques, éducation, emploi, services essentiels, répression, migration, justice.
💡 Exemple concret
Un système d'IA utilisé par une banque pour décider automatiquement d'accorder ou refuser un crédit relève de l'Annexe III, catégorie 5 (accès aux services essentiels). Il est classé à haut risque. La banque (déployeur) doit s'assurer que le fournisseur du système respecte toutes les obligations des articles 8 à 15, mettre en place une supervision humaine significative, et effectuer une évaluation d'impact sur les droits fondamentaux avant déploiement.
Pièges à éviter
- ⚠Ne pas confondre fournisseur (qui développe et met sur le marché) et déployeur (qui utilise le système dans un contexte professionnel) : leurs obligations sont différentes.
- ⚠Un système d'IA à haut risque n'est pas interdit — il doit simplement respecter les obligations de conformité avant sa mise sur le marché.
- ⚠Les systèmes d'IA à usage général (comme les grands modèles de langage type GPT) relèvent d'un régime distinct (articles 51-56), sauf s'ils sont intégrés dans un système à haut risque.
- ⚠L'Annexe III peut être modifiée par actes délégués de la Commission pour ajouter de nouveaux domaines.
L'essentiel à retenir
- ✓Deux sources de systèmes à haut risque : Annexe I (sécurité de produits réglementés) et Annexe III (8 domaines sensibles).
- ✓7 obligations clés : gestion des risques, gouvernance des données, documentation technique, journalisation, transparence, supervision humaine, robustesse.
- ✓Évaluation de conformité obligatoire avant mise sur le marché + marquage CE.
- ✓Distinction fournisseur / déployeur : obligations différentes.
- ✓Sanction pour non-conformité : jusqu'à 30 millions € ou 6 % du CA mondial annuel.