Application progressiveIARèglement (UE) 2024/1689Mis à jour le 8 mai 2026

Règlement

AI Act

Règlement établissant des règles harmonisées concernant l'intelligence artificielle

L'AI Act encadre le développement, la mise sur le marché et l'utilisation des systèmes d'IA selon quatre niveaux de risque. Les pratiques à risque inacceptable sont interdites. Les systèmes à haut risque (recrutement, crédit, justice, éducation, biométrie) ont des obligations strictes. Les modèles GPAI à risque systémique ont des obligations renforcées.

📌 PS — Actualité récente

🔴 Accord politique provisoire — mai 2026 : les institutions européennes ont annoncé un accord sur des amendements à l'AI Act. La loi n'est pas encore formellement modifiée, mais plusieurs changements importants sont attendus :
  • Report des délais d'application pour les systèmes à haut risque : la date du 2 août 2026 (annexe III) serait repoussée au 2 décembre 2027 ; celle de l'annexe I au 2 août 2028.
  • Nouvelles pratiques interdites : les systèmes d'IA capables de générer des contenus sexuels non consentis ou des contenus pédopornographiques (CSAM) seraient ajoutés à la liste des pratiques interdites (art. 5).
  • Report du marquage des contenus génératifs : l'obligation de détection et de filigranage des sorties IA (art. 50§2) serait repoussée au 2 décembre 2026.
  • Traitement des données sensibles pour la détection des biais : la portée serait élargie pour permettre aux organisations de traiter des données personnelles sensibles dans le cadre de la détection et correction des biais, sous conditions strictes.
Ces modifications font l'objet d'un accord politique ; elles doivent encore être formellement adoptées avant la date d'applicabilité du 2 août 2026.

Contexte

L'AI Act est le premier cadre juridique au monde dédié à la régulation de l'intelligence artificielle. Proposé en avril 2021, avant l'explosion de l'IA générative (ChatGPT, fin 2022), il a conduit à des ajouts importants sur les modèles d'IA à usage général (GPAI). Il adopte une approche fondée sur le risque.

Champ d'application

Il s'applique à tout fournisseur développant ou mettant sur le marché un système d'IA dans l'UE, à tout déployeur professionnel, et à tout fournisseur hors UE dont le système produit des résultats utilisés dans l'UE. Sont exclus : la recherche scientifique sans objectif commercial, les systèmes militaires et les utilisations purement personnelles.

Acteurs concernés

Fournisseurs de systèmes d'IA (développeurs, éditeurs)Déployeurs (entreprises et organisations utilisant des systèmes d'IA)Fournisseurs de modèles GPAI (OpenAI, Google, Meta, Mistral, etc.)Bureau européen de l'IA (AI Office, au sein de la Commission)Autorités nationales compétentes (CNIL, DGCCRF, Arcom en France)