ThinkTank_Logo_black
L'attente est terminée
Ailance™ ThinkTank est là !

L'AI Act est entré en vigueur le 1er août : Voici ce qui va se passer maintenant !

AI Act est entré en vigueur le 1- août 2024 dans l'UE.
Catégories :

L'AI Act est entré en vigueur dans l'Union européenne le 1er août 2024. Les règles seront mises en œuvre sur une période de 36 mois. Voici un aperçu de la feuille de route de l'AI Act.

Le règlement sur les IC s'applique de manière échelonnée sur 36 mois

Ces dernières années, l'Union européenne (UE) a fait des efforts considérables pour réglementer le développement et l'utilisation de l'intelligence artificielle (IA). L'un des éléments centraux de ces efforts est la loi dite "AI Act". Cette loi vise à garantir que les systèmes d'IA dans l'UE soient sûrs et transparents et que les droits fondamentaux des citoyens soient protégés. Le règlement sur l'IA est le premier ensemble complet de règles au monde concernant l'IA.

Après avoir été publié au Journal officiel de l'UE le 12 juillet 2024, le règlement est entré en vigueur 20 jours plus tard, le 1er août 2024. L'applicabilité des règles est désormais échelonnée sur une période de 36 mois.

Conformément à l'article 113 du règlement IC, il s'applique à partir du 2 août 2026.

Conseil de lien : Loi sur l'intelligence artificielle

6 mois après l'entrée en vigueur : Fin des systèmes d'IA non autorisés

Les chapitres I et II du règlement sur l'IA s'appliquent déjà à partir du 2 février 2025. En particulier, les interdictions de certains systèmes d'IA considérés comme particulièrement critiques s'appliquent à partir de cette date. Il s'agit de systèmes d'IA qui présentent un risque évident pour les droits fondamentaux de l'homme. Selon la Commission européenne, cela s'applique par exemple aux systèmes qui permettent aux autorités ou aux entreprises d'évaluer le comportement social (social scoring).

Quiconque développe, exploite ou vend des applications d'IA classées comme critiques de cette manière devra les arrêter ou les retirer du marché à partir du 2 février 2025.

12 mois après l'entrée en vigueur : Réglementation et sanctions de la GPAI

À partir du 2 août 2025, les règles suivantes s'appliqueront conformément à l'article 113 du règlement IC :

  • Organismes désignés (notifiés) (chapitre III, section 4),
  • les modèles GPAI (chapitre V),
  • la gouvernance (chapitre VII),
  • la confidentialité (article 78),
  • Sanctions (articles 99 et 100)


Pour les entreprises, cette date butoir est nettement plus pertinente, car les règles relatives aux modèles d'IA à usage général (General Purpose AI, GPAI) s'appliqueront à partir de cette date. Les Large Language Models (LLMs) en font également partie.

La loi sur l'IA oblige les fournisseurs de ces modèles à divulguer certaines informations aux fournisseurs de systèmes en aval. Selon la Commission européenne, une telle transparence permet une meilleure compréhension de ces modèles. Les fournisseurs de modèles doivent également disposer de stratégies pour s'assurer qu'ils respectent les droits d'auteur lors de la formation de leurs modèles.

La Commission européenne estime également que les modèles d'IA à usage général formés avec une puissance de calcul totale supérieure à 10-25 FLOP présentent des risques systémiques. Les fournisseurs de modèles présentant des risques systémiques sont tenus d'évaluer et d'atténuer les risques, de signaler les incidents de sécurité graves, d'effectuer des tests et des évaluations de modèles de pointe et de garantir la cybersécurité de leurs modèles.

Conseil de lecture : L'AI Act est adopté ! Nouvelles règles pour l'intelligence artificielle dans l'UE

24 mois après l'entrée en vigueur : Les dispositions de la loi sur les IC s'appliquent - à une exception près

Conformément à l'article 113, le règlement sur l'IA s'applique à compter du 2 août 2026, la seule exception étant les systèmes d'IA à haut risque visés à l'article 6, paragraphe 1.

Ainsi, à partir d'août 2026, le règlement couvrira également les systèmes d'IA à haut risque visés à l'annexe III.

L'annexe III comprend huit domaines dans lesquels l'utilisation de l'IA peut être particulièrement sensible. Elle contient également des cas d'utilisation concrets pour chaque domaine. Un système d'IA est considéré comme à haut risque s'il doit être utilisé pour l'un de ces cas d'utilisation.

En voici quelques exemples, selon la Commission européenne :

  • les systèmes d'IA utilisés comme composants de sécurité dans certaines infrastructures critiques, par exemple dans les domaines du transport routier et de l'approvisionnement en eau, en gaz, en chaleur et en électricité ;
  • les systèmes d'IA utilisés dans l'éducation et la formation, par exemple pour l'évaluation des résultats d'apprentissage, le contrôle du processus d'apprentissage et la surveillance des fraudes ;
  • Systèmes d'IA utilisés dans la gestion de l'emploi et des ressources humaines et dans l'accès au travail indépendant, par exemple pour les annonces d'emploi ciblées, l'analyse et le filtrage des demandes d'emploi et l'évaluation des candidats ;
  • Systèmes d'IA utilisés pour l'accès à des services et prestations privés et publics essentiels (par exemple, soins de santé), pour l'évaluation de la solvabilité des personnes physiques, ainsi que pour l'évaluation des risques et la tarification des assurances vie et santé ;
  • les systèmes d'IA utilisés dans les domaines de l'application de la loi, de l'immigration et du contrôle des frontières, dans la mesure où ils ne sont pas encore interdits, ainsi que dans l'administration de la justice et les processus démocratiques ;
  • Systèmes d'IA utilisés pour l'identification biométrique, la catégorisation biométrique et la reconnaissance des émotions, sauf interdiction.


Avant les fournisseurs un système d'IA à haut risque en circulation dans l'UE ou le mettre en service d'une autre manière, ils doivent le soumettre à une Évaluation de la conformité de l'IA. Cela leur permettra de démontrer que leur système répond aux exigences obligatoires en matière d'IA de confiance (par exemple, qualité des données, documentation et traçabilité, transparence, supervision humaine, précision, cybersécurité et robustesse). Cette évaluation doit être répétée en cas de modification substantielle du système ou de son objectif.

36 mois après l'entrée en vigueur : Systèmes d'IA à haut risque visés à l'annexe I

À partir du 2 août 2027, l'article 6, paragraphe 1, et les obligations correspondantes s'appliquent. Cela concerne le système d'IA à haut risque visé à l'annexe I. 

Les systèmes d'IA peuvent également être considérés comme à haut risque si le système d'IA est intégré en tant que composant de sécurité dans des produits couverts par la législation existante sur les produits (annexe I) ou s'il constitue lui-même de tels produits.

Il pourrait s'agir par exemple de logiciels médicaux basés sur l'IA. 

Conclusion : Les entreprises et autres acteurs concernés devraient se familiariser rapidement avec les exigences de l'AI Act et procéder aux adaptations nécessaires afin d'être "conformes" à temps. L'introduction échelonnée donne un peu de temps pour se préparer, en particulier pour les systèmes d'IA à haut risque plus complexes. Les entreprises devraient avoir une vue d'ensemble précise des données qu'elles utilisent dans leurs systèmes d'IA. Cela sera particulièrement important pour pouvoir satisfaire aux obligations de responsabilité et de documentation de l'AI Act. Tout manquement pourrait entraîner de lourdes sanctions.

Les tags :
Partager ce post :
fr_FRFrench