Avec l'AI Act, les États membres de l'UE ont adopté la première loi au monde pour réglementer l'IA. Aperçu des principales réglementations.
AI Act première loi sur l'IA au monde
Le 21 mai 2024, le Conseil des 27 États membres de l'UE a adopté l'AI Act en tant que cadre unifié pour l'utilisation de l'intelligence artificielle dans l'Union européenne. L'AI Act est ainsi le premier cadre réglementaire global au monde en matière d'intelligence artificielle.
"Avec l'AI Act, l'UE dispose désormais d'une base solide pour la réglementation de l'intelligence artificielle, qui crée la confiance et l'acceptation de la technologie et permet l'innovation 'made in Europe'", explique le gouvernement fédéral dans un communiqué.
L'AI Act stipule que les applications d'IA ne doivent pas faire l'objet d'abus. La protection des droits fondamentaux doit également être garantie. D'autre part, la science et l'économie ont besoin d'espace pour innover. C'est pourquoi l'AI Act adopte une approche dite "basée sur les risques". Cela signifie que plus le risque d'une application est estimé élevé, plus les directives sont strictes.
L'AI Act reconnaît quatre groupes de risques
L'AI Act classe donc les applications d'IA en quatre groupes de risques :
- risque inacceptable
- risque élevé
- risque limité
- risque faible ou nul.
Les applications du niveau de risque le plus faible peuvent être exploitées sans restriction. Les filtres anti-spam dans les boîtes aux lettres électroniques ou les applications d'intelligence artificielle dans les jeux vidéo ou l'électronique grand public en sont des exemples.
Applications d'IA interdites
Les systèmes d'IA, par exemple, qui peuvent être utilisés pour influencer de manière ciblée le comportement des personnes et les manipuler, représentent un risque inacceptable. Ils sont également interdits, tout comme le "scoring social" basé sur l'IA, c'est-à-dire l'attribution de points pour un comportement souhaité.
Les nouvelles règles interdisent également certaines applications d'IA qui menacent les droits des citoyens. Il s'agit notamment de la catégorisation biométrique sur la base de caractéristiques sensibles et de la lecture non ciblée d'images faciales sur Internet ou de caméras de surveillance pour les bases de données de reconnaissance faciale. Les systèmes de reconnaissance faciale sur le lieu de travail et dans les écoles seront également interdits à l'avenir.
Obligations pour les systèmes d'IA à haut risque
Certaines obligations sont également prévues pour d'autres systèmes d'IA à haut risque, car ils peuvent représenter une menace importante pour la santé, la sécurité, les droits fondamentaux, l'environnement, la démocratie et l'État de droit.
Sont notamment considérés comme des systèmes à haut risque les systèmes d'IA utilisés dans les domaines des infrastructures critiques, de l'éducation, de la formation ou de l'emploi. Sont également considérés comme à haut risque les systèmes d'IA utilisés pour des services privés et publics de base, par exemple dans les secteurs de la santé ou de la banque, dans certains domaines de l'application de la loi, ainsi que dans le contexte des migrations et de la gestion des frontières, de la justice et des processus démocratiques (par exemple pour influencer les élections).
Pour ces systèmes d'IA à haut risque, il existe une obligation d'enregistrement (art. 49 AI Act).
En outre, les citoyens de l'UE auront désormais le droit de se plaindre des décisions prises sur la base de systèmes d'IA à haut risque qui portent atteinte à leurs droits.
Obligation de transparence pour les applications d'IA
Il existe également une obligation de transparence. Les contenus créés ou modifiés artificiellement (audio, image, vidéo) doivent être clairement identifiés comme tels.
En outre, les systèmes d'IA à usage général et les modèles sur lesquels ils reposent doivent respecter certaines exigences de transparence. Il s'agit notamment du respect du droit d'auteur de l'UE et de la publication de résumés détaillés des contenus utilisés pour la formation.
Des exigences supplémentaires s'appliqueront à l'avenir aux modèles plus performants susceptibles de présenter des risques systémiques : Ainsi, des évaluations de modèles doivent être effectuées et les risques systémiques doivent être évalués et atténués. En outre, il existe une obligation de notification des incidents.
Sanctions contre les entreprises en cas de non-respect
Les infractions peuvent être sanctionnées (art. 99 de l'Ai-Act). En fonction de la gravité de l'infraction, des amendes allant jusqu'à 35 millions d'euros ou jusqu'à 7 % du chiffre d'affaires annuel mondial de l'exercice précédent peuvent être infligées, le montant le plus élevé étant retenu.
Les États membres de l'UE doivent maintenant transposer l'AI Act dans leur droit national.