Approvato l'AI Act! Nuove regole per l'intelligenza artificiale nell'UE

Categorie:

Con l'AI Act, gli Stati membri dell'UE hanno approvato la prima legge al mondo sulla regolamentazione dell'IA. I regolamenti più importanti in sintesi.

Legge sull'AI prima legge sull'AI a livello mondiale

Il 21 maggio 2024, il Consiglio dei 27 Stati membri dell'UE ha adottato l'AI Act come quadro uniforme per l'uso dell'intelligenza artificiale nell'Unione europea. Questo rende l'AI Act il primo insieme completo di norme sull'intelligenza artificiale al mondo.

"Con l'AI Act, l'UE dispone ora di una solida base per la regolamentazione dell'intelligenza artificiale che crea fiducia e accettazione nella tecnologia e consente innovazioni 'made in Europe'", spiega il governo tedesco in un comunicato.

La legge sull'IA stabilisce che le applicazioni di IA non devono essere utilizzate in modo improprio. Deve essere garantita anche la tutela dei diritti fondamentali. D'altra parte, la scienza e l'economia hanno bisogno di spazio per l'innovazione. Per questo motivo la legge sull'IA persegue il cosiddetto "approccio basato sul rischio". Ciò significa che quanto più alto è il rischio di un'applicazione, tanto più severi sono i requisiti.

La legge sull'AI riconosce quattro gruppi di rischio

La legge sull'IA classifica pertanto le applicazioni di IA in quattro gruppi di rischio:

  • rischio inaccettabile
  • Alto rischio
  • rischio limitato
  • rischio basso o nullo.
 

Le applicazioni con il livello di rischio più basso possono essere utilizzate senza restrizioni. Ne sono un esempio i filtri antispam nelle caselle di posta elettronica o le applicazioni di intelligenza artificiale nei videogiochi o nell'elettronica di consumo.

Applicazioni AI vietate

Ad esempio, i sistemi di IA che possono essere utilizzati per influenzare e manipolare specificamente il comportamento delle persone rappresentano un rischio inaccettabile. Sono vietati, così come il "social scoring" supportato dall'IA, ovvero l'assegnazione di punti per i comportamenti desiderabili.

I nuovi regolamenti vietano anche alcune applicazioni di IA che mettono a rischio i diritti dei cittadini. Tra queste, la categorizzazione biometrica basata su caratteristiche sensibili e la lettura non mirata di immagini facciali da internet o da telecamere di sorveglianza per i database di riconoscimento facciale. In futuro saranno vietati anche i sistemi di riconoscimento facciale sul posto di lavoro e nelle scuole.

Obblighi per i sistemi di IA ad alto rischio

Alcuni obblighi sono previsti anche per altri sistemi di IA ad alto rischio, in quanto possono rappresentare una minaccia significativa per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo stato di diritto.

I sistemi ad alto rischio includono i sistemi di IA utilizzati nei settori delle infrastrutture critiche, dell'istruzione e della formazione o dell'occupazione. Sono considerati ad alto rischio anche i sistemi di IA utilizzati per servizi pubblici e privati di base, ad esempio nel settore sanitario o bancario, in alcune aree delle forze dell'ordine e in relazione alla migrazione e alla protezione delle frontiere, alla giustizia e ai processi democratici (ad esempio per influenzare le elezioni).

Esiste un obbligo di registrazione per questi sistemi di IA ad alto rischio (art. 49 della legge sull'IA).

Inoltre, in futuro i cittadini dell'UE avranno il diritto di presentare reclamo contro le decisioni prese sulla base di sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti.

Obbligo di trasparenza per le applicazioni di IA

Esiste anche un obbligo di trasparenza. I contenuti generati o modificati artificialmente (audio, immagini, video) devono essere chiaramente etichettati come tali.

Inoltre, i sistemi di IA generici e i modelli su cui si basano devono soddisfare determinati requisiti di trasparenza. Questi includono la conformità con la legge sul copyright dell'UE e la pubblicazione di sintesi dettagliate dei contenuti utilizzati per l'addestramento.

In futuro si applicheranno ulteriori requisiti per i modelli più efficienti che possono presentare rischi sistemici: Ad esempio, dovranno essere effettuate valutazioni del modello e i rischi sistemici dovranno essere valutati e mitigati. Esiste anche l'obbligo di segnalare gli incidenti.

Sanzioni contro le aziende per le violazioni

Le violazioni possono essere sanzionate (art. 99 Ai Act). A seconda della gravità della violazione, possono essere comminate multe fino a 35 milioni di euro o fino al 7% del fatturato globale annuo dell'esercizio precedente, a seconda di quale sia il valore più alto.

Gli Stati membri dell'UE devono ora recepire la legge sull'IA nel diritto nazionale.

Tag:
Condividi questo post :
it_ITItalian