La legge sull'AI è entrata in vigore il 1° agosto: Ecco cosa succederà ora!

La legge sull'AI è entrata in vigore nell'UE il 1° agosto 2024.
Categorie:

La legge sull'AI è entrata in vigore nell'Unione Europea il 1° agosto 2024. I regolamenti saranno ora attuati nell'arco di 36 mesi. Il calendario dell'AI Act in sintesi.

Il regolamento sull'IA si applica per fasi nell'arco di 36 mesi

Negli ultimi anni l'Unione Europea (UE) ha compiuto notevoli sforzi per regolamentare lo sviluppo e l'uso dell'intelligenza artificiale (AI). Un elemento centrale di questi sforzi è il cosiddetto "AI Act". Questo atto ha lo scopo di garantire che i sistemi di IA nell'UE siano sicuri e trasparenti e che i diritti fondamentali dei cittadini siano protetti. Il regolamento sull'IA è il primo insieme completo di norme sull'IA al mondo.

Il regolamento è stato pubblicato sulla Gazzetta Ufficiale dell'UE il 12 luglio 2024 ed è entrato in vigore 20 giorni dopo, il 1° agosto 2024. L'applicabilità dei regolamenti è ora scaglionata su un periodo di 36 mesi.

Ai sensi dell'art. 113 KI-VO, si applica a partire dal 2 agosto 2026.

Suggerimento per il collegamento: Legge sull'intelligenza artificiale

6 mesi dopo l'entrata in vigore: Fine per i sistemi di intelligenza artificiale non autorizzati

I capitoli I e II del regolamento sull'IA si applicheranno già a partire dal 2 febbraio 2025 e, in particolare, i divieti su alcuni sistemi di IA classificati come particolarmente critici si applicheranno a partire da questa data. Si tratta di sistemi di IA che rappresentano un chiaro rischio per i diritti umani fondamentali. Secondo la Commissione UE, ciò si applica, ad esempio, ai sistemi che consentono alle autorità o alle aziende di valutare il comportamento sociale (social scoring).

Chiunque sviluppi, gestisca o venda applicazioni di IA classificate come critiche deve interromperle o ritirarle dal mercato a partire dal 2 febbraio 2025.

12 mesi dall'entrata in vigore: Regolamento e sanzioni GPAI

A partire dal 2 agosto 2025, si applicheranno le seguenti regole in conformità all'articolo 113 del regolamento AI:

  • Organismi notificati (Capitolo III, Sezione 4),
  • Modelli GPAI (Capitolo V),
  • Governance (Capitolo VII),
  • Riservatezza (articolo 78),
  • Sanzioni (articoli 99 e 100)


Questa data limite è molto più rilevante per le aziende, in quanto le regole per i modelli di IA per scopi generali (GPAI) si applicheranno a partire da questa data. Ciò include anche i modelli linguistici di grandi dimensioni (LLM).

L'AI Act obbliga i fornitori di tali modelli a divulgare determinate informazioni ai fornitori di sistemi a valle. Secondo la Commissione europea, tale trasparenza consente una migliore comprensione di questi modelli. I fornitori di modelli devono inoltre disporre di strategie per garantire il rispetto della legge sul copyright durante la formazione dei loro modelli.

La Commissione UE ritiene inoltre che i modelli di IA generici addestrati con una potenza di calcolo totale superiore a 10-25 FLOP presentino rischi sistemici. I fornitori di modelli con rischi sistemici sono tenuti a valutare e ridurre i rischi, a segnalare gravi incidenti di sicurezza, a eseguire test all'avanguardia e valutazioni dei modelli e a garantire la sicurezza informatica dei loro modelli.

Suggerimento di lettura: Approvato l'AI Act! Nuove regole per l'intelligenza artificiale nell'UE

24 mesi dall'entrata in vigore: Si applicano le disposizioni della legge sull'AI, con un'eccezione.

Ai sensi dell'articolo 113, il regolamento AI si applica a partire dal 2 agosto 2026, con l'unica eccezione dei sistemi AI ad alto rischio ai sensi dell'articolo 6, paragrafo 1.

Ciò significa che il regolamento coprirà anche i sistemi di IA ad alto rischio in conformità all'Allegato III a partire dall'agosto 2026.

L'Allegato III comprende otto aree in cui l'uso dell'IA può essere particolarmente sensibile. Contiene inoltre casi d'uso specifici per ogni area. Un sistema di IA è classificato come ad alto rischio se deve essere utilizzato per uno di questi casi d'uso.

Secondo la Commissione europea, alcuni esempi di questo tipo sono

  • Sistemi di intelligenza artificiale utilizzati come componenti di sicurezza in alcune infrastrutture critiche, ad esempio nei settori del trasporto stradale e della fornitura di acqua, gas, calore ed elettricità;
  • Sistemi di intelligenza artificiale utilizzati nell'istruzione e nella formazione, ad esempio per valutare i risultati dell'apprendimento, gestire il processo di apprendimento e monitorare gli imbrogli;
  • Sistemi di intelligenza artificiale utilizzati per la gestione dell'occupazione e del personale e per l'accesso al lavoro autonomo, ad esempio per annunci di lavoro mirati, per l'analisi e il filtraggio delle domande di lavoro e per la valutazione dei candidati;
  • Sistemi di intelligenza artificiale utilizzati per l'accesso a servizi e benefici pubblici e privati essenziali (ad esempio, l'assistenza sanitaria), per la valutazione del merito creditizio delle persone fisiche e per la valutazione del rischio e la determinazione dei prezzi in relazione alle assicurazioni sulla vita e sulla salute;
  • I sistemi di intelligenza artificiale utilizzati nelle forze dell'ordine, nel controllo dell'immigrazione e delle frontiere, laddove non ancora vietati, nonché nell'amministrazione della giustizia e dei processi democratici;
  • Sistemi di intelligenza artificiale utilizzati per l'identificazione biometrica, la categorizzazione biometrica e il riconoscimento delle emozioni, a meno che non siano vietati.


Prima dei fornitori un sistema di IA ad alto rischio sul mercato dell'UE o comunque metterlo in funzione, devono sottoporlo ad un Valutazione della conformità subire. Ciò consente di dimostrare che il sistema soddisfa i requisiti obbligatori per un'IA affidabile (ad esempio, qualità dei dati, documentazione e tracciabilità, trasparenza, supervisione umana, accuratezza, sicurezza informatica e robustezza). Questa valutazione deve essere ripetuta se il sistema o il suo scopo vengono modificati in modo significativo.

36 mesi dall'entrata in vigore: Sistemi di IA ad alto rischio in conformità all'allegato I.

A partire dal 2 agosto 2027, si applicano l'articolo 6, paragrafo 1, e gli obblighi corrispondenti. Ciò riguarda i sistemi di IA ad alto rischio in conformità all'allegato I. 

I sistemi di IA possono essere classificati come ad alto rischio anche se il sistema di IA è incorporato come componente di sicurezza in prodotti che rientrano nella normativa vigente sui prodotti (Allegato I) o se costituiscono essi stessi tali prodotti.

Potrebbe trattarsi, ad esempio, di un software medico basato sull'intelligenza artificiale. 

Conclusione: Le aziende e le altre parti interessate dovrebbero familiarizzare con i requisiti della legge sull'IA fin dalle prime fasi e apportare le modifiche necessarie per essere conformi in tempo utile. L'introduzione scaglionata offre un po' di tempo per prepararsi, soprattutto per i sistemi di IA più complessi e ad alto rischio. Le aziende dovrebbero avere una panoramica precisa dei dati che utilizzano nei loro sistemi di IA. Ciò è particolarmente importante per adempiere agli obblighi di rendicontazione e documentazione previsti dalla legge sull'IA. In caso contrario, potrebbero essere comminate gravi sanzioni.

Tag:
Condividi questo post :
it_ITItalian