ThinkTank_Logo_nero
L'attesa è finita
Ailance™ ThinkTank è qui!

Regolamento AI - L'UE pubblica le prime linee guida

La Commissione europea ha pubblicato delle linee guida che specificano l'applicazione e l'esecuzione dei divieti previsti dall'articolo 5 del Regolamento AI.
Categorie:

Il regolamento sull'IA (regolamento sull'IA) adotta un approccio basato sul rischio per promuovere l'innovazione proteggendo al contempo i diritti fondamentali. Un elemento centrale del regolamento AI è il divieto di alcune pratiche di AI considerate incompatibili con i valori fondamentali dell'Unione. La Commissione europea ha ora pubblicato delle linee guida che chiariscono l'applicazione e l'attuazione dei divieti previsti dall'articolo 5 del regolamento AI. I punti più importanti in sintesi.

Contesto dei divieti di cui all'articolo 5 del regolamento AI

I divieti contenuti nel regolamento sull'IA sono un elemento centrale della regolamentazione dell'intelligenza artificiale nell'Unione europea e si basano sulla protezione dei diritti umani fondamentali e sulla salvaguardia dei principi democratici e dello Stato di diritto. Essi mirano a garantire che determinate tecnologie di IA non vengano utilizzate in modo da mettere a repentaglio i valori fondamentali dell'UE, quali la dignità umana, la non discriminazione, la trasparenza e la privacy.

La crescente diffusione delle tecnologie di IA comporta notevoli sfide, in particolare per quanto riguarda il controllo dei processi decisionali automatizzati, la potenziale manipolazione del comportamento umano e l'accesso incontrollato ai dati personali. Il divieto di applicazioni di IA particolarmente problematiche serve quindi a difendersi dai gravi rischi e pericoli che possono derivare da queste tecnologie.

In particolare, i divieti mirano a impedire le applicazioni che utilizzano manipolazioni intenzionali o meccanismi ingannevoli per controllare il comportamento di individui o gruppi senza che questi siano consapevoli dei processi sottostanti. Occorre inoltre limitare l'uso improprio dei dati biometrici ed escludere l'uso di sistemi per il controllo sociale e la discriminazione.

L'obiettivo di questi divieti è quindi quello di salvaguardare l'autonomia e la libertà di scelta dell'individuo, di garantire l'equità e la trasparenza dei processi supportati dall'IA e di evitare le disuguaglianze sociali ed economiche che potrebbero derivare da sistemi di IA non trasparenti o discriminatori.

Le pratiche di IA elencate nell'articolo 5 del regolamento non sono quindi solo problematiche a livello tecnico o economico, ma sono anche inaccettabili da un punto di vista etico e sociale. La chiara regolamentazione di queste tecnologie mira a garantire che le applicazioni di IA siano sviluppate e utilizzate a beneficio della società senza compromettere i diritti e le libertà fondamentali.

Il Regolamento AI distingue diverse categorie di applicazioni AI vietate:

Sistemi di intelligenza artificiale manipolativi e ingannevoli (art. 5 par. 1 lett. a del regolamento AI)

Questo regolamento vieta i sistemi di IA che utilizzano tecniche sovversive, manipolative o ingannevoli per influenzare il comportamento degli individui. Ciò include, tra l'altro:

  • Messaggi subliminaliSistemi di intelligenza artificiale che collocano stimoli visivi o uditivi al di fuori del campo di percezione cosciente per influenzare comportamenti o decisioni inconsci. Queste tecniche possono essere implementate utilizzando flash di immagini ultraveloci o segnali acustici non udibili.
  • Manipolazione psicologica o cognitivaSistemi di intelligenza artificiale che sfruttano in modo specifico le debolezze psicologiche o i pregiudizi cognitivi per convincere gli utenti a compiere determinate azioni o prendere determinate decisioni. Gli esempi includono la pubblicità personalizzata basata sulle debolezze individuali o le interfacce utente supportate dall'IA che distorcono i processi decisionali attraverso "modelli oscuri".
  • Disinformazione e contenuti fuorviantiSistemi di intelligenza artificiale che generano e diffondono deliberatamente informazioni false o distorte per influenzare l'opinione pubblica o le decisioni individuali. Ciò include deepfakes, articoli di notizie sintetiche o bot supportati dall'IA che manipolano l'opinione sulle piattaforme dei social media.
  • Meccanismi di interazione compulsivaSistemi supportati dall'intelligenza artificiale che invogliano deliberatamente gli utenti a rimanere impegnati più a lungo sfruttando meccanismi di dipendenza come sistemi di ricompensa o funzioni di "scorrimento infinito". Ciò può essere particolarmente problematico per i bambini e i giovani, che sono più sensibili a tali meccanismi.


Queste pratiche sono particolarmente problematiche perché minano la libertà di scelta e l'autonomia cognitiva delle persone interessate. Questi sistemi di intelligenza artificiale possono avere un impatto di vasta portata sulla democrazia, sull'economia e sulla società, soprattutto se vengono utilizzati per influenzare il comportamento di voto o le decisioni di acquisto in modo mirato.

Sfruttamento della vulnerabilità (art. 5 par. 1 lett. b del regolamento AI)

Il regolamento sull'IA vieta l'uso di sistemi di IA che sfruttano specificamente le vulnerabilità di individui o gruppi a causa della loro età, disabilità o particolare situazione sociale o economica. Questo regolamento mira a proteggere le persone vulnerabili da applicazioni di IA sleali o manipolative che potrebbero minare la loro libertà di scelta e autonomia.

Le pratiche vietate includono:

  • Influenzamento mirato di bambini e anzianiApplicazioni supportate dall'intelligenza artificiale che si rivolgono specificamente a bambini o anziani per indurli a determinati comportamenti o decisioni di acquisto, ad esempio attraverso pubblicità manipolative o informazioni deliberatamente fuorvianti.
  • Sfruttamento finanziario di gruppi socialmente o economicamente svantaggiatiSistemi che manipolano specificamente i gruppi a basso reddito con offerte economicamente sfavorevoli, ad esempio proponendo offerte di credito eccessive o condizioni assicurative inique attraverso processi decisionali algoritmici.
  • Abuso di disturbi cognitiviSistemi di intelligenza artificiale deliberatamente progettati per sfruttare le limitazioni cognitive o la mancanza di alfabetizzazione digitale al fine di ingannare gli individui o imporre loro condizioni contrattuali inique.
  • Sfruttamento di dipendenze e assuefazioniPiattaforme supportate dall'intelligenza artificiale che mirano a spingere le persone a rischio di dipendenza verso la dipendenza attraverso pubblicità mirata o meccanismi di interazione, ad esempio attraverso l'ottimizzazione algoritmica dei sistemi di gioco d'azzardo o di microtransazione.


Questi divieti servono a garantire l'integrità e la sicurezza dei gruppi vulnerabili e ad assicurare l'uso etico delle tecnologie di IA. Le applicazioni di IA devono essere progettate in modo da non trarre indebitamente vantaggio dalle circostanze particolari o dalle debolezze di singoli gruppi. L'attuazione di questi requisiti garantirà che il progresso tecnologico non avvenga a spese di coloro che sono particolarmente dipendenti dalla protezione e dall'equità.

Social scoring (art. 5 par. 1 lett. c GDPR)

Una novità fondamentale del regolamento sull'IA è il divieto assoluto di utilizzare sistemi di social scoring da parte di soggetti pubblici o privati. Il social scoring si riferisce alla valutazione algoritmica degli individui in base al loro comportamento o alle loro caratteristiche personali, al fine di trarne conseguenze sociali o economiche. Questi sistemi sono particolarmente problematici perché invadono profondamente la privacy dei cittadini e possono portare a discriminazioni ingiustificate.

Il divieto si applica in particolare se:

  • una valutazione del comportamento sociale o delle caratteristiche personali di individui o gruppi,
  • conseguenze negative per gli individui in aree non correlate della società, come l'esclusione dalle opportunità educative o dai servizi finanziari a causa di un cattivo punteggio sociale,
  • Le valutazioni comportano sanzioni o privilegi sproporzionati, come rendere più difficile l'accesso a prestiti o alloggi sulla base di criteri non oggettivi e discriminatori.


Il social scoring è noto soprattutto negli Stati autoritari, dove viene utilizzato per controllare e monitorare i cittadini. Il Regolamento AI chiarisce che tali sistemi sono incompatibili con i valori fondamentali dell'Unione europea, in particolare il rispetto della dignità umana, della parità di trattamento e della privacy.

Particolare attenzione viene prestata all'applicazione di questo divieto da parte delle autorità nazionali di sorveglianza del mercato e delle istituzioni per la protezione dei dati. Le aziende e le autorità che sviluppano o utilizzano sistemi di IA in Europa devono garantire che i loro sistemi non contengano meccanismi di social scoring non autorizzati. Le violazioni di questo divieto possono essere sanzionate con pesanti ammende per garantire che venga impedito l'uso improprio dell'IA per il controllo sociale nell'UE.

Previsione di reati assistita dall'IA (art. 5 par. 1 lett. d del Regolamento IA)

Il divieto si estende ai sistemi di intelligenza artificiale che prevedono il rischio o la probabilità di un reato sulla base di caratteristiche personali, background sociale o probabilità statistiche. Il regolamento sull'IA chiarisce che tali sistemi comportano rischi considerevoli per i diritti fondamentali, in particolare la presunzione di innocenza, la protezione della privacy e il divieto di discriminazione. L'uso di tali tecnologie può portare a discriminazioni sistemiche nei confronti di alcuni gruppi della popolazione, soprattutto se per prendere decisioni vengono utilizzati dati distorti o inadeguati.

Aspetti problematici di tali sistemi di IA:

  • Discriminazione e pregiudiziI modelli di intelligenza artificiale sono spesso basati su dati storici che riflettono pregiudizi o disuguaglianze strutturali esistenti. Di conseguenza, c'è il rischio che alcuni gruppi vengano categorizzati in modo sproporzionato come sospetti.
  • Mancanza di trasparenza e tracciabilitàIl processo decisionale dei sistemi di intelligenza artificiale è spesso opaco e di difficile comprensione, il che rende difficile un controllo efficace e una revisione legale.
  • Presunzione di innocenzaLa valutazione automatica del rischio individuale di reato può portare a stigmatizzare o monitorare le persone senza che vi sia una base effettiva nel diritto penale.


Esistono eccezioni per i sistemi di IA che utilizzano dati oggettivi e verificabili a supporto delle valutazioni umane. Ad esempio, i sistemi possono essere utilizzati per identificare modelli criminali già noti nelle analisi dei dati, se questi vengono utilizzati solo per il processo decisionale delle autorità di polizia e non vi è una classificazione automatica delle persone come potenziali criminali.

Nel complesso, l'uso di tali tecnologie nell'UE rimane altamente sensibile e richiede una stretta osservanza dei principi dello Stato di diritto e un regolare monitoraggio da parte di autorità di vigilanza indipendenti.

Raccolta non mirata di dati biometrici (art. 5 par. 1 lett. e GDPR)

La raccolta non mirata di dati biometrici costituisce una minaccia significativa alla privacy e all'autodeterminazione informativa delle persone interessate. Il Regolamento AI vieta pertanto espressamente la raccolta massiccia e incontrollata di immagini del volto, impronte digitali o altre caratteristiche biometriche da fonti pubbliche, in particolare attraverso tecniche come lo scraping.

Tali pratiche sono spesso utilizzate per creare banche dati biometriche su larga scala che possono poi essere utilizzate per una serie di scopi, come il riconoscimento facciale o la verifica dell'identità, senza il consenso esplicito delle persone interessate. Ciò solleva notevoli preoccupazioni etiche e di protezione dei dati, in particolare perché:

  • Mancanza di consensoGli interessati non hanno alcun controllo sulla raccolta e sul trattamento dei loro dati biometrici.
  • I rischi della sorveglianza di massaTali banche dati possono essere utilizzate da attori statali e privati per attuare misure di sorveglianza di vasta portata.
  • Rischio di abusoI dati biometrici potrebbero essere utilizzati per l'applicazione della legge o per applicazioni commerciali, senza che sia possibile conoscerli o acconsentirvi.
  • Rischio di errore e discriminazioneÈ stato dimostrato che i sistemi di riconoscimento facciale basati sull'intelligenza artificiale hanno un tasso di errore più elevato per alcuni gruppi etnici e possono portare a sospetti o discriminazioni ingiustificate.


Il regolamento vieta quindi la creazione o l'espansione di tali database attraverso lo scraping non mirato da fonti pubblicamente accessibili come i social network o le telecamere di sorveglianza. Le aziende e le organizzazioni che sviluppano o utilizzano tecnologie biometriche devono attenersi a rigorose linee guida sulla protezione dei dati e a requisiti di trasparenza per evitare l'uso improprio di dati personali sensibili.

La raccolta di dati biometrici è consentita solo a condizioni rigorose, ad esempio se la persona interessata ha dato il proprio consenso esplicito e informato o se le norme giuridiche lo consentono in conformità ai diritti fondamentali. Le autorità nazionali per la protezione dei dati sono tenute a perseguire con coerenza le violazioni di queste disposizioni e a imporre sanzioni severe.

Riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici (art. 5 comma 1 lett. f del Regolamento AI)

Il divieto riguarda l'uso di sistemi di intelligenza artificiale che analizzano le emozioni di dipendenti o studenti, in quanto ciò può avere un impatto significativo sulla privacy, sulla protezione personale e sull'autonomia individuale. Le tecnologie di riconoscimento delle emozioni utilizzano il riconoscimento facciale, l'analisi del parlato o altri segnali biometrici per determinare lo stato emotivo di una persona. L'UE considera queste pratiche particolarmente critiche, in quanto hanno effetti potenzialmente discriminatori e possono portare a misure di sorveglianza illegali.

Perché il suo utilizzo è problematico?

  • Invasione della privacyI sistemi di riconoscimento delle emozioni raccolgono e analizzano dati biometrici senza che le persone interessate possano sempre dare il loro consenso consapevole.
  • Interpretazione errata e mancanza di trasparenzaL'accuratezza di questi sistemi è controversa, poiché le emozioni possono essere interpretate in modo soggettivo e culturalmente diverso. Questo può portare a decisioni sbagliate che hanno gravi conseguenze, in particolare sul posto di lavoro o nell'ambiente educativo.
  • Discriminazione e stigmatizzazioneLe persone con determinate espressioni facciali o stili di comunicazione potrebbero essere svantaggiate o classificate in modo errato, il che può portare a valutazioni ingiuste o addirittura all'esclusione da opportunità di istruzione o di lavoro.

Il divieto prevede eccezioni limitate in particolare se il riconoscimento delle emozioni ha i seguenti scopi:

  • Applicazioni medicheNella diagnostica o nella terapia, ad esempio per assistere persone con disturbi neurologici o difficoltà di comunicazione.
  • Misure di sicurezzaIn aree di applicazione ristrette, come il rilevamento di minacce acute o l'identificazione di persone in situazioni di emergenza (ad esempio, nei progetti di aviazione o di infrastrutture critiche).

Le organizzazioni e le aziende che violano il divieto possono essere soggette a pesanti sanzioni pecuniarie. Le autorità di regolamentazione saranno tenute a monitorare l'uso di tali tecnologie e a garantire che non portino a una sorveglianza non autorizzata o a violazioni ingiustificate della privacy.

Suggerimento di lettura: Competenze in materia di IA e obblighi delle imprese ai sensi dell'articolo 4 del regolamento IA

Categorizzazione biometrica delle caratteristiche sensibili (art. 5 par. 1 lett. g GDPR)

La categorizzazione biometrica di caratteristiche sensibili da parte dei sistemi di IA è un settore particolarmente delicato, in quanto interferisce direttamente con i diritti fondamentali delle persone interessate. Il regolamento sull'IA vieta pertanto qualsiasi uso dei dati biometrici per ricavare determinate caratteristiche personali relative all'identità e alle caratteristiche protette di una persona.

Le caratteristiche sensibili comprendono in particolare

  • Origine razziale o etnicaI sistemi di intelligenza artificiale non devono essere utilizzati per classificare le persone in base a criteri razziali o etnici, poiché ciò può portare a discriminazioni e disparità di trattamento illegali.
  • Convinzioni politicheL'analisi dei dati biometrici per determinare gli atteggiamenti politici può portare alla persecuzione e alla soppressione delle opinioni dissenzienti ed è quindi severamente vietata.
  • Opinioni religiose o ideologicheI sistemi di intelligenza artificiale che utilizzano dati biometrici per trarre conclusioni sull'affiliazione religiosa o sulle convinzioni ideologiche di una persona sono vietati al fine di proteggere la libertà di religione e di credo.
  • Orientamento sessualeRicavare l'orientamento sessuale dai dati biometrici è una grave violazione della privacy e può portare alla discriminazione e alla stigmatizzazione.
  • Iscrizione ai sindacatiL'analisi delle caratteristiche biometriche per determinare l'appartenenza a un sindacato è vietata per garantire la libertà di associazione e la tutela dei diritti dei lavoratori.


Perché la categorizzazione biometrica è problematica?

  • Mancanza di validità scientificaMolti metodi per ricavare caratteristiche sensibili dai dati biometrici si basano su ipotesi non dimostrate o pseudoscientifiche e sono quindi estremamente soggetti a errori.
  • Rischi di discriminazioneTali sistemi possono rafforzare i pregiudizi e le disuguaglianze sociali esistenti, svantaggiando o stigmatizzando alcuni gruppi.
  • Problemi etici e legaliL'uso di queste tecnologie viola i principi fondamentali della protezione dei dati e non può essere conciliato con i diritti fondamentali europei.

Le aziende che violano questo regolamento possono essere multate pesantemente, al fine di garantire la tutela dei diritti fondamentali e della libertà individuale.

Identificazione biometrica a distanza in tempo reale per le forze dell'ordine (art. 5 (1) (h) del regolamento AI)

Il divieto di utilizzo del riconoscimento facciale basato sull'IA negli spazi pubblici da parte delle autorità di polizia è una delle disposizioni più severe del regolamento sull'IA. I sistemi di riconoscimento facciale sono potenzialmente in grado di consentire misure di sorveglianza complete e rappresentano quindi una minaccia significativa all'autodeterminazione informativa dei cittadini.

Aspetti problematici dell'identificazione biometrica a distanza in tempo reale:

  • Sorveglianza di massa e protezione dei datiL'uso diffuso di sistemi di riconoscimento facciale potrebbe portare a una sorveglianza costante negli spazi pubblici, creando un clima di controllo e paura.
  • Rischio di errore e discriminazioneÈ stato dimostrato che i sistemi di identificazione biometrica sono soggetti a errori e hanno tassi di errore più elevati, in particolare tra alcuni gruppi etnici, che possono portare a sospetti ingiustificati o addirittura ad arresti.
  • Potenziale di abusoL'uso incontrollato di tali tecnologie potrebbe consentire alle autorità preposte all'applicazione della legge o ad altri attori statali di tracciare i profili di movimento degli individui senza una sufficiente base giuridica.
  • Problemi di Stato di dirittoL'identificazione delle persone in tempo reale potrebbe limitare il diritto all'anonimato negli spazi pubblici e in alcuni casi violare i principi di proporzionalità.


Nonostante il divieto di fondo, il regolamento AI prevede alcuni Eccezioni in cui l'uso della tecnologia è consentito a condizioni rigorose:

  • Ricerca mirata di persone scomparseSe è stata denunciata la scomparsa di una persona e la sua vita è in grave pericolo, il riconoscimento facciale può essere utilizzato in condizioni legali rigorose.
  • Lotta al terrorismoIn caso di minaccia terroristica imminente, la tecnologia può essere utilizzata per identificare individui che potrebbero essere coinvolti in attacchi.
  • Reati graviUn uso strettamente limitato del riconoscimento facciale può essere autorizzato in determinate situazioni quando è necessario indagare su reati gravi e non sono disponibili altre misure meno invasive.


Per evitare abusi, tutte le applicazioni di identificazione biometrica remota in tempo reale devono essere autorizzate e riviste regolarmente da autorità di vigilanza indipendenti. Un uso non autorizzato o sproporzionato può essere punito con pesanti multe o azioni legali. In questo modo si garantisce che il progresso tecnologico non vada a scapito dei diritti fondamentali e che vengano rispettati i principi dello Stato di diritto.

Sanzioni in caso di violazione del regolamento AI

I divieti sono applicati da diverse istituzioni a livello nazionale ed europeo. In particolare, le autorità nazionali di vigilanza del mercato sono responsabili del controllo della conformità ai regolamenti. Hanno il potere di indagare sulle violazioni, di adottare misure per prevenire le pratiche di AI non autorizzate e di imporre sanzioni. Parallelamente, il Garante europeo della protezione dei dati svolge un ruolo fondamentale, soprattutto quando si tratta di violazioni nell'ambito del trattamento dei dati personali.

Le violazioni dei divieti della legge sull'AI possono comportare sanzioni finanziarie significative. Il regolamento prevede multe fino a 35 milioni di euro o 7 % del fatturato annuo globale di un'azienda, a seconda del valore più alto. Queste sanzioni hanno lo scopo di garantire che le aziende e le organizzazioni rispettino i requisiti di legge e non sviluppino o utilizzino sistemi di IA non autorizzati o dannosi. Oltre alle sanzioni pecuniarie, ai sistemi di IA non conformi possono essere imposte anche restrizioni operative o divieti di vendita.

Inoltre, le aziende sono obbligate a presentare regolarmente rapporti di conformità. Nei casi più gravi, nei singoli Stati membri possono essere previste anche sanzioni penali se si dimostrano violazioni colpose o intenzionali dei diritti fondamentali attraverso l'uso di tecnologie di IA vietate.

Le prime linee guida sul regolamento AI stabiliscono standard rigorosi

Le linee guida dell'UE per l'attuazione del regolamento sull'IA creano regole chiare per gestire l'intelligenza artificiale e stabiliscono standard rigorosi per la salvaguardia dei diritti fondamentali. Se da un lato viene rafforzata la protezione contro l'uso improprio dell'IA, dall'altro la sfida consiste nel garantire che l'innovazione non venga ostacolata. La futura giurisprudenza della Corte di giustizia europea contribuirà in modo significativo all'interpretazione dei regolamenti e farà chiarezza sulla misura in cui applicazioni specifiche di IA soddisfano i requisiti del regolamento IA.

Fonte: Linee guida sulle pratiche di intelligenza artificiale vietate ai sensi del Regolamento AI

Volete rendere la vostra azienda adatta alla normativa sull'AI? Lo affronteremo insieme! I nostri esperti saranno lieti di consigliarvi. Chiamateci o scriveteci:
Tel: +39 045 475 7198
E-mail: verona@2b-advice.com

Tag:
Condividi questo post :
it_ITItalian