Con l'entrata in vigore del Regolamento europeo sull'Intelligenza Artificiale (AI) il 1° agosto 2024, le aziende si troveranno gradualmente di fronte a nuovi requisiti legali. I primi regolamenti vincolanti entreranno in vigore già nel febbraio 2025, in particolare per quanto riguarda le applicazioni di IA vietate. Le aziende sono inoltre chiamate a gestire tempestivamente gli effetti di questo regolamento e ad adottare le necessarie misure di conformità.
Sistemi di IA vietati ai sensi del Regolamento IA
A partire dal febbraio 2025, l'uso di alcuni sistemi di IA sarà espressamente vietato nell'UE. Questa normativa si basa sui requisiti del regolamento sull'IA, che mira a ridurre al minimo i rischi potenziali per i diritti fondamentali, la sicurezza e la democrazia. In particolare, devono essere esclusi i sistemi che possono manipolare, discriminare o monitorare le persone su scala di massa. Questo regolamento si applica in particolare alle applicazioni classificate come particolarmente rischiose. Queste includono, tra l'altro:
- Tecnologie AI manipolative:
Sistemi che influenzano inconsapevolmente il comportamento o il processo decisionale delle persone, soprattutto quando ciò può portare a un danno. - Sistemi di punteggio sociale:
valutazioni di persone fisiche basate sul comportamento, sullo status sociale o sulle caratteristiche personali, che possono avere un effetto potenzialmente discriminatorio. - Sorveglianza di massa attraverso il riconoscimento biometrico:
L'uso del riconoscimento facciale in tempo reale negli spazi pubblici è vietato, con alcune eccezioni, come la difesa dal terrorismo o la lotta contro i reati gravi. - Riconoscimento delle emozioni sul posto di lavoro o nelle istituzioni educative:
I sistemi di intelligenza artificiale che analizzano lo stato emotivo dei dipendenti o degli studenti potrebbero non essere più utilizzati. - La polizia predittiva su base puramente statistica:
Sono vietati i sistemi che si basano esclusivamente su calcoli di probabilità per prevedere il comportamento futuro.
Le aziende che già utilizzano tali sistemi o sono coinvolte nello sviluppo di tali tecnologie devono garantire, entro febbraio 2025, la conformità alle nuove normative e, se necessario, interrompere le applicazioni vietate.
Legge sull'IA: necessità di azione per le aziende
Oltre a rispettare i divieti che si applicheranno a partire dal febbraio 2025, le aziende dovrebbero rispondere in modo proattivo agli imminenti requisiti del regolamento sull'IA. Un esempio di strategia di conformità di successo è l'implementazione di un quadro interno di governance dell'IA che definisca responsabilità chiare, effettui analisi regolari dei rischi e garantisca che tutti i sistemi di IA utilizzati siano conformi ai nuovi requisiti legali. Questo include in particolare
- Un inventario di tutte le applicazioni di IA utilizzate in azienda per riconoscere tempestivamente eventuali violazioni.
- Verificare se i sistemi di IA utilizzati o sviluppati sono classificati come IA ad alto rischio. A questi sistemi si applicano ampi requisiti di documentazione e conformità nelle fasi successive di attuazione della legge sull'IA.
- Adeguamento delle linee guida interne, in particolare nelle aree della protezione dei dati e dell'etica, per essere preparati ai futuri requisiti di trasparenza e sicurezza.
- Creazione di strutture interne di conformità per monitorare e soddisfare i requisiti normativi.
L'istituzione di strutture interne di conformità è una parte essenziale della strategia aziendale per garantire il rispetto di tutti i requisiti legali della legge sull'IA. Ciò include l'implementazione di un approccio strutturato e sistematico al monitoraggio e al controllo delle applicazioni di IA. Le aziende dovrebbero nominare un dipartimento interno di conformità o persone responsabili che siano incaricate di esaminare e valutare regolarmente i sistemi di IA utilizzati.
Ciò include anche l'introduzione di meccanismi di analisi del rischio che possono essere utilizzati per riconoscere e prevenire potenziali violazioni in una fase iniziale. Le aziende dovrebbero anche istituire canali di segnalazione interna per le preoccupazioni di carattere etico o normativo, in modo che i dipendenti possano segnalare potenziali problemi in forma anonima o direttamente all'ufficio compliance.
Formazione obbligatoria sull'IA per i dipendenti
Un altro aspetto importante delle linee guida interne è l'implementazione di responsabilità e processi chiari per gestire le applicazioni di IA. Ciò può includere la nomina di un responsabile dell'IA per garantire che l'uso dell'IA sia conforme ai requisiti normativi.
Inoltre, le aziende dovrebbero organizzare regolarmente corsi di formazione interna per i dipendenti, poiché l'insegnamento delle competenze di IA sarà obbligatorio a partire da febbraio 2025.
Nello specifico, l'art. 4 del Regolamento AI recita: "I fornitori e gli operatori di sistemi di IA adottano misure per garantire, al meglio delle loro capacità, che il loro personale e le altre persone coinvolte nel funzionamento e nell'uso dei sistemi di IA per loro conto abbiano un livello sufficiente di competenza in materia di IA, tenendo conto delle loro conoscenze tecniche, dell'esperienza, dell'istruzione e della formazione e del contesto in cui i sistemi di IA sono destinati a essere utilizzati, nonché delle persone o dei gruppi di persone con cui i sistemi di IA sono destinati a essere utilizzati".
Pertanto, è necessario garantire anche la tracciabilità e la spiegabilità delle decisioni dell'IA. In modo che anche le persone interessate possano capire come e perché è stata presa una certa decisione.
Suggerimento di lettura: IA generativa: il GEPD pubblica una guida all'uso
Misure concrete per l'attuazione del regolamento AI
Il regolamento sull'intelligenza artificiale rappresenta un importante quadro normativo per l'uso dell'intelligenza artificiale nell'Unione europea. Le piccole e medie imprese (PMI), in particolare, potrebbero trovarsi ad affrontare delle sfide, poiché spesso non dispongono delle stesse risorse per le misure di conformità delle grandi aziende. Per rimanere competitive, le PMI dovrebbero quindi affidarsi a soluzioni efficienti in termini di costi, come strumenti di conformità standardizzati o la collaborazione con consulenti esterni in una fase iniziale.
È consigliabile che le aziende si preparino per tempo ai prossimi obblighi, in modo da ridurre al minimo i rischi e soddisfare per tempo i requisiti legali. Una strategia di conformità tempestiva può non solo ridurre al minimo i rischi legali, ma anche garantire vantaggi competitivi e rafforzare la fiducia di clienti e partner. Le misure concrete includono
- Formazione dei dipendenti: formazione regolare sui nuovi requisiti normativi e sulle linee guida etiche.
- Audit e controlli interni: Implementazione di meccanismi di controllo per garantire la conformità.
- Trasparenza e documentazione: fornire prove dei sistemi di IA utilizzati, dei processi decisionali e delle misure di sicurezza adottate.
- Collaborazione con esperti esterni: coinvolgimento di consulenti legali ed esperti di protezione dei dati per ridurre al minimo i rischi normativi.
- Aggiornamento regolare della strategia di IA: adattamento ai requisiti normativi e agli sviluppi tecnologici.
Volete rendere la vostra azienda adatta alla normativa sull'AI? Lo affronteremo insieme! I nostri esperti saranno lieti di consigliarvi. Chiamateci o scriveteci:
Tel: +39 045 475 7198
E-mail: verona@2b-advice.com
Fonte: Regolamento 2024/1689 che stabilisce norme armonizzate sull'intelligenza artificiale