Guida all'orientamento DSK per i sistemi di intelligenza artificiale: approccio orientato al ciclo di vita

La Conferenza tedesca per la protezione dei dati (DSK) ha pubblicato una guida per i sistemi di intelligenza artificiale.
Categorie:

Con la crescente diffusione dell'intelligenza artificiale (IA) nelle aziende, la questione dello sviluppo e dell'utilizzo di sistemi di IA conformi alla protezione dei dati sta diventando sempre più importante. Il Conferenza sulla protezione dei dati (DSK) ha pubblicato nel giugno 2025 la "Guidance on recommended technical and organisational measures for the development and operation of AI systems". Questo documento concretizza i requisiti della GDPR per le elaborazioni legate all'IA e fornisce una guida pratica per produttori, sviluppatori e utenti per quanto riguarda i sistemi di IA.

Approccio orientato al ciclo di vita e ambito di applicazione dei sistemi di IA

Il DSK organizza i requisiti dei sistemi di IA lungo il loro intero ciclo di vita:

  1. Fase di progettazione
  2. Fase di sviluppo
  3. Fase introduttiva
  4. Funzionamento e monitoraggio

Ogni fase viene analizzata tenendo conto dei sette obiettivi della garanzia del Modello standard di protezione dei dati (SDM) valutato:

Basi legali e responsabilità per i sistemi di IA

I sistemi di intelligenza artificiale sono completamente soggetti alla GDPR. I seguenti principi di base sono particolarmente rilevanti:


Produttore e sviluppatore
sono generalmente considerati Persone responsabili per le fasi di progettazione e sviluppo. Organizzazioni di utenti assumersi la responsabilità dell'attuazione e del funzionamento.

1a fase di progettazione

La fase di progettazione costituisce la base per lo sviluppo di sistemi di IA conformi alla protezione dei dati. In questa fase iniziale, vengono prese decisioni chiave riguardo agli obiettivi, all'architettura e al trattamento dei dati del sistema. L'obiettivo è quello di considerare e implementare adeguatamente i requisiti di protezione dei dati fin dall'inizio.

Un elemento centrale è la Trasparenza. Persone responsabili devono documentare dettagliatamente le fonti dei dati di formazione e garantire la loro origine legittima. La creazione dei cosiddetti "datasheet per i dataset" si è affermata come pratica migliore. In queste schede, le categorie di dati, i metodi di raccolta, lo scopo e l'origine dei dati sono descritti in modo comprensibile.

Come parte del Minimizzazione dei dati è necessario verificare quali categorie di dati sono effettivamente necessarie per la funzionalità desiderata del sistema di IA. Si devono scegliere algoritmi che riducano al minimo l'uso dei dati. L'uso di dati anonimizzati o sintetici deve essere sempre esaminato. Studi pilota e analisi preliminari possono essere utilizzati per valutare realisticamente l'effettiva necessità di dati personali.

Dal punto di vista del non-linking, occorre evitare i rischi che potrebbero derivare dal collegamento di dati provenienti da fonti diverse. L'uso di attributi proxy, che indicano indirettamente caratteristiche sensibili, è particolarmente critico.

Per ottimizzare il Diritti degli interessati (ad esempio, informazioni, Correzione, Cancellazione), i processi organizzativi e le misure tecniche di intervento dovrebbero essere definiti già in fase di progettazione.

Inoltre, i requisiti per Disponibilità, Integrità e Riservatezza devono essere presi in considerazione. Ciò include lo sviluppo di solidi concetti di backup, misure per l'integrità dei dati e del sistema e precauzioni contro l'avvelenamento dei dati o gli attacchi backdoor. Nel progetto devono essere specificati anche i meccanismi di controllo degli accessi e le strategie di crittografia.

2a fase di sviluppo

Nella fase di sviluppo di un sistema di IA, i requisiti definiti nella fase di progettazione vengono realizzati in termini tecnici concreti. In questa fase si implementano gli algoritmi di IA, si preparano i dati di addestramento e si procede all'addestramento e alla convalida dei modelli di IA.

Una preoccupazione centrale della guida all'orientamento DSK in questa fase è il Trasparenza. Persone responsabili deve quindi documentare in modo esauriente l'intero processo di formazione. Ciò include una descrizione precisa dei dati di addestramento, dei metodi di addestramento utilizzati e dei criteri di selezione degli algoritmi impiegati. Tutte le decisioni di addestramento che hanno un'influenza sulle prestazioni del modello e sull'elaborazione dei dati devono essere registrate in modo comprensibile.

Nello spirito di Minimizzazione dei dati Possono essere trattati solo i dati assolutamente necessari per lo scopo formativo definito. Non è consentita una raccolta di dati eccessiva o speculativa. In particolare, nel caso di "sistemi di intelligenza artificiale composti" modulari, è necessario assicurarsi che ogni componente riceva solo i dati necessari.

L'obiettivo di garanzia del non collegamento richiede che i modelli di IA siano addestrati esclusivamente per lo scopo definito nella fase di progettazione. L'acquisizione involontaria di ulteriori informazioni sensibili (ad esempio da variabili altamente correlate) deve essere attivamente prevenuta. A tal fine, devono essere implementati meccanismi di verifica statistica e tecnica adeguati.

Per quanto riguarda la possibilità di intervento, durante lo sviluppo si deve garantire che le richieste di cancellazione o correzione successive siano tecnicamente fattibili. Pertanto, in una fase iniziale si dovrebbero prendere in considerazione procedure come il "machine unlearning" o la riqualificazione modulare senza record di dati specifici.

Per quanto riguarda il Integrità i responsabili devono garantire che i dati di formazione, convalida e test siano corretti, completi e non manipolati. Misure come la convalida dei dati, il rilevamento delle distorsioni e la protezione contro l'avvelenamento dei dati e gli attacchi avversari (ad esempio, gli attacchi di evasione) sono assolutamente essenziali.

Il Riservatezza I dati di addestramento e i modelli devono essere protetti da accessi non autorizzati e da attacchi come l'estrazione di modelli o l'inferenza di appartenenza. Se necessario, i risultati intermedi devono essere anonimizzati o aggregati per ridurre al minimo i riferimenti personali.

3a fase introduttiva

La fase di introduzione descrive la transizione di un sistema di IA dall'ambiente di sviluppo all'uso produttivo. In questa fase, l'attenzione si concentra in particolare sulle questioni relative alla distribuzione e alla configurazione del software nel rispetto della protezione dei dati.

Un obiettivo fondamentale è la trasparenza nei confronti degli utenti e delle parti interessate. I responsabili devono fornire informazioni sul funzionamento del sistema di IA, sulle fonti di dati utilizzate, sull'architettura del sistema e sui fattori che influenzano il processo decisionale. Anche le opzioni di configurazione e i loro effetti sulla protezione dei dati devono essere documentati in modo comprensibile. Ciò include anche la divulgazione degli elementi forniti del sistema di IA (ad esempio, parametri del modello, versioni del sistema, file di configurazione).

Per quanto riguarda il Minimizzazione dei dati è necessario garantire che vengano forniti e trattati solo i dati personali necessari per il rispettivo scopo. La distinzione tra modelli parametrici (ad esempio le reti neurali, che non contengono più dati grezzi) e modelli non parametrici (ad esempio gli algoritmi di k-nearest neighbour, che richiedono comunque dati di addestramento) è particolarmente rilevante in questo caso. Queste differenze influenzano i dati che possono essere trasferiti come parte della distribuzione del software.

Sotto l'aspetto di Riservatezza nella fornitura e distribuzione del sistema di IA devono essere adottate misure di protezione adeguate. Queste includono, in particolare, tecniche di crittografia, restrizioni di accesso e controllo del gruppo di destinatari della distribuzione del software. Se i dati personali sulla formazione fanno parte del sistema fornito, anche questi devono essere soggetti a speciali misure di protezione.

Si noti inoltre che la consegna del sistema può essere rilevante ai sensi della legge sulla protezione dei dati, anche se in questa fase non vengono adottate misure attive di protezione dei dati. Elaborazione dati personali, in quanto costituisce la base per il successivo trattamento dei dati.

Nel complesso, la fase di introduzione getta le basi per un ambiente operativo conforme alla protezione dei dati per il sistema di IA. Richiede un'attenta pianificazione, Documentazione e la validazione tecnica dei componenti software forniti.

Suggerimento di lettura: Interesse legittimo nello sviluppo di sistemi di IA: Guida della CNIL

4. funzionamento e monitoraggio

La fase "Operatività e monitoraggio" descrive l'uso attivo di un sistema di IA e il monitoraggio continuo della sua funzionalità e della conformità alla protezione dei dati. Inizia con il rilascio del sistema di IA per l'uso produttivo e comprende tutte le attività operative e di manutenzione in corso.

Una delle principali preoccupazioni della guida DSK in questa fase è il Trasparenza. Persone responsabili devono quindi documentare tutte le procedure di elaborazione, gli aggiornamenti del sistema e le regolazioni dei modelli in maniera a prova di audit. In particolare, ciò include la registrazione dei dati utilizzati, delle versioni del modello di IA e delle modifiche apportate al sistema. Anche la storia decisionale del sistema di IA deve essere archiviata in modo tracciabile, per quanto possibile, soprattutto nel caso di decisioni automatizzate con effetto legale.

Per quanto riguarda il Minimizzazione dei dati deve verificare costantemente se i dati personali raccolti ed elaborati in azienda sono ancora necessari per gli scopi specificati. In caso contrario, i dati devono essere cancellati o resi anonimi. La minimizzazione dei dati è necessaria anche per il feedback degli utenti al fine di migliorare il sistema di intelligenza artificiale. Elaborazione garantire.

La capacità di intervento deve essere garantita in ogni momento. Ciò include la possibilità di Diritti degli interessati come informazioni, Correzione o Cancellazione efficacemente in ogni momento. Soluzioni tecniche come sistemi di filtraggio o controlli di input e output aiutano a prevenire o a correggere gli output indesiderati del modello. Obblighi di cancellazione dei dati contenuti nel modello Dati personali (machine unlearning) deve essere implementato, se tecnicamente possibile.

Per ottimizzare il Integrità del sistema di IA, le aziende devono assicurarsi che non venga compromesso da attacchi avversari (ad esempio, manipolazione degli input) o da modifiche non autorizzate del modello. Test, convalide e valutazioni del rischio regolari, ad esempio attraverso il red teaming, sono componenti importanti di un funzionamento sicuro.

Il Riservatezza è di importanza centrale nelle operazioni quotidiane. Controlli di accesso, Cifratura e la registrazione hanno lo scopo di impedire a persone non autorizzate di accedere ai parametri sensibili del modello o di Dati personali In particolare, quando si utilizzano sistemi di retrieval augmented generation (RAG), è importante monitorare attentamente chi è autorizzato ad accedere a quali fonti di dati.

Aspetti aggiuntivi per i sistemi di intelligenza artificiale

Oltre ai requisiti relativi alle fasi della guida DSK, vi sono altri aspetti importanti che sono rilevanti per lo sviluppo e il funzionamento dei sistemi di IA nel rispetto della protezione dei dati.

Gestire i sistemi di intelligenza artificiale ad alto rischio

Per i cosiddetti sistemi di IA ad alto rischio ai sensi del Regolamento IA (KI-VO), si applicano requisiti più severi. Questi si riferiscono in particolare alla completa Documentazione dei dati, degli algoritmi e delle decisioni di modellazione utilizzate, nonché un sistema di gestione della qualità vincolante. Le aziende devono garantire che i sistemi di IA siano stati sottoposti alle procedure di valutazione della conformità richieste. Analisi regolari dei rischi e l'implementazione di un sistema di Valutazione dell'impatto sulla protezione dei dati (DSFA) sono obbligatori.

Considerazione di modelli di fornitori terzi

Quando si utilizzano modelli di IA sviluppati esternamente o pre-addestrati (ad esempio, LLM open source o servizi basati su API), è necessario effettuare ulteriori controlli di sicurezza e protezione dei dati. Questi includono in particolare

  • Una revisione dell'origine e della qualità dei dati di formazione
  • Controllo di possibili attacchi backdoor o di avvelenamento dei dati
  • La salvaguardia contrattuale degli obblighi di protezione dei dati da parte dell'offerente
  • Valutare i rischi degli attacchi di estrazione di modelli o di inferenza di appartenenza


Le aziende devono assicurarsi che la tracciabilità e la trasparenza della Trasparenza di questi modelli di fornitori terzi sia documentato. Inoltre, l'uso di tali modelli deve essere controllato regolarmente per verificare la conformità al GDPR.

Progettazione del contratto

Il DSK raccomanda di tenere conto dei requisiti specifici di protezione dei dati nella stesura dei contratti con i fornitori e i prestatori di servizi. Le componenti contrattuali importanti dovrebbero includere

  • Chiara definizione delle responsabilità (rapporto controllore-elaboratore)
  • Specifiche per le misure tecniche e organizzative (TOM)
  • Diritti di verifica e controllo del cliente
  • Regolamenti sulla restituzione, cancellazione e portabilità dei dati
  • Accordi sugli obblighi di segnalazione in caso di violazione dei dati


Soprattutto quando si utilizzano offerte di AI-as-a-Service, le norme contrattuali sono essenziali per garantire un livello adeguato di protezione dei dati per le operazioni di trattamento esternalizzate. Gestione dei sistemi di IA ad alto rischio Ai sistemi di IA ad alto rischio si applicano ulteriori requisiti di documentazione e di gestione della qualità, in conformità al regolamento sull'IA.

Conclusioni e raccomandazioni per la pratica

La guida all'orientamento di DSK offre per la prima volta una Guida sistematica, pratica e giuridicamente valida per l'intero ciclo di vita dell'IA. Richiede requisiti elevati per il Documentazioneprogettazione tecnologica e processi organizzativi. Le aziende devono Protezione dei dati in tutte le fasi di sviluppo e utilizzo dell'IA.

L'attuazione dei requisiti definiti nella DSK Guidance richiede un approccio strategico e strutturato da parte delle organizzazioni. Le seguenti raccomandazioni hanno lo scopo di aiutare le organizzazioni a integrare i requisiti di protezione dei dati nei loro processi in modo pratico ed efficiente:

  • Creazione di un piano d'azione per la protezione dei dati dell'IA: Prima dell'inizio del progetto è necessario sviluppare un piano dettagliato che definisca i controlli, le misure e le responsabilità necessarie per la protezione dei dati. Tale piano deve tenere conto di tutte le fasi del ciclo di vita di un sistema di IA.
  • Esecuzione tempestiva e ripetuta di valutazioni d'impatto sulla protezione dei dati (DPIA): È necessario effettuare una DPIA per tutti i progetti di IA ad alto rischio. Si raccomanda un approccio iterativo: le valutazioni iniziali vengono effettuate durante la fase di progettazione, seguite da ulteriori aggiornamenti durante le fasi di sviluppo e operative.
  • Istituzione di un organo di governo dell'IA: Questo team interdisciplinare composto da responsabili della protezione dei dati, specialisti della sicurezza informatica, sviluppatori di IA e responsabili della conformità gestisce il supporto alla protezione dei dati per i progetti di IA, valuta i rischi e coordina le misure.
  • Misure di formazione e sensibilizzazione per i team di sviluppatori e di prodotto: È essenziale sensibilizzare tutte le persone coinvolte nel progetto di IA ai requisiti di protezione dei dati. Ciò include la formazione su argomenti quali Minimizzazione dei datirequisiti di trasparenza, valutazioni del rischio e diritti degli interessati.
  • Implementazione di un processo di monitoraggio e audit: Le aziende devono monitorare costantemente se i loro sistemi di IA sono conformi ai requisiti di protezione dei dati. Ciò include verifiche regolari delle procedure di elaborazione dei dati, la revisione dell'efficacia delle misure tecniche di protezione e la valutazione costante dei rischi.
  • Documentazione e verifica: Tutte le decisioni, le misure e i controlli relativi alla protezione dei dati devono essere documentati in modo comprensibile al fine di soddisfare i requisiti di responsabilità di cui all'art. 5 (2) del GDPR. GDPR per rendere loro giustizia.
  • Definizione di un piano di risposta agli incidenti per le violazioni di dati legate all'intelligenza artificiale: Poiché i sistemi di intelligenza artificiale comportano rischi specifici, è necessario predisporre un piano di emergenza che definisca i canali di risposta rapida e di segnalazione, nonché le contromisure adeguate in caso di incidenti legati alla protezione dei dati.


Fonte: Guida alle misure tecniche e organizzative raccomandate per lo sviluppo e il funzionamento dei sistemi di IA (versione 1.0)

I prossimi passi con Ailance - Gestione integrata del rischio

Volete implementare i requisiti della Linea Guida DSK in modo efficiente e sostenibile nella vostra azienda? Il nostro software Ailance - Gestione integrata del rischio vi supporta nel riconoscere, valutare e gestire i rischi legati alla protezione dei dati in tutte le fasi del ciclo di vita dell'IA.

Con Ailance è possibile:

  • Eseguire e documentare sistematicamente le valutazioni d'impatto sulla protezione dei dati (DPIA).

  • Misure tecniche e organizzative (TOM) Mappatura e tracciamento specifici per l'AI

  • Gestire efficacemente i rischi dei fornitori e dei fornitori terzi

  • Creare la documentazione di audit e conformità per gli audit interni ed esterni.

  • Diritti degli interessati e i processi di risposta agli incidenti in modo efficiente

Prendete un appuntamento con noi, ne vale la pena!

Tag:
Condividi questo post :