Linee Guida EDPB: i modelli di IA conformi al GDPR
L’Opinion 28/2024 del Comitato europeo per la protezione dei dati (EDPB) fornisce le prime indicazioni sull’uso dei dati personali per lo sviluppo e la diffusione dei modelli di IA. L’EDPB analizza il ruolo dell’anonimizzazione, la possibilità di utilizzare l’interesse legittimo come base giuridica nella fase di addestramento e di impiego del modello e le conseguenze del trattamento illecito
30 Gennaio 2025
Patrizia Cardillo
Esperta di Protezione dati personali

Foto di Siora Photography su Unsplash - https://unsplash.com/it/foto/donna-che-si-copre-il-viso-con-un-libro-aperto-K-g-Kt1vAHs
Arrivano dal Comitato europeo per la protezione dei dati (EDPB) le prime indicazioni sull’uso dei dati personali per lo sviluppo e la diffusione di modelli di Intelligenza Artificiale (IA). L’Opinion 28/2024, adottata il 18 dicembre 2024, costituisce un primo intervento in materia diretto a garantire che l’innovazione tecnologica non comprometta i diritti fondamentali degli individui.
Il caso
Il 4 settembre 2024, l’autorità irlandese ha richiesto all’EDPB di emettere un parere, ai sensi dell’articolo 64, paragrafo 2 del GDPR, sulle modalità di trattamento dei dati personali nel contesto dello sviluppo e dell’implementazione dei modelli di IA.
Più in dettaglio i quesiti riguardavano:
- condizioni di anonimizzazione nei modelli IA;
- utilizzo dell’interesse legittimo come base giuridica nella fase di addestramento e di impiego del modello;
- quali sono le conseguenze del trattamento illecito dei dati personali nella fase di sviluppo di un modello di IA sul suo successivo utilizzo.
La risposta dell’EDPB
Su quei quesiti specifici, l’EDPB ha risposto precisando che il parere non analizza disposizioni più generali che svolgono un ruolo importante nella valutazione dei requisiti di protezione dei dati applicabili ai modelli di IA e ha anticipato che altri interventi seguiranno nei prossimi mesi.
L’anonimizzazione
In riferimento alla prima questione, l’EDPB dopo aver premesso che la valutazione, caso per caso, deve essere effettuata dalle autorità competenti, precisa come anche quando un modello di IA non è stato intenzionalmente progettato per fornire informazioni relative a una persona fisica identificata o identificabile a partire dai dati di addestramento, le informazioni del dataset di addestramento, inclusi i dati personali, possono comunque rimanere “assorbite” nei parametri del modello e possono essere estratte o altrimenti ottenute, direttamente o indirettamente, dal modello in una fase successiva anche grazie a tecniche di analisi in continua evoluzione.
Tale forte dichiarazione di principio è tesa ad evitare una deriva verso la deresponsabilizzazione in un mercato nel quale pochi soggetti sviluppano e addestrano modelli, e molti altri li impiegano attraverso diverse forme di riaddestramento per scopi propri. Non c’è dunque alcuna automatica interruzione di responsabilità tra development e deployment, e chi usa un modello che non ha sviluppato deve sapere che può trovarsi a trattare dati personali.
Naturalmente, la ragionevolezza dello sforzo necessario per estrarre dati personali dai parametri del modello conta, e se lo sforzo è “irragionevole” allora la natura anonima dei parametri di un modello di IA può essere affermata. Tuttavia, prosegue l’EDPB, la ricerca scientifica è particolarmente dinamica in questo settore e occorre tenerne conto ed essere sempre aggiornati.
Il metodo
In linea generale, affinché un modello di IA possa essere considerato “anonimo”, è necessario verificare almeno che, con mezzi ragionevoli, i dati personali contenuti nei dati di addestramento, non possano essere estratti dal modello e qualsiasi output prodotto dal modello non sia relativo a quei soggetti i cui dati personali sono stati utilizzati per addestrare il modello stesso.
L’EDPB fornisce anche un elenco esemplificativo di possibili elementi che le autorità di controllo possono considerare nei confronti di un titolare del trattamento che afferma di aver sviluppato un modello “anonimo” a partire dalla documentazione fornita dal titolare del trattamento e dalle informazioni rese. Tra l’altro occorre verificare come è stato progettato il modello, come è avvenuta la selezione delle fonti di addestramento, la preparazione dei dati, la loro minimizzazione, le scelte metodologiche effettuate rispetto all’addestramento, le salvaguardie implementate. Sicuramente la soglia di attenzione è stata alzata, ma era inevitabile.
L’interesse legittimo
Per quanto riguarda l’utilizzo dell’interesse legittimoquale base giuridica del trattamento, l’EDPB sottolinea come non c’è una gerarchia tra le basi giuridiche del trattamento e che spetta esclusivamente al titolare del trattamento identificare quella più appropriata. L’utilizzo dell’interesse legittimo come base giuridica di un trattamento presuppone da parte del titolare l’aver svolto tutte quelle valutazioni già contenute nelle Linee guida 1/2024[1]. Occorre:
- identificare l’interesse legittimo, concreto e definito, perseguito dal titolare o da un terzo;
- analizzare la necessità di quel trattamento per la finalità perseguita (ci sono strumenti meno invasivi?);
- operare il test di bilanciamento: valutare cioè che l’interesse legittimo del titolare prevalga sugli interessi o sui diritti e le libertà fondamentali degli interessati. Va valutata la tipologia dei dati, la trasparenza e i rischi di discriminazione. In particolare, l’EDPB sottolinea come specifica attenzione vada posta all’analisi dell’impatto del trattamento sugli interessati e alle loro aspettative ragionevoli: infatti, in ragione della complessità delle tecnologie utilizzate nei modelli di IA, potrebbe essere difficile per gli interessati comprenderne le modalità di utilizzo e quali siano le diverse attività di trattamento attuate.
All’esito delle valutazioni, il titolare può ulteriormente intervenire a salvaguardia degli interessati, attraverso l’introduzione di misure di mitigazione per limitare l’impatto del trattamento su interessi, diritti e libertà individuali. Misure di mitigazioni ulteriori rispetto a quelle che il titolare è comunque tenuto ad adottare per garantire la conformità al GDPR e devono essere adattate alle circostanze del caso e alle caratteristiche del modello di IA, incluso il suo uso previsto.
L’Opinion 28/2024 riporta alcune possibili misure di mitigazione più specifiche da adottare anche nella fase di deploymet e nel contesto del web scraping.
Conseguenze del trattamento illecito dei dati personali
In merito all’ultimo quesito, l’EDPB ricorda come le autorità di controllo hanno tutti gli strumenti per valutare le possibili violazioni e adottare misure appropriate, necessarie e proporzionate, tenendo conto delle circostanze specifiche, a partire dall’attribuzione delle responsabilità. Fondamentale emerge ancora una volta l’importanza di una documentazione completa ed ordinata, di una valutazione dei rischi accurata ripetuta nel tempo e la considerazione evidente che la responsabilità si trasmette su tutta la catena di fornitura, senza interruzione per il “semplice” utilizzatore.
L’EDPB evidenzia tre possibili scenari di trattamento illecito:
- Stesso controllore, dati contaminati: se il responsabile del trattamento che ha elaborato i dati in modo illecito continua a distribuire il modello, deve riesaminare la conformità del modello e potrebbe doverne interrompere l’uso, riqualificarlo o applicare misure correttive.
- Acquisizione del modello da parte di terzi: un’azienda che acquista un modello di intelligenza artificiale pre-addestrato deve condurre una idonea valutazione dei rischi. L’EDPB richiama l’AI Act laddove si prevede che i fornitori di sistemi di IA ad alto rischio debbano redigere una dichiarazione di conformità che attesti la conformità del sistema di IA alle leggi sulla protezione dei dati dell’UE; tale dichiarazione pur non sufficiente a provare il rispetto del GDPR può essere presa in considerazione dalle autorità di controllo per la loro valutazione.
- Anonimizzazione prima della distribuzione: se i dati personali del modello vengono realmente anonimizzati prima della distribuzione e si dimostra che l’utilizzo successivo del modello di IA non comporta il trattamento di dati, il GDPR non è più applicabile; sempre però a condizione che l’anonimizzazione soddisfi la soglia elevata stabilita dall’EDPB. In questi casi la liceità del trattamento effettuato nella fase di utilizzo non dovrebbe essere influenzata dall’illiceità del trattamento iniziale in fase di sviluppo.
La rilevanza delle questioni legate alla protezione dei dati personali, connesse all’evoluzione delle tecnologie di IA e alla loro capacità di elaborare grandi quantità di dati personali, pone sfide significative in termini di protezione dei dati personali. Occorre serenamente monitorare gli interventi delle autorità nei casi specifici per garantire uno sviluppo e un utilizzo di tali modelli nel rispetto dei diritti e delle libertà delle persone fisiche.
Contributo alla Rubrica “Appunti di Privacy”: notizie, spunti di riflessione, brevi commenti, chiarimenti sui principali temi di attualità sul tema della tutela dei dati personali. A cura di Patrizia Cardillo, Esperta di Protezione dati personali, in collaborazione con FPA.
[1] EDPB, Linee guida sul trattamento di dati personali fondato sull’articolo 6(1)(f) GDPR, versione 1.0, adottata l’8 ottobre 2024.