La privacy al tempo dell’AI: il dibattito tra risorse open source e prodotti proprietari nella PA

Home PA Digitale Servizi Digitali La privacy al tempo dell’AI: il dibattito tra risorse open source e prodotti proprietari nella PA

I software basati sull’intelligenza artificiale, da quelli per l’automazione ai chatbot fino all’AI generativa di ChatGPT, hanno aperto un dibattito sull’uso di risorse open source in contrapposizione a prodotti “proprietari”. Secondo Appian, la privacy è un motivo fondamentale per scegliere l’AI privata, soprattutto per le organizzazioni che gestiscono dati strategici o sensibili, come la sanità, gli enti del governo e tutte le amministrazioni pubbliche

6 Ottobre 2023

L

Patrizia Licata

Giornalista

Foto di Loic Leray su Unsplash https://unsplash.com/it/foto/fCzSfVIQlVY

L’arrivo sul mercato di ChatGPT ha rivoluzionato la percezione che il pubblico e le imprese hanno dell’intelligenza artificiale. L’AI non nasce certo con OpenAI, la società californiana che ha sviluppato il modello GPT: aziende e consumatori da anni usano dispositivi e piattaforme che incorporano, in qualche forma, l’AI, dagli smartphone ai sistemi enterprise con componenti di automazione. Ma la novità di ChatGPT è che ha perfezionato le capacità generative dell’intelligenza artificiale ed è stato lanciato sul mercato di massa, dando prova di tutta la potenza di un LLM (Large Language Model) e facendo esplodere l’interesse a cercare applicazioni concrete per le organizzazioni.

I nuovi sistemi di AI e la PA

Nella pubblica amministrazione, per esempio, i nuovi sistemi AI (che includono, tra l’altro, chatbot e capacità di analisi evolute) aiutano a migliorare la relazione col cittadino offrendo una customer experience più soddisfacente.

La crescita del mercato si rispecchia nei dati elaborati da Statista nello studio “Artificial Intelligence in Europe”, che su base globale stima un giro d’affari di quasi 2.000 miliardi di dollari nel 2030. Aumentano anche gli investimenti – soprattutto negli Usa e in Cina – in startup del settore, con un focus su chatbot e AI conversazionale. L’Italia e i Paesi europei mostrano una maggiore diffidenza, legata – tra i vari fattori – al controllo sui dati e alla sicurezza, anche perché i sistemi come GPT hanno una base open source.

“Esistono preoccupazioni legittime riguardo alla privacy dei dati e alle implicazioni etiche dell’intelligenza artificiale generativa, tra cui pregiudizi ed equità, diritti di proprietà intellettuale e spostamento dei posti di lavoro”, afferma Lorenzo Alegnani, Area Vice President, Customer Success di Appian. “A queste preoccupazioni si lega il dibattito in corso sulla disponibilità dell’intelligenza artificiale generativa per tutti gli utenti attraverso strumenti di intelligenza artificiale open source. Alcuni esperti ritengono che sia fondamentale migliorare la nostra comprensione dell’intelligenza artificiale prima di rendere disponibile al pubblico il codice sorgente”.

ChatGPT e il dibattito sull’open source

Il software di OpenAI è basato su un codice open source che può essere usato come base per lo sviluppo di prodotti che incorporano l’AI generativa. Infatti, dal lancio di GPT-4 lo scorso anno, la proliferazione di strumenti di intelligenza artificiale è stata esponenziale tanto da far prevedere quasi 78 milioni di utenti entro due anni dal rilascio di ChatGPT. D’altro lato, alcune aziende ne hanno vietato l’uso nelle loro organizzazioni, citando problemi di privacy e conformità, mentre i governi – tra cui l’Ue con l’AI Act – si preparano ad introdurre leggi per regolamentarne l’uso.

I sostenitori dell’open source, che includono Meta (Facebook), ma anche il governo francese, affermano che questo approccio è vantaggioso in quanto consente agli sviluppatori di creare, sperimentare e collaborare su modelli di intelligenza artificiale generativa aggirando le barriere all’ingresso rappresentate dai costi. L’open source, infatti, si basa su un patrimonio di conoscenza condiviso e continuamente arricchito dagli utenti.

In particolare, il presidente della Francia Emmanuel Macron ha messo in campo un investimento di 40 milioni di euro in un “digital commons” aperto per i progetti di AI generativa sviluppati in Francia al fine di attrarre capitali da investitori privati, collocando la governance, da un lato, nell’alveo della normativa dell’Ue, dall’altro, da un punto di vista tecnico, nel perimetro del codice sorgente aperto.

Tuttavia, l’AI non è una tecnologia come tutte le altre: fortemente dipendente dai dati e con importanti implicazioni etiche, per alcuni lo sviluppo dell’AI dovrebbe, almeno all’inizio, essere privato.

AI e dati, i vantaggi del modello privato per la PA

La contraddizione dei Paesi Ue è evidente nei dati di Statista. A livello enterprise, l’Italia è tra i massimi utilizzatori o sperimentatori di soluzioni AI: oltre l’80% delle nostre aziende impiega l’AI (il 42%) o ne esplora l’impiego (41%). Queste percentuali ci collocano quarti nel mondo dopo Cina, Singapore e India e sopra la media globale (75%). Ma quando si parla di fiducia nell’intelligenza artificiale, tutti i Paesi occidentali si mostrano restii ad accettare i sistemi basati sull’AI, perché temono che l’automazione bruci milioni di posti di lavoro, specialmente di tipo impiegatizio, e causi una perdita di controllo sui dati personali. Si tratta di un tema che impatta profondamente anche la pubblica amministrazione, che è il più grande datore di lavoro per molti Paesi e che gestisce enormi quantità di dati anche sensibili (dall’identità personale alle informazioni sanitarie).

Dal punto di vista di Appian, con l’intelligenza artificiale privata, gli utenti possono creare appositamente un modello di intelligenza artificiale per fornire i risultati di cui hanno bisogno, addestrati sui dati di cui dispongono e in grado di eseguire i comportamenti desiderati, garantendo nel contempo che i dati non sfuggano mai al loro controllo. Gli utenti ottengono modelli unici e la garanzia che i loro dati avvantaggino solo loro e i loro clienti. “La privacy dei dati è un motivo fondamentale per scegliere l’AI privata, soprattutto per le aziende i cui dati rappresentano un vantaggio competitivo o altamente riservati, come organizzazioni mediche, sanitarie, di servizi finanziari, assicurativi e del settore pubblico”, aggiunge Alegnani.

Al momento, alcune organizzazioni sono riluttanti a condividere i propri dati con i fornitori di intelligenza artificiale del cloud pubblico, che potrebbero utilizzarli per addestrare i propri modelli. Per le imprese e le pubbliche amministrazioni, che hanno bisogno di una privacy e di una governance rafforzate, l’intelligenza artificiale privata offre un’alternativa che consente di sfruttare i vantaggi trasformativi dell’intelligenza artificiale per l’efficienza dei processi mantenendo la proprietà dei propri dati e il controllo sulla loro gestione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!