Solo il 50% degli italiani comprende cos’è un’informazione non umana, generata dagli algoritmi. Questo dato ci conferma quanto la sfida dell’intelligenza artificiale sia più che mai aperta. Il Sottosegretario Alberto Barachini in questa intervista parla del lavoro svolto dalla Commissione sull’intelligenza artificiale per l’informazione del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio dei ministri e del disegno di legge sull’intelligenza artificiale, evidenziando punti salienti come la difesa del copyright e il reato di deepfake
31 Ottobre 2024
Redazione FPA
Solo il 50% degli italiani comprende cos’è un’informazione non umana, digitale, generata dagli algoritmi”.
Un dato interessante, che si ricollega al lavoro svolto dalla Commissione sull’intelligenza artificiale per l’informazione del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio dei ministri. Un lavoro che ha contribuito al disegno di legge sull’intelligenza artificiale, approvato lo scorso aprile e attualmente al vaglio delle commissioni del Senato. Tra i contenuti più rilevanti vi sono: la difesa del copyright, del valore dell’editoria e dell’informazione, con conseguente tutela dei profili occupazionali; e l’identificazione dei contenuti prodotti con l’intelligenza artificiale per rendere i cittadini più consapevoli del cosiddetto reato di deepfake, cioè l’alterazione completa di un contenuto da reale a non reale. Inoltre, il disegno di legge introduce una nuova fattispecie di reato e delle aggravanti per il reato di deepfake. Questa novità fa parte della visione italiana ed è perfettamente in linea con l’AI Act europeo. È da qui che prende le mosse l’intervista ad Alberto Barachini, Sottosegretario di Stato alla Presidenza del Consiglio dei ministri, in occasione della “Maratona FORUM PA. Smart Life Festival 2024”, l’evento online di un’intera giornata, realizzato da FPA in collaborazione con il Comune di Modena il 16 ottobre scorso.
Occupazione e creatività: l’IA sfiderà il giornalismo?
Di fronte al timore che l’IA possa rimpiazzare i giornalisti, emerge una risposta: la creatività e l’originalità, capacità unicamente umane. Tuttavia, il rischio che l’economicità dell’IA rispetto all’utilizzo del personale giornalistico porti a una riduzione del personale resta una preoccupazione concreta. Qual è, secondo Barachini, il punto di equilibrio? Risiede in un utilizzo etico dell’intelligenza artificiale, che ponga l’uomo al centro del processo come responsabile editoriale dei contenuti. In altre parole, il cosiddetto ‘visto si stampi’, ovvero i contenuti che giungono al cittadino, devono sempre essere soggetti a un controllo umano.
L’impatto dei deepfake
“La percezione dei cittadini su un messaggio viene modificata non soltanto da un messaggio che è chiaramente fallace, falso, ma anche dalla ripetizione dello stesso messaggio”.
Questo è un tema particolarmente delicato perché, dall’altra parte di questo ragionamento, c’è la libertà di espressione, ovvero il confine tra il diritto di esprimersi liberamente in ogni contesto e il diritto di arginare questi fenomeni. Anche in questo caso, il ghiaccio è estremamente sottile: dove inizia la libertà di pensiero e dove comincia ciò che è considerato un contenuto giocoso di deepfake?
Cogliere le opportunità: regolamentazione e innovazione nell’informazione
Moltiplicare i contenuti editoriali e liberare risorse giornalistiche per inchieste più approfondite rappresentano opportunità da cogliere, per rispondere meglio alle esigenze dei cittadini in un mondo informativo in continua evoluzione.
“Il genio non torna nella bottiglia” è un’espressione usata dai massmediologi americani per indicare che, una volta avviato, il processo di innovazione è irreversibile. Affrontare l’innovazione significa accettare questa realtà e fare i conti con il cambiamento in atto. La chiave è sviluppare un codice di autoregolamentazione dell’IA che possa guidare il suo uso etico, come quelli adottati da importanti testate italiane quali Il Sole 24 Ore e ANSA