Deepfake, cosa sono e perché la PA deve alzare la soglia di attenzione

Home PA Digitale Sicurezza Digitale Deepfake, cosa sono e perché la PA deve alzare la soglia di attenzione

I cybercriminali utilizzano l’IA Generativa a scopo di sottrazione di denaro, dati e infiltrazione nei sistemi IT. I Deepfake sono audio e video falsi, ma sempre più credibili, tanto che “anche le videoconferenze live possono essere clonate”, svela a FPA Vincenzo Ciancaglini, ricercatore senior di Trend Micro. Una breve guida a cosa sono i Deepfake e agli strumenti per rilevarli insieme ad altre frodi basate sull’intelligenza artificiale

15 Ottobre 2024

L

Patrizia Licata

Giornalista

L’intelligenza artificiale classica e generativa non cresce solo nelle applicazioni usate dalle imprese e dalle pubbliche amministrazioni: anche nell’underground criminale l’IA è diventata la tecnologia emergente per nuovi strumenti di attacco: i Deepfake. Una delle tecniche più usate è quella dei Deepfake, che altera i contenuti multimediali, ovvero audio, video e immagini, restituendo un prodotto molto realistico a scopo di inganno – spesso per estorcere dati e denaro o per infiltrare i sistemi aziendali.

“Il Deepfake è tecnologia basata su un’IA avanzata che crea media realistici, ma falsi, per scopi di attacco e truffa: pensiamo a immagini di persone in cui il volto viene sostituito o agli audio ingannevoli che replicano la voce di qualcuno che conosciamo”, afferma Vincenzo Ciancaglini, PhD, Senior Threat Researcher del team ETR di Trend Micro.

I Deepfake sono apparsi le prime volte nel 2017. Trend Micro li ha investigati fin dall’inizio, producendo i suoi primi report sul fenomeno nel 2019-2020. Uno dei primi casi è stato descritto nel Regno Unito: il truffatore aveva utilizzato un Deepfake audio per attaccare un’azienda clonando la voce di un top executive per chiedere un bonifico.

“Allora era una tecnologia emergente, che richiedeva risorse tecniche e tempo, ma oggi i software si comprano con 100-200 dollari sul dark web e danno accesso a servizi e applicazioni per creare i Deepfake. E intanto la qualità dei fake è più alta e gli attacchi, verso imprese e PA, sono aumentati”, dichiara Ciancaglini.

Deepfake, cyber-minaccia in ascesa

In un recente episodio che ha sfruttato l’IA Generativa, la sede di una multinazionale a Hong Kong ha subito un attacco Deepfake tramite videoconferenza: il “clone” del CFO ha indotto le vittime a effettuare una serie di bonifici.

“L’obiettivo primario è l’estorsione di denaro e informazioni, ma i Deepfake possono essere usati anche per infiltrarsi nei sistemi aziendali”, svela Ciancaglini. “L’FBI – una delle forze dell’ordine globali con cui Trend Micro collabora per le sue ricerche – ha riportato l’utilizzo della tecnologia Deepfake nelle videochiamate per effettuare attacchi di compromissione dell’email aziendale o inviare candidature fraudolente a posizioni di lavoro da remoto, a scopo di spionaggio commerciale o tra governi”.

Una recente ricerca di Trend Micro mette in luce proprio i trend attuali e futuri legati ai Deepfake. Alcuni di questi sono in grado di aggirare i sistemi di verifica del cliente (know-your-customer) usati nel mondo bancario: partendo da carte di identità rubate si possono clonare i visi delle persone e richiedere l’apertura di un conto sotto falso nome e con un “falso viso” quando si apre la webcam.

I rischi: dall’estorsione all’infiltrazione nei sistemi IT

“La nostra analisi ha rivelato strumenti Deepfake di nuova generazione che consentono a qualsiasi cybercriminale di orchestrare truffe sofisticate e attacchi di ingegneria sociale, eludendo i sistemi di sicurezza più avanzati”, sottolinea Ciancaglini. “Questa tecnologia non viene utilizzata solo per aggirare verifiche umane ma anche per superare misure di sicurezza biometriche come il riconoscimento facciale”.

Il 71% delle persone intervistate da Trend Micro considera in modo negativo i Deepfake e ritiene che vengano utilizzati principalmente per compiere frodi – e non è una percezione errata, visto che, nella stessa ricerca, il 36% dei consumatori riferisce di aver subito un tentativo di truffa che utilizzava un Deepfake.

“Alcuni casi di alto profilo sono stati la clonazione del viso di Elon Musk per delle pubblicità o dei top executive della piattaforma di criptofinanza Binance a scopo di inganno”, prosegue Ciancaglini. “Ovviamente è facile smentire questi falsi non appena il personaggio clonato si accorge della truffa e, comunque, a un occhio esperto il Deepfake appare evidente. Ma molti sguardi frettolosi possono essere ingannati. Parlare di questi attacchi aiuta a costruire la consapevolezza nelle aziende, ma la piena awareness richiede tempo”.

Deepfake, la PA deve alzare l’attenzione

Anche per le pubbliche amministrazioni è necessario alzare la soglia di attenzione, perché Deepfake molto evoluti possono ingannare a qualunque livello: può essere un falso fornitore lungo la catena del procurement, il clone di un partner in videochiamata o una voce ingannevole al telefono.

“La consapevolezza sarà piena quando cominceremo a diffidare by default”, afferma Ciancaglini. “E useremo delle domande personali e altri accorgimenti che scardinano il flusso audio-video dell’IA mettendo a nudo il fake”.

La consapevolezza è necessaria perché i Deepfake diventeranno sempre più accessibili agli attori malevoli e quindi più diffusi, nonché più credibili ed efficaci, evidenzia Trend Micro.

“Per questo Trend Micro è in prima linea nella lotta contro queste minacce e, grazie alle nostre nuove funzionalità per il rilevamento dei Deepfake e altre frodi basate sull’IA, permettiamo ai nostri clienti di rimanere sempre al sicuro”, afferma Ciancaglini. “Come abbiamo sempre fatto, monitoriamo attentamente le evoluzioni nel panorama delle minacce e del mondo IT e oggi ci siamo impegnati anche a proteggere l’intelligenza artificiale”.

Strumenti di difesa contro i Deepfake

La piattaforma Trend Micro supera le tradizionali tecniche di analisi del rumore dell’immagine e del rilevamento del colore e analizza anche gli elementi comportamentali degli utenti, fornendo un approccio molto più efficace per rilevare e fermare i Deepfake. Una volta rilevata la minaccia, Trend avvisa subito i team di sicurezza del cliente, consentendo loro di apprendere, istruire e adottare misure proattive per prevenire attacchi futuri. Inoltre, la soluzione specifica (e gratuita) Trend Micro Deepfake Inspector avvisa gli utenti in caso di potenziali Deepfake durante una videochiamata. L’analisi avviene in tempo reale e localmente sul dispositivo utilizzato nel rispetto dei dati e della privacy dell’utente.

Il lancio di queste nuove soluzioni fa parte della missione di Trend di proteggere i propri clienti nella loro adozione della IA. In linea con la strategia Zero Trust, Trend ha rilasciato anche nuove funzionalità in Trend Vision One, progettate per centralizzare la gestione dell’accesso e dell’utilizzo di GenAI da parte dei dipendenti, ispezionare le richieste per prevenire fughe di dati e iniezioni dannose, filtrare i contenuti GenAI per soddisfare i requisiti di conformità e difendersi dagli attacchi che sfruttano i LLM (Large Language Model).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

Data Governance e cybersicurezza: l’impatto dell'IA nella pubblica amministrazione