Mar 22, 2024 Approfondimenti, Attacchi, Minacce, News, RSS
Nel 2024 i deepfake saranno una delle applicazioni di intelligenza artificiale più usate dagli attaccanti: a dirlo è il report “Adversarial Intelligence: Red Teaming Malicious Use Cases for AI” redatto da Insikt Group di Recorded Future.
Il mondo del cybercimine sta già sfruttando le potenzialità dell’IA, sperimentando LLM, modelli per la generazione di immagini e modelli text-to-speech, e continuerà a investire su nuovi tool per perfezionare i propri attacchi.
I deepfake possono essere creati con tool open-source e usati per impersonare manager aziendali, migliorando le campagne di social engineering. La possibilità di usare strumenti a costo zero o comunque minimo consente agli attaccanti anche di creare contenuti per campagne di disinformazione, sviluppando facilmente siti web falsi.
Agli attaccanti bastano clip video di meno di un minuto per addestrare i modelli e generare deepfake; inoltre possono contare anche su tool che permettono il live-cloning, ovvero la clonazione di audio e video in tempo reale.
Negli ultimi mesi si sono verificati molti casi di attacchi di social engineering tramite deepfake, come quello che ha coinvolto il dipendente di una grande compagnia di Hong Kong. In questo caso specifico, gli attaccanti sono riusciti a rubare 25 milioni di dollari alla società riproducendo non solo il CFO della compagnia, ma anche altri dipendenti.
La vicenda di Hong Kong è una dimostrazione di come questa tecnica può rivelarsi devastante per un’azienda sia dal punto di vista finanziario che della reputazione, con conseguenze anche a lungo termine.
I ricercatori sottolineano che ci sono comunque delle limitazioni nel processo di creazione dei deepfake: innanzitutto, acquisire delle clip audio di elevata qualità non è così semplice e richiede l’intervento umano; in secondo luogo, per le operazioni di live-cloning gli attaccanti devono riuscire a superare i meccanismi di controllo delle soluzioni commerciali e risolvere i problemi di latenza.
Nonostante ciò, il mondo del cybercrimine si sta evolvendo molto velocemente e presto sarà in grado di superare questi ostacoli. I ricercatori di Insikt Group sottolineano che l’efficacia provata delle campagne mirate di deepfake incoraggerà altri attaccanti a investire sui tool di IA per questi scopi e quindi a migliorare le tecniche in uso.