GenAI e cyber security sono un nuovo argomento di discussione dentro e fuori le aziende. Se è vero che le principali piattaforme di intelligenza artificiale generativa come ChatGPT o Bard dispongono di guardrail consolidati per scoraggiare i criminali dall’utilizzare le piattaforme per scopi dannosi, è altrettanto vero che gli strumenti di prevenzione malware presenti nelle piattaforme GenAI non sono infallibili.
GenAI e cyber security: una guida aggiornata alle minacce
I rischi dell’intelligenza artificiale generativa sono cresciuti in modo esponenziale nell’estate del 2023, quando sono state introdotte due piattaforme GenAI prive di guardrail esplicitamente addestrate per scopi dannosi: WormGPT e FraudGPT.
Parlando di GenAI e cybersecurity, questo significa che il rischio non è più solo rappresentato dagli autori delle minacce che abusano delle piattaforme GenAI legittime ed eludono le protezioni, ma piuttosto da strumenti GenAI dannosi appositamente progettati per facilitare le attività criminali.
E potrebbero essere solo la punta dell’iceberg. Lo stesso autore, CanadianKingpin12 si è vantato di stare lavorando su due ulteriori strumenti GenAI dannosi, chiamati DarkBART e DarkBERT.
I due chatbot, dunque, confermano un significativo avanzamento nell’ambito dell’intelligenza artificiale del cybercrime.
DarkBERT: tutto quello che c’è (al momento) da sapere
DarkBERT è un modello linguistico di grandi dimensioni (LLM) originariamente creato per combattere la criminalità informatica, sulla base di una ricerca condotta da S2W, una società di sicurezza informatica sudcoreana, e dal Korea Advanced Institute of Science and Technology (KAIST).
L’idea alla base del progetto era quella di abilitare un modello di GenAI e cybersecurity capace di stare un passo avanti rispetto ai malintenzionati, penetrando nel dark web per carpire tattiche ed espressioni gergali utilizzate dagli hacker mentre conducono frodi.
L’addestramento di DarkBERT, dunque, era finalizzato a prevenire il furto di credenziali e fornire protezione dagli attacchi di phishing, insieme ad attività simili di tipo white-hat.
Il problema è che CanadianKingpin12 afferma di avere avuto l’accesso a DarkBERT, il che significa che teoricamente l’hacker può sfruttare le vulnerabilità nei sistemi informatici, comprese le infrastrutture critiche, e creare e distribuire malware e ransomware.
Ancora più preoccupante è il fatto che CanadianKingpin12 afferma che la loro versione di DarkBERT e la sua controparte DarkBART (la versione oscura di Google Bart) sono integrate con Google Lens, il che significa che possono utilizzare sia immagini che testi negli exploit.
Prompt Injection: che cos’è e come funziona
Dietro alle quinte tecnologiche della GenAI lavorano i cosiddetti Large Language Model (LLM) di cui ogni mese ne vengono generati sempre di nuovi e migliori.
Parlando di GenAI e cyber security, secondo il Centro per la Cyber Security Nazionale (NCSC) del Regno Unito, il prompt injection è un processo di dirottamento dell’output di un modello linguistico che consente all’hacker di convincere il modello a dire tutto ciò che vuole.
Ecco come funziona: l’utente crea un input che inganna un LLM, inducendolo a generare una risposta che evade le regole di sicurezza del modello stesso. Questo significa che gli LLM odierni sono vulnerabili a questa minaccia: il prompt injection, infatti, è un problema difficile da prevenire a causa dell’imperscrutabilità che contraddistingue l’AI generativa.
I cyber criminali possono sfruttare questa falla per generare codice malevolo, quale ad esempio un attacco ransomware.
Come nuovo e rudimentale tipo di attacco il prompt injection sta facendo capolino nel panorama del cyber crimine e non è da sottovalutare.
Anche se un criminale informatico che ricorre a ChatGPT per scrivere un ransomware non è certamente dotato di un solido know-how, come sottolineano gli esperti, è proprio questo il problema: si aprono le porte a una nuova ondata di cyber criminali che, passando dal Ransomware as a Service (RaaS) possono comprare facilmente malware online e poi condividere parte del riscatto con il venditore.
I rischi degli attacchi deepfake phishing
La tecnologia deepfake utilizza l’intelligenza artificiale per creare audio, video e immagini fuorvianti che sembrano veri e invece sono del tutto falsi.
Fino ad oggi, i deepfake sono serviti principalmente a scopi di intrattenimento e politici, sia innocui che dannosi. Gli esperti avvertono, tuttavia, che la tecnologia deepfake comporta anche una serie di rischi IT aziendali.
Il phishing deepfake, ad esempio, prevede l’utilizzo di contenuti deepfake per indurre gli utenti a effettuare pagamenti non autorizzati o a fornire volontariamente informazioni sensibili che i criminali informatici possono utilizzare a proprio vantaggio.
Tra gli attacchi saliti alle cronache è degno di nota quello dell’amministratore delegato di un’azienda energetica britannica che nel 2019 eseguì l’ordine di trasferire istantaneamente 220.000 euro su un altro conto, pensando di parlare con l’amministratore delegato della società madre tedesca o un altro episodio accaduto in Cina, dove il criminale ha usato l’AI per impersonare un amico della vittima convincendola a trasferire 622.000 dollari.
BlackMamba
Come dicevamo, GenAI e cyber security sono strettamente correlati e serve una cultura della sicurezza molto preparata per cogliere l’orizzonte delle minacce.
ChatGPT, ad esempio, può essere utilizzato per creare malware polimorfi come BlackMamba.. Questo attacco di keylogging è in grado di evitare la maggior parte delle soluzioni di sicurezza endpoint esistenti proprio in virtù della sua capacità di mutare continuamente per eludere i metodi di rilevamento.
Il malware utilizza un eseguibile benigno per comunicare con un set di API ad alta reputazione (come quelle di OpenAI) al fine di ottenere codice maligno generato dinamicamente per registrare i tasti premuti dall’utente infetto.
Questo codice viene eseguito nel contesto del programma benigno, rendendo difficile per i sistemi di rilevamento riconoscere la componente malevola. BlackMamba è particolarmente pericoloso perché può adattare i suoi attacchi in tempo reale per evitare il rilevamento.
È in grado di identificare quali applicazioni sono in esecuzione sul sistema e adattare il suo comportamento di conseguenza. Utilizza anche vari metodi di offuscamento e canali di comunicazione crittografati, rendendo ancora più difficile per i difensori interrompere l’attacco.
Affidarsi a un cloud geo-distribuito e immutabile ai ransomware
GenAI e cyber security possono essere garantite da scelte infrastrutturali più efficaci e funzionali come il cloud geo-distribuito, una soluzione che abilita uno storage di nuova generazione che, cifrando, frammentando e replicando i dati su una rete protetta a livello italiano ed europeo, garantisce alle aziende il pieno controllo dei dati e una postura della sicurezza pienamente conforme alle normative.
Questo innovativo approccio architetturale, battezzato come cloud immutabile, è proposto da Cubbit, che per ciascun dato, distribuisce i backup su tutto il territorio, eliminando così il rischio di attacchi hacker e disastri localizzati.
È così che lo specialista può garantire massimi livelli di sicurezza e un ripristino in tempi rapidi e certi in caso di ransomware. In che modo? Sfruttando la piena compatibilità con S3 e la sua rete geo-distribuita, Cubbit protegge i file dei propri clienti con due innovative funzionalità: versioning e object lock:
- Il versioning dà la possibilità al cliente di conservare diverse versioni dello stesso documento. In questo modo, anche se un ransomware dovesse cifrare la versione più recente del file, sarà possibile recuperare una versione antecedente o un duplicato dell’ultima versione, evitando così di pagare il riscatto.
- L’object lock, invece, consente di congelare un file per una durata specifica, determinata dall’utente. Durante questo intervallo di tempo, il documento sarà invulnerabile a cifrature, alterazioni o eliminazioni, rendendolo quindi resistente sia ad attacchi di ransomware che a modifiche accidentali da parte dell’utente.
Per inciso, il cloud object storage di Cubbit è abilitato MePA e dispone della qualifica ACN, Agenzia per la Cybersicurezza Nazionale (subentrata all’AgID, Agenzia per l’Italia Digitale) nonché della Cybersecurity Made in Europe Label, un riconoscimento per le imprese IT europee che si distinguono per innovazione nel rispetto delle normative in materia di sicurezza informatica.
Contributo editoriale sviluppato in collaborazione con Cubbit
@RIPRODUZIONE RISERVATA