Gli attaccanti si approfittano dell’uso in aumento del 400% di applicazioni di IA generativa tra i dipendenti aziendali. Lo riporta il Threat Report dei Laboratori Netskope del 2023.
“Nell ultimo anno il livello di adozione di sistemi basati su IA generativa da parte delle imprese è cresciuto in maniera significativa”, commenta Pierluigi Paganini, analista di cyber security e CEO Cybhorus: “Purtroppo, la quasi totalità delle imprese non ha alcuna conoscenza dei rischi connessi all’adozione di AI generative e davvero in poche si dotano di una politica che ne disciplini l’adozione da parte dell’organizzazione”.
Ecco come mitigare i rischi.
IA generativa: minacce dovute al’aumento del 400% dell’uso in azienda
Secondo la ricerca Cloud & Threat Report dei Netskope Threat Labs per il 2023, supera la soglia del 10% la quota dei dipendenti aziendali che accede ad almeno un’applicazione di intelligenza artificiale generativa (IA) ogni mese, rispetto al solo 2% di un anno fa. Nell’anno che si è da poco concluso ChatGPT è stata l’applicazione di intelligenza artificiale generativa più popolare, con il 7% d’uso aziendale.
Backup & disaster recovery: come garantire un riavvio efficace dell'infrastruttura IT
Ma con il crescente utilizzo aumentano an che le minacce. “Ciò comporta inevitabilmente un ampliamento della superficie di attacco e dei rischi connessi”, mette in guardia Paganini: “Abbiamo constatato come anche colossi del settore tecnologico abbiano sofferto data leak di proprietà intellettuale e segreti aziendali dovuti all’uso improprio di piattaforma di IA generativa”.
Si prevede inoltre che il 25% degli utenti che usa di più le applicazioni di intelligenza artificiale generativa ne aumenterà ulteriormente l’uso in modo rilevante nel corso del 2024, a caccia di nuovi modi per implementare la tecnologia nella propria vita quotidiana.
Applicazioni cloud in crescita
L’adozione complessiva delle applicazioni cloud continua a crescere nell’arco di tutto l’anno. Il numero di applicazioni cloud in azienda è salito in media del 19% all’anno. Invece gli utenti sono passati da 14 a 20 applicazioni differenti in soltanto due anni.
Il 50% degli utenti aziendali interagisce con un numero fra 11 e 33 applicazioni cloud ogni mese, mentre l’1% degli utenti impiega oltre 96 applicazioni al mese. Le interazioni con queste applicazioni cloud sono in aumento vertiginoso, raddoppiando a quasi 2.000 attività al mese di oggi nell’arco di due anni.
La maggior parte degli utenti aziendali conta tra 600 e 5.000 attività al mese. Invece l’1% degli utenti genera oltre 50.000 attività al mese.
“Altro elemento che emerge da rapporto è il crescente numero di malware ospitati su piattaforme cloud ritenute affidabili, come Google e Microsoft”, conclude Paganini: “Gli attori malevoli da tempo usano questi servizi cloud per evitare la detection in attacchi sempre più sofisticati ed il trend si è consolidato lo scorso anno secondo gli esperti”.
Per ottenere l’accesso iniziale gli attaccanti si avvalgono del social engineering, phishing, il triplo più frequente del trojan, il secondo vettore di attacco più comune.
Nel 2023 i gruppi con base in Russia sono stati i più attivi in ambito criminale, mentre i gruppi basati in Cina si sono fatti largo nell’ambito geopolitico, puntando principalmente a mietere vittime in Asia, in particolare Singapore.
Come mitigare i rischi
Nell’uso dell’IA generativa, serve maggiore consapevolezza dei rischi: esposizione di dati sensibili come credenziali, informazioni personali o proprietà intellettuale.
“Per permettere un uso sicuro delle applicazioni di intelligenza artificiale, le organizzazioni devono applicare controlli ragionevoli e funzionalità avanzate di sicurezza dei dati concentrandosi al contempo su come i dipendenti possono utilizzare l’intelligenza artificiale in modo produttivo”, spiega Ray Canzanese, Threat Research Director dei Netskope Threat Labs.
La migliore difesa, in questo caso, rimane l’educazione, insieme a soluzioni di sicurezza informatica in grado di filtrare contenuti dannosi.
Per contrastare queste tendenze, occorre limitare l’accesso solo alle applicazioni che servono a scopi aziendali legittimi, avviare un processo di revisione e approvazione per le nuove applicazioni e applicare un processo di monitoraggio continuo.
Occorre, inoltre, assicurare che l’abilitazione e l’adozione delle applicazioni IA avvengano in modo sicuro, a partire dall’identificazione delle applicazioni consentite e l’adozione di controlli.
Altra priorità è infine investire nella riduzione del rischio di social engineering, inclusa la formazione sulla sensibilizzazione alla sicurezza e la tecnologia anti-phishing.
@RIPRODUZIONE RISERVATA