Giu 20, 2024 Approfondimenti, Attacchi, Minacce, News, RSS
La diffusione dell’intelligenza artificiale sta contribuendo fortemente all’innovazione, ma comporta anche rischi di privacy, etica e sicurezza. Khurram Akhtar, co-fondatore di ProgrammersForce, sottolinea che nei prossimi due anni la disinformazione creata dall’IA sarà una delle minacce più pressanti per il pubblico e il privato; in particolare, saranno i deepfake a destare le maggiori preoccupazioni.
Il numero di video che impersonano figure aziendali o celebrità sta crescendo e sia i cittadini che le imprese devono sapersi proteggere da questi attacchi.
I deepfake vengono creati sfruttando tecnologie di IA che, a partire da audio, video o immagini reali, replicano l’aspetto e/o la voce di una vittima per eseguire truffe o attacchi. Nel dettaglio, spiega Akhtar, si utilizzano le reti neurali convoluzionali (convolutional neural networks – CNN) e le reti generative avversarie (generative adversarial networks – GAN): le prime vengono utilizzate per riconoscere pattern sofisticati nelle immagini e replicarli; le seconde invece usano due algoritmi di reti neurali che generano e valutano l’autenticità del risultato; il processo viene eseguito in modo iterativo finché l’immagine generata non è sufficientemente precisa e indistinguibile dalla fonte.
I deepfake possono essere un serio pericolo non solo per le organizzazioni, ma anche per i cittadini e la sicurezza nazionale stessa. Figure pubbliche come politici, celebrità ma anche influencer e giornalisti possono diventare vittime di questa tecnologia e perdere soldi e reputazione.
Akhtar ricorda il caso del dipendente di una compagnia di Hong Kong che ha fatto perdere all’organizzazione 25 milioni di dollari dopo aver partecipato a una videoconferenza con quello che credeva essere il CFO. Le truffe sono solo un esempio degli attacchi che possono essere eseguiti coi deepfake: l’abuso di questa tecnologia può portare al furto d’identità, a cyberattacchi di vario tipo e alla diffusione di disinformazione.
Proprio in merito a quest’ultimo tema, di recente l’intelligence statunitense ha reso noto di aver trovato deepfake creati da governi cinesi e iraniani mirati a influenzare i risultati delle elezioni del 2020. Anche se questi video non sono mai stati diffusi, probabilmente perché non sono stati ritenuti abbastanza convincenti, a quattro anni di distanza, con un miglioramento significativo della tecnologia, il pericolo è più reale che mai.
Akhtar sottolinea che, con l’avanzamento delle tecnologie di machine learning, è fondamentale implementare un livello di sicurezza aggiuntivo per verificare l’identità degli utenti e individuare qualsiasi anomalia.
Le tecniche di riconoscimento facciale possono proteggere gli utenti sfruttando algoritmi e sensori per analizzare i volti nei video e identificare ogni movimento, cercando di comprendere se è reale o se è finto. Tra le tecniche più utilizzate c’è l’analisi del movimento, ovvero l’analisi delle feature facciali come le espressioni del volto, le palpebre che sbattono e lo sguardo, caratteristiche molto difficili da replicare.
Un’altra tecnica efficace è la texture analysis, ovvero l’analisi dei dettagli della pelle come la grana o i pori; oltre a essa, si utilizza anche l’imaging termico, il quale necessita però di una camera a infrarossi per determinare se dall’altra parte del video c’è un essere umano.
Altre tecniche utilizzate sono l’analisi 3D, la quale cattura la geometria tridimensionale di un volto usando i sensori di profondità, e l’analisi comportamentale che analizza pattern di comportamento come quelli del parlato, della frequenza nello sbattimento delle palpebre e dei movimenti della testa.
Gli attacchi deepfake diventeranno sempre più sofisticati e con conseguenze potenzialmente disastrose. Le organizzazioni, oltre a stabilire una cultura aziendale basata sulla sicurezza e a istruire i propri dipendenti sulle possibili truffe, devono investire su soluzioni di protezione all’avanguardia e promuovere la standardizzazione delle tecnologie per combattere i deepfake.