Proteggersi dai deepfake usando tecniche di riconoscimento facciale
2024-6-20 20:0:45 Author: www.securityinfo.it(查看原文) 阅读量:9 收藏

Proteggersi dai deepfake usando tecniche di riconoscimento facciale

Giu 20, 2024 Approfondimenti, Attacchi, Minacce, News, RSS


La diffusione dell’intelligenza artificiale sta contribuendo fortemente all’innovazione, ma comporta anche rischi di privacy, etica e sicurezza. Khurram Akhtar, co-fondatore di ProgrammersForce, sottolinea che nei prossimi due anni la disinformazione creata dall’IA sarà una delle minacce più pressanti per il pubblico e il privato; in particolare, saranno i deepfake a destare le maggiori preoccupazioni. 

Il numero di video che impersonano figure aziendali o celebrità sta crescendo e sia i cittadini che le imprese devono sapersi proteggere da questi attacchi.

deepfake

Pexels

I deepfake vengono creati sfruttando tecnologie di IA che, a partire da audio, video o immagini reali, replicano l’aspetto e/o la voce di una vittima per eseguire truffe o attacchi. Nel dettaglio, spiega Akhtar, si utilizzano le reti neurali convoluzionali (convolutional neural networks – CNN) e le reti generative avversarie (generative adversarial networks – GAN): le prime vengono utilizzate per riconoscere pattern sofisticati nelle immagini e replicarli; le seconde invece usano due algoritmi di reti neurali che generano e valutano l’autenticità del risultato; il processo viene eseguito in modo iterativo finché l’immagine generata non è sufficientemente precisa e indistinguibile dalla fonte.

I pericoli dei deepfake

I deepfake possono essere un serio pericolo non solo per le organizzazioni, ma anche per i cittadini e la sicurezza nazionale stessa. Figure pubbliche come politici, celebrità ma anche influencer e giornalisti possono diventare vittime di questa tecnologia e perdere soldi e reputazione.

Akhtar ricorda il caso del dipendente di una compagnia di Hong Kong che ha fatto perdere all’organizzazione 25 milioni di dollari dopo aver partecipato a una videoconferenza con quello che credeva essere il CFO. Le truffe sono solo un esempio degli attacchi che possono essere eseguiti coi deepfake: l’abuso di questa tecnologia può portare al furto d’identità, a cyberattacchi di vario tipo e alla diffusione di disinformazione.

Proprio in merito a quest’ultimo tema, di recente l’intelligence statunitense ha reso noto di aver trovato deepfake creati da governi cinesi e iraniani mirati a influenzare i risultati delle elezioni del 2020. Anche se questi video non sono mai stati diffusi, probabilmente perché non sono stati ritenuti abbastanza convincenti, a quattro anni di distanza, con un miglioramento significativo della tecnologia, il pericolo è più reale che mai.

Proteggersi con le tecniche di riconoscimento facciale

Akhtar sottolinea che, con l’avanzamento delle tecnologie di machine learning, è fondamentale implementare un livello di sicurezza aggiuntivo per verificare l’identità degli utenti e individuare qualsiasi anomalia.

Pixabay

Le tecniche di riconoscimento facciale possono proteggere gli utenti sfruttando algoritmi e sensori per analizzare i volti nei video e identificare ogni movimento, cercando di comprendere se è reale o se è finto. Tra le tecniche più utilizzate c’è l’analisi del movimento, ovvero l’analisi delle feature facciali come le espressioni del volto, le palpebre che sbattono e lo sguardo, caratteristiche molto difficili da replicare.

Un’altra tecnica efficace è la texture analysis, ovvero l’analisi dei dettagli della pelle come la grana o i pori; oltre a essa, si utilizza anche l’imaging termico, il quale necessita però di una camera a infrarossi per determinare se dall’altra parte del video c’è un essere umano.

Altre tecniche utilizzate sono l’analisi 3D, la quale cattura la geometria tridimensionale di un volto usando i sensori di profondità, e l’analisi comportamentale che analizza pattern di comportamento come quelli del parlato, della frequenza nello sbattimento delle palpebre e dei movimenti della testa.

Gli attacchi deepfake diventeranno sempre più sofisticati e con conseguenze potenzialmente disastrose. Le organizzazioni, oltre a stabilire una cultura aziendale basata sulla sicurezza e a istruire i propri dipendenti sulle possibili truffe, devono investire su soluzioni di protezione all’avanguardia e promuovere la standardizzazione delle tecnologie per combattere i deepfake. 



Altro in questa categoria


文章来源: https://www.securityinfo.it/2024/06/20/proteggersi-dai-deepfake-usando-tecniche-di-riconoscimento-facciale/
如有侵权请联系:admin#unsafe.sh