Tra il 6 e il 9 giugno 2024, gli europei saranno chiamati al voto per decidere i prossimi rappresentati del Parlamento europeo. Con l’avvicinarsi di tale evento aumentano, però, le attività di disinformazione condotte dalla Russia.
L’obiettivo di quella che è stata definita come una vera e propria campagna di destabilizzazione, secondo Vera Jurova, vicepresidente della Commissione europea e responsabile del lavoro sulla disinformazione, è quello di cambiare il focus del discorso politico per poter ridurre il sostegno europeo a favore dell’Ucraina.
Jurova ha sottolineato la possibilità che le elezioni di giugno per il Parlamento siano colpite da “un’ondata di disinformazione” sia per mezzo dei classici strumenti della disinformazione online, sia attraverso diffusione di video generati con intelligenza artificiale.
Per questo motivo la Commissione europea sta spingendo grandi aziende del Tech a prendere dei provvedimenti nell’ottica di salvaguardare le elezioni di giugno. Infatti, dal 17 febbraio 2024 è in vigore il Regolamento 2022/2065 – Digital Services Act (DSA) per tutte le piattaforme, il quale ha come obiettivo chiave, tra gli altri, la protezione dei consumatori e dei loro diritti fondamentali all’interno della rete.
Già dall’agosto 2023, il DSA si applicava ai cosiddetti Very large online Platform (VLOPs) o Very large online search engines (VLOSEs), i quali sono i più inclini a porre dei rischi nella disseminazione di contenuti illegali e dannosi per la società.
Ciò che viene chiesto ad aziende come Meta, X, YouTube e TikTok – le piattaforme su cui è generalmente possibile guardare una grande quantità di video di differente durata – è di aumentare i loro sforzi per verificare annunci politici e video generati da IA.
In caso contrario, potranno essere sanzionati con multe fino al 6% dei loro introiti annuali globali.
Tra i metodi proposti per mitigare il rischio di tali contenuti, c’è la possibilità di far comparire dei pop-up nel momento in cui un utente condivida dei post di misinformazione e di avviare procedure di emergenza nel caso in cui dei video di politici europei, generati con IA, diventino virali.
Oltre a queste misure, la Commissione richiede anche che gli algoritmi utilizzati dalle aziende promuovano contenuti variegati al fine di evitare che vengano visualizzati annunci politici a favore di una solo corrente politica.
Per quanto concerne in generale l’attività di disinformazione russa, a febbraio 2024, l’Agenzia per il contrasto alla disinformazione VIGINUM, un’unità all’interno del Segretariato Generale per la Difesa e la Sicurezza Nazionale del Primo ministro francese, aveva pubblicato dei rapporti investigativi denominati “Portal Kombat. A Structured and coordinated pro-Russian propaganda network” (qui e qui), in cui erano state analizzate le attività di 193 siti di informazione simili tra loro e con schemi ricorrenti, che diffondevano contenuti pro-Russia nel contesto della guerra in Ucraina ed enfatizzavano positivamente e legittimavano “l’operazione militare speciale”.
Questi siti pro-Russia avevano preso di mira soprattutto i Paesi occidentali che avevano fornito sostegno all’Ucraina, ossia Francia, Germania, Austria, Svizzera, Polonia, Spagna, Regno Unito e Stati Uniti.
Di recente, a seguito della diffusione di un video virale in cui veniva annunciato che la visita a Kiev del presidente francese Emmanuel Macron era stata annullata per un possibile assassinio, notizia smentita dall’Eliseo e dall’emittente televisiva France24, proprio l’agenzia VIGINUM è stata incaricata di individuare le attività di disinformazione della Russia.
Durante il primo anno della guerra tra Russia e Ucraina, la campagna di disinformazione del Cremlino è riuscita a raggiungere 165 milioni di europei e ad ottenere 16 miliardi di visualizzazioni.
Stando a quanto riporta il sito dell’Ambasciata americana in Romania, i temi maggiormente ricorrenti della disinformazione russa sulla guerra in Ucraina sono cinque:
Tra i numerosi esempi di recenti attività di disinformazione russa possono essere menzionati: l’aver amplificato il caso delle cimici da letto avvenuta a Parigi nell’ ottobre 2024 al fine di alimentare il senso di insicurezza in vista delle Olimpiadi Parigi 2024, l’aver amplificato la frenesia sui social media riguardo lo stato di salute della principessa del Galles Kate Middleton e il tentativo di account sui social media pro-Russia di promuovere il non comprovato legame tra le proteste degli agricoltori in Italia di febbraio 2024 e le sanzioni economiche imposte alla Russia.
Si ricorda, infine, che il 10 gennaio 2024 a Davos, il World Economic Forum ha presentato il Global Risk Report 2024, con il quale si sostiene che lo scenario internazionale futuro è composto da un rallentamento progressivo per lo sviluppo umano e una crescita parallela dei rischi ai danni di Stati e individui sempre più vulnerabili. In merito alla disinformazione, nei prossimi due anni il rischio principale deriva proprio dalla misinformazione e dalla disinformazione; mentre nei prossimi dieci anni tale rischio scenderebbe al quinto posto a favore dei rischi di origine naturale e climatica.
Per quanto concerne la percezione del rischio in vista delle prossime elezioni, l’Unione europea si attesta all’ottavo posto, dopo Stati Uniti al sesto posto.
Sebbene molta dell’attenzione sia rivolta alle operazioni di disinformazioni dilaganti nel cyberspace, secondo il report del Royal United Services Institute (RUSI) “The Threat from Russia’s Unconventional Warfare Beyond Ukraine, 2022-2024”, l’approccio generale della Russia nell’uso delle informazioni contro un Paese bersaglio è duplice: si tende alla polarizzazione della popolazione bersaglio per mobilizzare le fazioni interne a sostegno delle élite alleate del Cremlino e al contempo alla paralisi del sostegno a favore delle opposizioni della leadership di un Paese.
Nel report, infatti, viene anche evidenziato come spesso la manipolazione dell’opinione pubblica è un mezzo per mobilizzare o paralizzare gli elettori stessi, così da permettere ai candidati in linea con gli interessi della Russia di divenire decisori politici.
Questi, una volta eletti, potranno adottare politiche favorevoli alla Russia. Dunque, il vero obiettivo sembra essere la “cattura” delle élite, e affinché si raggiunga tale obiettivo, l’implementazione della provocazione violenta per esacerbare una crisi politica è un elemento insito e costante dell’attività di destabilizzazione della Russia.
Le strategie e le tattiche messe in atto fino ad oggi dalla Russia, per destabilizzare e polarizzare le società europee, evidenziano un tentativo deliberato di erodere la fiducia nelle istituzioni democratiche e il sostegno europeo verso l’Ucraina.
Mentre l’UE si avvicina alle elezioni del Parlamento europeo, la lotta contro la disinformazione non è solo una questione di sicurezza informatica o regolamentazione del digitale, ma un elemento fondamentale per la salvaguardia della democrazia, della coesione sociale e della sicurezza collettiva della Comunità europea.
Affrontare con successo questa sfida richiederà la collaborazione tra tutte le parti interessate, dall’industria tech ai cittadini, dalle istituzioni pubbliche agli attori del settore privato.
Solo attraverso un approccio concertato e multidimensionale sarà possibile mitigare l’impatto delle operazioni di disinformazione russa e preservare i valori fondamentali su cui si fonda l’Unione Europea.