L’irresistibile ascesa dei troll di Stato
2024-10-11 23:31:55 Author: www.guerredirete.it(查看原文) 阅读量:1 收藏

Gli imperialisti russi sono una cancrena in Mali. Attenzione alla lobotomizzazione zarista!!” Il messaggio, pubblicato nel 2020 su una pagina Facebook del Paese dell’Africa occidentale, era stato diffuso da un profilo finto controllato da militari francesi, almeno secondo il social network di Zuckerberg. Da tempo Facebook — nella sua attività di contrasto alla creazione di pagine e profili finti realizzati con lo scopo di coordinare attacchi, manipolazioni o di influenzare di nascosto il dibattito politico — pubblica dei rapporti in cui evidenzia il numero e la tipologia di account individuati ed eliminati, aggiungendo dettagli su dove avevano origine e su quali temi pubblicavano. 

Francia inautentica sui social

Tuttavia nel dicembre 2020 uno di questi rapporti, intitolato “Rimozione di comportamento inautentico da Francia e Russia“, contiene una novità interessante. Per anni simili manipolazioni, ovvero l’uso di troll e profili finti, soprattutto per influenzare Paesi esterni, sono state attribuite in gran parte a russi e iraniani. In particolare dal 2017 (quando partono i dati Facebook) al 2019 Iran e Russia appaiono quasi come gli unici Stati responsabili di simili operazioni all’estero. Ma ora compare una sorprendente new entry, una delle più grandi, antiche e solide democrazie: la Francia.

Facebook aveva infatti rimosso 84 profili, 9 pagine e 8 gruppi Facebook, più 14 profili Instagram la cui attività nasceva in Francia e si rivolgeva a una platea di utenti della Repubblica Centrafricana (CAR) e del Mali, e in misura minore di Niger, Burkina Faso, Algeria, Costa d’Avorio, Chad. “Le persone dietro a questi account — scriveva Facebook nel report — (…) fingono di essere del luogo, postano e commentano contenuti, e gestiscono pagine e gruppi. Pubblicano principalmente contenuti in francese e arabo relativi a notizie o eventi correnti incluse le politiche francesi nell’Africa francofona, lo stato di sicurezza in vari Paesi africani, lamentano una potenziale interferenza russa nelle elezioni della Repubblica Centrafricana (CAR), o pubblicano commenti a favore dei militari francesi così come critiche del coinvolgimento russo in CAR. Alcuni di questi account hanno anche commentato contenuti che criticavano la Francia e che erano stati postati da operativi russi. (…) Sebbene le persone dietro a tutto questo cercassero di nascondere la propria identità e il loro coordinamento, la nostra indagine ha trovato legami con individui associati all’esercito francese”.

Ricapitolando: la Francia aveva violato — esattamente come aveva fatto la Russia più e più volte, a partire da quegli stessi Paesi africani — la policy di Facebook che vieta il “comportamento coordinato inautentico”, altresì detto CIB. E in particolare quel suo sottoinsieme in cui ad agire, in un dato Paese, è un’entità straniera o governativa. Non importa che i contenuti postati siano veri o falsi, belli o brutti, critici o favorevoli, per il social il problema è l’inautenticità di un’operazione, cioè l’uso surrettizio della piattaforma per creare una rete di profili finti e spingere in una direzione o in un’altra con lo scopo di influenzare il dibattito pubblico. A tentare simili operazioni sono soggetti e gruppi diversi, spesso interni al Paese interessato e slegati dal suo governo. Ma nel momento in cui il comportamento coordinato inautentico (CIB) “è condotto in nome di un’entità governativa o di un attore straniero”, ecco che Facebook lo chiama “interferenza governativa o straniera” (Foreign or Government Interference – FGI) ed è pronta ad applicare le misure più ampie per bloccarlo.

Francia vs Russia: troll contro troll

Ma, tornando al citato report, c’erano ben due cose sorprendenti: la prima, come abbiamo detto, è la comparsa tra i soggetti che orchestrano campagne inautentiche della Francia, intesa come militari francesi (anche se Facebook non arriva a parlare esplicitamente di Stato o governo francese). La seconda è che, per la prima volta, due campagne, attribuite indirettamente a due diversi soggetti statali (Francia e Russia), non solo si concentrano in contemporanea sugli stessi Paesi, ma si prendono di petto l’una con l’altra, con operativi francesi che commentano quanto pubblicato da operativi russi, e viceversa. Insomma, troll di Stato contro troll di Stato.

In contemporanea al giro di vite sui francesi, infatti, nel 2020 Facebook rimuoveva anche account, pagine e gruppi che nascevano in Russia e si concentravano sulla Repubblica Centrafricana, e su altri Paesi della regione. Gli argomenti su cui postavano questi profili erano il COVID-19, il vaccino russo contro il virus, le elezioni in CAR, la presenza russa nella regione, la critica alla politica francese nella stessa area e ai contenuti postati dagli operativi francesi di cui abbiamo detto sopra. Per Facebook questi profili erano collegati all’Internet Research Agency (IRA) e al suo fondatore, il finanziere russo Yevgeniy Prigozhin, vicino al Cremlino (soprannominato dai media “lo chef di Putin”) e anche accusato di stretti legami col gruppo Wagner. Il gruppo Wagner è un contractor militare privato russo, sanzionato nel dicembre 2021 dall’Unione europea per gravi violazioni dei diritti umani in vari Paesi, dall’Ucraina alla Libia, dal Mali fino alla Repubblica Centrafricana.

In quanto all’IRA — nota sui media anche come “fabbrica dei troll” — si tratta di un’organizzazione i cui esponenti, tra cui lo stesso Prigozhin, erano stati incriminati già nel 2018 dal Dipartimento di Giustizia Usa per aver tentato di interferire nei processi elettorali e democratici americani, a partire dal 2014 e con un climax nelle elezioni del 2016. Prigozhin dal 2021 è pure ricercato dall’Fbi, che lo ha inserito nella sua “wanted list” e lo accusa di essere il principale finanziatore dell’IRA e di aver supervisionato e approvato le operazioni di interferenza politica ed elettorale negli Stati Uniti, che comprendevano la “creazione di centinaia di profili online finti e l’uso di identità rubate negli Usa”.

Differenze e somiglianze

Ma torniamo alla Repubblica Centrafricana nel 2020 e al report Facebook sui troll francesi e russi. A studiare queste due campagne rivali, oltre a Facebook (e in collaborazione con la stessa), è stata un’azienda americana di analisi dei social media, Graphika. Scrive la società nel suo report (uscito sempre nel dicembre 2020): “Le (due) operazioni di influenza rivali postavano negli stessi gruppi, commentavano i post reciproci, si smascheravano a vicenda accusando gli altri di “fake news”, conducevano analisi open source di base per esporre gli account falsi degli altri, si chiedevano l’amicizia gli uni con gli altri, si condividevano i post a vicenda e, secondo una fonte, cercavano anche di tendere delle trappole ai rivali con dei messaggi diretti”.

Carola Frediani - L'irresistibile ascesa dei troll di Stato
Nell'immagine, un esempio della disinformazione francese: la foto (sulla destra) di medici russi in Kyrgyzstan diventa sui profili dei militari francesi l’arrivo segreto di mercenari russi in Africa (sinistra). Dal report di Graphika

C’erano comunque delle differenze tattiche tra le due campagne, nota Graphika. Ad esempio i russi coinvolgevano persone del luogo, mentre i francesi evitavano di commentare su temi elettorali. Ma, quando si scontravano sulla Repubblica Centrafricana, si assomigliavano.
“Ogni gruppo trollava gli altri con video offensivi e meme: ogni gruppo muoveva accuse false contro l’altro; ogni gruppo usava prove manipolate per sostenere le proprie accuse. Alcuni asset russi fingevano di essere siti di notizie; e alcuni francesi facevano i fact-checker. Entrambi usavano foto profilo rubate (e nel caso francese, generate da una AI, intelligenza artificiale) per creare persone finte nelle loro reti”, scrivono ancora gli analisti di Graphika, notando che l’operazione francese sembrava essere una reazione a quella russa. E tuttavia, “le sue tattiche erano molto simili. Creando account finti e pagine finte “contro le fake news” per combattere i troll, gli operatori francesi stavano perpetuando e implicitamente giustificando il comportamento problematico che volevano combattere”, sostiene il report.

Lotta informatica per l’influenza: la dottrina francese

I militari francesi all’epoca non avevano commentato i report. In compenso due mesi dopo, nel febbraio 2021, l’emittente tv France24 scriveva come l’operazione antiterrorismo di nome Barkhane condotta da Parigi in Mali e altre zone del Sahel fosse oggetto anche di attacchi di guerra dell’informazione da parte di jihadisti e della Russia.
Da ambienti militari sembrava dunque trapelare il desiderio di rompere gli indugi. Di uscire allo scoperto. Ma per farlo sono occorsi ancora alcuni mesi. Si è arrivati così all’ottobre 2021, quando la ministra francese della Difesa, Florence Parly, ha annunciato la decisione di dotare i militari di una dottrina denominata “lotta informatica per l’influenza” (lutte informatique d’influence o L2I). Era presentata come un modo per darsi chiare regole d’ingaggio per contrastare la minaccia costituita dalla disseminazione di informazioni da parte di terroristi o avversari strategici. Perché, per citare la ministra, “informazioni false, manipolate, corrotte sono un’arma”.

Le operazioni L2I si pongono all’incrocio tra cyber difesa e influenza e, secondo il punto di vista delle forze armate francesi, dovrebbero integrare le azioni difensive nel cyberspazio (LID) e quelle offensive (LIO). A detta del generale Thierry Burkhard, capo di stato maggiore dell’esercito francese, “si tratta di offrire una narrativa sincera e convincente: soprattutto, non inventare ma al contrario essere capaci di distribuire informazioni verificate la cui disseminazione sostenga le nostre operazioni”.
Un’attività che sarebbe soggetta ai principi e alle regole delle norme internazionali e del diritto militare, specifica la Francia. Secondo la ministra Parly, le forze armate non condurranno tali operazioni su territorio nazionale, e non destabilizzeranno uno Stato straniero attraverso azioni che prendano di mira i processi elettorali.

E tuttavia la nuova dottrina presuppone che i militari possano ricorrere alla distribuzione di contenuti per “ingannare” gli avversari. Per “denunciare, contenere, indebolire o screditare, anche con l’astuzia, un attacco informativo”. In pratica l’obiettivo è non solo “promuovere le proprie forze” o “denunciare le bugie degli avversari” ma anche “convincere gli attori di una crisi ad agire nella direzione desiderata”. Una dottrina che è un equilibrismo verbale, commenta Le Monde.

Il documento ufficiale francese sottolinea come la lotta informatica per l’influenza (L2I) debba essere limitata a operazioni militari al di fuori del territorio nazionale. “La Francia vuole che le sue operazioni sul terreno informativo appaiano diverse da quelle dei suoi avversari (in particolare, la Russia) e vuole che siano “compatibili coi suoi valori” e rispettose della cornice legale internazionale”, commentava su Twitter all’epoca Camille François, ricercatrice di Graphika. Tuttavia, proseguiva François, “ritengo che le democrazie debbano astenersi da misure attive online, account falsi e inganno sui social media”.
Le “misure attive” (active measures) è una definizione che unisce disinformazione e guerra politica, originariamente usata per indicare l’intervento russo in altri Paesi. Per il professore di studi strategici Thomas Rid della Johns Hopkins University, che ha scritto un libro al riguardo, si caratterizzano per tre elementi: pianificazione; inganno; e obiettivo geopolitico.
È nondimeno apprezzabile che la Francia abbia riconosciuto pubblicamente la sua attività, riconosceva in ultima analisi François, perché “molte democrazie fanno uso di operazioni di informazione. È tempo di discutere come e quando”.

Giro di vite su intimidazioni di massa e “brigate”

Più o meno negli stessi giorni di quell’ottobre 2021 in cui la Francia lanciava la sua dottrina sulla “lotta informatica per l’influenza”, Facebook annunciava di introdurre una nuova policy per proteggere le persone (soprattutto giornalisti e difensori dei diritti umani) da intimidazioni e molestie di massa. Anche in questo caso, la parte interessante è che non contava il contenuto, se violasse o meno le regole della piattaforma, ma di nuovo l’azione coordinata e mirata a silenziare. Tra le reti rimosse per questo motivo, ce n’erano alcune connesse a governi: “ad esempio un’organizzazione sponsorizzata da uno Stato usava gruppi privati chiusi per coordinare post di massa sui profili dissidenti”. Una tattica prediletta dai governi, commentava ancora al riguardo François.
E solo due mesi dopo, nel dicembre 2021, Facebook usciva con un nuovo report in cui rimuoveva le reti dietro a operazioni inautentiche di Palestina, Cina, Polonia, Bielorussia. E nel farlo introduceva due nuovi comportamenti da bloccare: il mass reporting (coordinarsi per segnalare in massa profili alla piattaforma); e il brigading (coordinarsi per commentare in massa dei post al fine di infastidire o silenziare altri).

L’impressione è che Facebook stia cercando di definire e inseguire una serie di comportamenti coordinati, più o meno inautentici, per rispondere alle accuse di lasciare spazio a manipolazioni e abusi della piattaforma. Un rischio denunciato negli ultimi mesi sui media e davanti ai legislatori di vari Paesi da almeno due whistleblower, Francis Haugen e Sophie Zhang. In particolare Zhang, che aveva lavorato al social network come data scientist, ha accusato Facebook di non fare abbastanza per contrastare le campagne di manipolazione politica, specie in Paesi come l’Honduras. La giovane sostiene anche di aver segnalato l’uso malevolo di pagine, e non solo di profili personali, per gonfiare like ed engagement: un’attività che sfuggiva al giro di vite sui profili finti, dato che gli account in questione erano autentici ma creavano molteplici pagine con cui amplificare Mi Piace, commenti e via dicendo. Più in generale, sul tavolo di Facebook sembrava esserci ora una nuova questione: come gestire quelle attività che non nascono necessariamente da profili finti, ma che mostrano segni di coordinamento per gonfiare l’engagement di una parte o attaccare gli avversari? 

Lo scorso novembre Ben Nimmo, alla guida dell’unità Facebook contro le operazioni di influenza (ovvero lo sforzo coordinato per manipolare il dibattito pubblico a fini strategici) ancora tracciava una distinzione tra una semplice amplificazione di like, attività di engagement ecc ed azioni più complesse. Per Nimmo il punto è che “per anni non si sono viste operazioni di influenza e di interferenza straniera di successo che fossero basate soltanto su finti like e condivisioni”.

Un intervento sufficiente? Il commento della whistleblower

Ma poche settimane dopo la sua dichiarazione, l’inclusione di due nuovi protocolli cui dare la caccia – i già citati brigading e mass reporting – sembra allargare il raggio d’azione di Facebook, indicando il tentativo del social di individuare e sopprimere più ampie e sottili forme di manipolazione. Questi ultimi interventi tuttavia non sembrano convincere Sophie Zhang. “Per quel che ne so, le pratiche di Facebook contro la manipolazione politica inautentica non sono migliorate di recente”, ha commentato a Guerre di Rete. “Fondamentalmente, l’azienda non ha motivo di metterle a posto”, perché entrerebbe in conflitto con il suo stesso modello di business.

Operazioni di influenza come servizio

Le operazioni di influenza statali non sono però solo e sempre riconducibili a unità militari o governative. Possono esprimersi anche attraverso intermediari, cioè società private. Del resto la russa IRA è stata un precursore al riguardo.
Dal 2017 al 2021 Facebook ha rimosso operazioni di influenza condotte da attori commerciali (società di PR, social media, marketing) in Myanmar, Stati Uniti, Filippine, Ucraina, Emirati ed Egitto. Alcune di queste nascevano dentro il Paese, ed erano allineate a entità politiche dello stesso. Altre erano condotte per clienti sia interni che stranieri, rendendo queste tecniche più accessibili anche a soggetti con risorse e infrastrutture ridotte, scrive Facebook in un report del maggio 2021. Che arriva a parlare di “operazioni di influenza come servizio” , ovvero ad “attori commerciali che offrono i loro servizi per gestire operazioni di influenza sia a livello domestico che internazionale, offrendo ai loro clienti una copertura”.

E qui la faccenda si fa ancora più complicata, perché il cliente può essere un governo, ma anche una specifica parte politica, un gruppo, una lobby, un’azienda. “E questo complica l’attribuzione, con più livelli di offuscamento tra gli operatori e i beneficiari finali”, specificano i ricercatori del social.
Nel solo 2020 Facebook e Twitter hanno attribuito 15 operazioni di influenza a società private, come aziende di PR. In pratica, sostiene un report del centro di ricerca americano Brookings Institution, gli attori politici stanno dando sempre di più la disinformazione in outsourcing (in questo contesto il termine disinformazione si riferisce soprattutto all’inautenticità dell’operazione e al suo fingere di essere altro). Un trend che altri hanno definito “disinformazione come servizio” (che riprende la formula del “software come servizio” o Saas). 

Le dark PR

A usare questo termine e anche quello di dark PR è James Shire, professore di cyber governance all’università di Leida. “Il problema delle dark PR emerge quando una società privata di PR, media, comunicazione ecc viene pagata da un governo ma la natura di questa relazione rimane nascosta, ovvero la società non rivela chi sia il suo cliente, e nemmeno di essere coinvolta in una determinata campagna”, commenta a Guerre di Rete Shire. Con il livello di offuscamento aggiuntivo garantito dall’abuso di vari meccanismi delle piattaforme social.

Prendiamo la Bolivia. Nell’agosto 2020 Facebook rimuove una serie di account e pagine attribuite a una società di comunicazione strategica americana, CLS Strategies. Gli account violavano la policy contro l’interferenza straniera e il comportamento coordinato e inautentico per conto di una entità straniera. L’azione degli account finti si esercitava in Bolivia, Messico e Venezuela. Secondo lo Stanford Internet Observatory (che ha potuto analizzare gli account), la società americana lavorava per il governo boliviano. L’obiettivo era non solo sostenere l’allora presidente ad interim Jeanine Áñez ma anche screditare l’ex presidente Evo Morales.

O andiamo in Arabia Saudita. Già nel dicembre 2019 Twitter aveva rimosso 88mila account gestiti da Smaat, una società di marketing digitale dell’Arabia Saudita. Per il social network questi profili erano coinvolti in una “significativa operazione di informazione statale”. Tra i messaggi politici veicolati, attacchi contro la figura di Jamal Khashoggi, il giornalista ucciso nel 2018 da agenti sauditi nel consolato a Istanbul, o contro chi denunciava il coinvolgimento del principe ereditario Mohammad bin Salman nel suo assassinio. Tra l’altro Smaat era stata cofondata da Ahmed Almutairi, un agente saudita accusato (e ricercato dall’FBI) di aver reclutato due dipendenti Twitter per spiare sugli account critici verso il governo di Riad. 
Un altro Paese dove sono emerse più operazioni di manipolazione via social è l’Honduras. Nel 2019 un’indagine di Facebook e del think tank DFRLab ha accusato una società di consulenza israeliana, Archimedes Group, di orchestrare sui social una campagna filogovernativa attraverso finti siti di notizie. Per altro le attività della società non si sarebbero concentrate solo in Honduras, ma anche in altri Paesi, scrive AP.

Dunque a partire dal 2019, Facebook rileva una serie di campagne di comportamento coordinato e inautentico, con l’obiettivo di influenzare la politica in un Paese straniero, non più solo originate in Iran o Russia. I Paesi d’origine di queste campagne sono infatti, oltre alla già citata Francia, Spagna, Israele, Messico, Marocco, Brasile, Stati Uniti, Canada, Australia, Cina. Un quadro che Guerre di Rete evidenzia a partire dagli stessi dati diffusi dal social network.

Più in generale, tra 2018 e 2020, Facebook e Twitter hanno annunciato di aver smantellato 147 operazioni di influenza (dati: Brookings Institute). Alcune di queste operazioni si mascheravano come pagine o profili di controinformazione o di fact-checking, aggravando il rischio di contribuire all’erosione della fiducia nell’ecosistema informativo, sostiene lo stesso Brookings Institute.

“A volte gli Stati usano società del loro Paese per fare operazioni di influenza in altri Stati, come nel caso della Russia e dell’IRA, la cui azione si esercitava all’estero”, commenta ancora Shire. “Ma il problema è che non sempre capiscono bene la cultura del posto. In alcuni casi abbiamo visto governi che per fare lobbying su un altro Paese hanno pagato società locali, come ha fatto l’Arabia Saudita per le elezioni Usa del 2016. E poi ci sono situazioni in cui certi governi si rivolgono ad aziende di un altro Paese perché queste hanno una certa reputazione nel settore, come accade per alcune società di dark PR inglesi o israeliane”.

L’accessibilità dei dati delle piattaforme

Il problema per chi fa ricerca su questi fenomeni è in primis l’accesso ai dati. “Pensiamo all’impatto di certe attività in Stati in via di sviluppo in cui i social media sono sinonimo di internet. Ma è impossibile tracciarle se non si ha trasparenza sui dati”, commenta a Guerra di Rete Judit Moller, professoressa di comunicazione politica all’università di Amsterdam. “Non abbiamo dati dalle piattaforme, e così tanto viene cancellato ancora prima che veda la luce. A noi arrivano solo i tentativi che hanno più successo e finiscono con l’emergere. Come ricercatrice non so cosa venga rimosso, amplificato, ridimensionato. I bot cercano di amplificare e le piattaforme di attenuare, e nessuna delle due attività ci è visibile, né chi la fa”. 

In realtà ci sono progetti in cui Facebook condivide parte dei suoi dati. Fabio Giglietto, docente di internet studies all’università di Urbino Carlo Bo, ha lavorato con il social network come ricercatore indipendente accedendo a un enorme dataset di link condivisi, e di informazioni sulla loro condivisione. L’accesso ai dati funziona attraverso una piattaforma sicura messa a disposizione da Facebook, ma ci sono vari ordini di problemi: i dati non si possono spostare; per lavorarci in questo modo serve un certo livello di competenza tecnica che non tutti i ricercatori hanno; e la necessità di proteggere la privacy degli utenti pone vari limiti.
“L’idea che mi sono fatto è che l’unico modo per mitigare forme di manipolazione su queste piattaforme è consentire a un numero ampio e diversificato di ricercatori di accedere ai dati”, commenta a Guerre di Rete Giglietto. “Anche perché è impensabile che dal centro di qualunque organizzazione si possa comprendere cosa avviene in una regione dell’India o dell’Africa, per cui l’unica possibilità è rendersi trasparente il più possibile”.

Ma il cammino delle piattaforme verso l’accesso ai loro dati è quanto mai accidentato, come mostra la vicenda CrowdTangle, la startup (poi acquisita da Meta) che ha sviluppato uno strumento per permettere a ricercatori e giornalisti di analizzare quanto sono condivisi certi contenuti, e che è stata progressivamente depotenziata dalla stessa Meta a causa dei problemi di immagine causati dalla diffusione di tali informazioni. Giglietto lo sa bene. Il software CooRnet – che ha sviluppato insieme ad altri per rintracciare condivisioni coordinate di link su Facebook e Instagram al fine di individuare account e pagine che diffondono disinformazione in modo sistematico – analizza dati forniti dalla stessa CrowdTangle. “Se questo servizio chiude, il nostro strumento sarà una delle sue vittime”, commenta Giglietto. 

Il mercato dei profili finti per indagini e sicurezza nazionale

Se dunque le piattaforme tentennano, da un lato contrastando comportamenti inautentici e coordinati, dall’altro centellinando i dati, c’è un ramo dei governi che da anni lavora con profili fake in una maniera molto mirata e specifica. Stiamo parlando del settore intelligence e di sicurezza.
Diversamente dalle società di “dark PR” che su questo terreno devono muoversi nell’ombra, per le aziende che si rivolgono al mercato delle forze dell’ordine la gestione di multipli profili fake è un servizio offerto quasi alla luce del sole. Questi profili però sono usati solo a scopo di indagine, e non per imbastire campagne di influenza.

La società israeliana Voyager Labs (che secondo Repubblica e Il Fatto sarebbe comparsa nelle conversazioni tra Marco Carrai, Matteo Renzi e altri in quanto capace di individuare possibili influencer sui social e “stanare” i fakes) avrebbe fornito in prova alla polizia di Los Angeles un software di analisi dei social media che tra le altre cose “permetteva alle agenzie di condurre un monitoraggio sotto copertura usando profili finti sui social media”, scrive il Guardian. Tali profili sarebbero stati creati con la funzione “avatar” o “active persona”, che permetterebbe agli analisti di creare più avatar per raccogliere informazioni.

Questo genere di mercato – nel comparto sicurezza, intelligence e forze dell’ordine – non è una novità, esiste da tempo (Voyager Labs è in effetti una società che si colloca in questo segmento, tanto da essere presente alle fiere di intelligence come la recente ISS Europe, svoltasi a dicembre a Praga). Anche l’italiana Cy4gate (gruppo Elettronica) offre questo genere di servizi come documentato dal programma della già citata ISS Europe. La sua piattaforma si chiama Gens.Ai e viene presentata come “una soluzione di Cyber Humint (Human Intelligence, ndr) che può automatizzare la gestione di identità virtuali”.

Pioniere del settore è ancora una società israeliana, SenseCy (prima Terrogence, oggi Verint) che da anni coltiva identità virtuali online a fini di intelligence e sicurezza. Mentre l’americana Cobwebs offre un sistema per creare, gestire e mantenere degli avatar (agenti virtuali) su varie piattaforme (social media, forum, email, ecc) — spiega una sua brochure — permettendo di connettersi a molteplici account su diverse piattaforme con un click e di usare dei proxies per nascondere la propria identità.

“Sono metodologie di raccolta dati e di interazione che esistono da anni”, commenta a Guerre di Rete Antonio Teti, esperto di cyber intelligence dell’Università d’Annunzio di Chieti-Pescara. “Sono attività condotte da intelligence governative. Lo fanno israeliani, tedeschi, francesi, lo facciamo tutti, per ottenere informazioni di salvaguardia nazionale, nel contrasto al terrorismo e alla criminalità, da parte delle forze dell’ordine e di strutture apposite. Sono strumenti che possono essere usati per obiettivi e motivazioni diverse. E se la Francia persegue un incremento di influenza politica in determinati scacchieri regionali, è ipotizzabile che questi strumenti vengano usati per quelle finalità. Alla fine – sostiene Teti – il problema non è quello del fake o meno, ma come distinguere l’informazione dalla disinformazione”.

Per Facebook il problema è invece esattamente l’opposto. Non il contenuto, ma l’autenticità degli account e delle reti con cui operano. Non a caso ha sempre ribadito di non permettere nemmeno alle forze dell’ordine la creazione di profili finti. Ma il mercato di questo genere di soluzioni potrebbe trovarsi ora a un punto di svolta: immaginiamo cosa potrebbe succedere se sempre più Stati, anche attraverso militari e intelligence, adottassero simili strumenti non solo per fare indagini sotto copertura, ma anche per la lotta informatica per l’influenza, dopo che questa sia stata legittimata e codificata, insomma sdoganata, sul modello francese. Non più come strumento di indagine, ma di geopolitica e influenza. 

“Sono questioni che pongono domande strategiche per le democrazie. Quando vedi che gli avversari usano disinformazione come la contrasti?”, commenta Shire. “I militari occidentali stanno pensando di includere queste operazioni di informazione nelle loro capacità. Gli olandesi stanno cercando di definire quando è legittimo e come. Di sicuro gli inglesi lo stanno già facendo. E in generale non mi stupirebbe trovare questo tipo di approccio in situazioni militari, di combattimento, con truppe sul campo. La differenza per me sarebbe se le democrazie occidentali adottassero uno stile da dottrina ibrida, alla russa. Se questo approccio diventa dominante, abbiamo un problema”.


文章来源: https://www.guerredirete.it/l-irresistibile-ascesa-dei-troll-di-stato/
如有侵权请联系:admin#unsafe.sh