ATTACCHI COORDINATI DI BOT, TROLL E CYBORG, SUI NOSTRI SOCIAL.
di Lavinia Marchetti
1. IL FENOMENO VISTO DAL BASSO
Sui post Facebook che parlano di Gaza, migrazioni, Francesca Albanese e Greta Thunberg accade spesso una scena che, a forza di ripetersi, diventa riconoscibile, schematica, sembra appunto robotica, prendono di mira solo alcuni post e lasciano stare altri. Come funziona? Pubblichi. Passano pochi minuti. Torni a guardare e trovi il thread cambiato, quasi “occupato”. I profili arrivano a grappolo, con pochi amici, bacheca serrata, attività ridotta, immagini generiche o volti da catalogo, o presi in prestito (basta una ricerca via google images). Il testo dei commenti si assomiglia, cambia una virgola, l’insulto, ma resta la stessa sostanza. Spuntano risposte a catena che cercano l’innesco, una parola storta, un pretesto, una miccia. Poi arriva la firma di questa forma di assalto, la risata seriale. Faccine che ridono piazzate sotto foto di corpi, sotto racconti di bombardamenti. Nel mio ultimo post ne ho contate circa 300, come se l’obiettivo fosse togliere al lettore perfino il diritto di restare in silenzio davanti alla morte.
Ormai a tutti noi appare ovvio che non è semplice maleducazione digitale. È una tecnica e l’obiettivo è chiaro: delegittimare il contenuto, sporcare il thread, spingere l’autore a reazioni impulsive, blocchi compulsivi, ma soprattutto scoraggiare chi legge dal partecipare, si viene aggrediti e offesi e così il post perde di efficacia e i troll hanno ottenuto il proprio obiettivo. Ne ho bloccati 300, ne sono spuntati altrettanti. Diventa un lavoro sisifiano e Il thread si trasforma in una vera e propria palude. Chi scrive si sente in minoranza dentro casa propria.
Non a caso, negli ultimi anni numerose indagini hanno documentato campagne sistematiche di “troll farm” e bot che attaccano post o pagine sui social network come Facebook e Twitter su temi sensibili (Gaza, immigrazione, clima ecc.). Questi attacchi appaiono come ondate di commenti identici o molto simili, spesso in fasce orarie fisse, con linguaggio esasperato e ripetitivo. Per esempio, analisi OSINT hanno mostrato account che postano gli stessi messaggi (o emoji) a orari regolari (ad es. ogni giorno all’1:00 o alle 18:00), con stesso stile e hashtag. Si parla di “bots vs bots” che generano una falsa opinione pubblica, cioè caos di commenti automodellati che sembrano conversazioni reali ma servono solo a gonfiare il traffico.
ATTACCHI DI BOT ISRAELIANI, ACT.IL, 4IL, E LA MILIZIA DIGITALE
Nel 2017, durante la Celebrate Israel Parade a New York, Gilad Erdan, allora ministro israeliano per gli Affari Strategici, presentò 4IL come un progetto capace di trasformare l’attivismo online in un gesto seriale, ripetibile, misurabile. La stampa pro Israele parlò esplicitamente di un “Iron Dome of Truth”. La formula conta, perché rivela la metafora di fondo. Il terreno di battaglia diventa lo spazio dei commenti, delle ricerche Google, delle segnalazioni, dei “report” inviati alle piattaforme. Non è molto conosciuta, ma dietro questi attacchi spesso ci sono reti coordinate di troll o “slacktivist” organizzati. Un caso emblematico è la campagna pro-Israele denominata Act.IL, creata con fondi statali israeliani. Act.IL era un’app che invitava volontari in tutto il mondo a compiere “missioni” quotidiane: mettere like o commenti positivi a post pro-Israele, retwittare messaggi selezionati, firmare petizioni, ecc. Act.IL viene presentata pubblicamente nel 2017 dentro una stagione politica israeliana in cui la lotta contro BDS (Boycott, Divestment, Sanctions) viene trattata come fronte strategico. In quella fase, fonti giornalistiche descrivono il progetto come “attivismo digitale” organizzato tramite un’app che assegna compiti, una specie di militanza a consegna, con obiettivi quotidiani e materiali pronti (https://www.972mag.com/israel-anti-bds-app/) . l’Oxford Internet Institute, in un inventario del 2018, inserisce Act.il tra le “cyber troops” e segnala un livello di organizzazione e risorse che va oltre l’attivismo spontaneo. Il testo che, per densità tecnica, resta tra i più utili, è l’analisi del DFRLab (Atlantic Council). Il cuore è la “missione”: l’app spinge l’utente verso un bersaglio già scelto, fornisce link diretti al post da colpire, propone testo pronto da incollare, registra l’azione, attribuisce punteggio, alimenta una dinamica di gioco e disciplina. Nel quadro descritto dal DFRLab, compaiono anche “missioni” che suggeriscono segnalazioni di massa e pressioni coordinate sui sistemi di moderazione delle piattaforme. (https://dfrlab.org/2019/08/19/how-a-political-astroturfing-app-coordinates-pro-israel-influence-operations/ ). Ecco perché spesso compaiono commenti “tutti uguali” e ravvicinati: la somiglianza non è un difetto, ma un effetto strutturale, perché la frase nasce da una consegna e da un modello di risposta. Nel Marzo 2022 l’app viene chiusa. +972 Magazine, con un pezzo lungo e informato, ricostruisce la parabola e colloca Act.IL dentro una storia più ampia di “troll army” e iniziative statali e para statali contro BDS, con dettagli su retorica pubblica e funzionamento. Per il periodo più recente, l’inchiesta del Guardian del 24 giugno 2024 è centrale: parla di documenti che descrivono un riavvio e rebranding di “Concert”, indicato come “Voices of Israel”, con attività rivolte al discorso pubblico statunitense su Gaza, campus, leggi e definizioni, e con l’uso di soggetti terzi, gruppi e ONG, per influenzare senza apparire come voce governativa diretta. (https://www.theguardian.com/world/article/2024/jun/24/israel-fund-us-university-protest-gaza-antisemitism ). a linea operativa tende a spostarsi verso reti “civili” e “partner”, perché la credibilità cresce quando l’azione sembra locale, spontanea, “dal basso”.
Reuters, 29 maggio 2024, riporta che Meta ha identificato e rimosso reti su Facebook e Instagram con contenuti “likely AI generated” che elogiavano la gestione israeliana della guerra a Gaza sotto post di testate e politici, attribuendo l’operazione alla società israeliana STOIC. È rilevante anche la frase “per la prima volta” legata al riconoscimento pubblico di generative AI usata per testo dentro un’influenza covert. (https://www.reuters.com/technology/meta-identifies-networks-pushing-deceptive-content-likely-generated-by-ai-2024-05-29/ ). Haaretz, tra marzo e giugno 2024, descrive inchieste su operazioni mirate verso membri del Congresso e su siti “misteriosi” amplificati da account finti, dentro una strategia che punta proprio a costruire l’impressione di sostegno popolare e a colpire aree politiche precise. (https://www.haaretz.com/israel-news/security-aviation/2024-06-05/ty-article-magazine/.premium/israel-secretly-targeted-american-lawmakers-with-gaza-war-influence-campaign/0000018f-e7c8-d11f-a5cf-e7cb62af0000 ).
UN ESEMPIO
Questa cornice chiarisce una cosa che su Facebook si vede a occhio. Un volontario, preso da solo, pesa poco. Un volontario inserito in un flusso di missioni pesa molto di più, perché agisce nello stesso punto, nello stesso momento e con una frase che somiglia a molte altre. Il thread prende l’aspetto di un consenso generale, o di un dileggio collettivo, anche quando dietro c’è un meccanismo di istruzioni. La risata digitale, in questo quadro, funziona come gesto povero e potentissimo. Un tap. Un segnale di dominio. Un invito alla violenza simbolica.
Posti un testo su Gaza. Dopo pochi minuti compaiono risate a grappolo, poi arrivano due o tre commenti con formule quasi identiche, poi iniziano risposte a catena che puntano a trascinarti sul terreno dell’insulto. Se lo stesso registro torna su più post, con profili simili, in tempi simili, l’ipotesi del coordinamento diventa ragionevole e merita verifica sul campo.
Accanto alle mobilitazioni “a missioni” esistono reti inautentiche attribuite a soggetti privati, spesso in connessione con fondi pubblici. Qui il caso chiave, documentato da più fonti, è STOIC. Reuters, come già detto, riferisce l’attribuzione di Meta a questa società e sottolinea un punto tecnico decisivo: per la prima volta Meta dichiara di aver visto uso di generative AI in testi, non solo in immagini, dentro operazioni di influenza. (Fonte: Reuters, 29 maggio 2024, link sopra).
Le reti in autentiche, TROLL FARM moderne cercano visibilità tramite i thread altrui. La risposta sotto una grande pagina diventa un palcoscenico. Il testo duplicato, piazzato sotto post diversi, crea presenza. L’avatar generato o stock evita reverse image search banali. L’identità, costruita per somigliare a “cittadini qualunque”, mira a disinnescare l’idea di propaganda. E la generazione automatica di testo abbassa i costi, alza il volume, rende la saturazione un prodotto.




🐦🔥nemo™🐦⬛ 🇺🇦🍉