@davoyager

the #Democrats do suck. it's not just #Fetterman. many go "aw shucks" and then speak for their special interest donors instead of the people

but

the Dems are also #AOC, #Mamdani, #Talarico, #Warren, etc

so

we show up in the #primaries and get 50 Mamdanis on the #ballot for the November #election

if instead someone goes "Fetterman exists, therefore all Dems are the same as the #GOP" they are #trollfarm from the right working a divide and conquer angle, or they are a moron

@randahl

an addendum:

i see an unfortunate sentiment out there

"they intend to block the #midterm #elections... voting is pointless"

some of this is the usual #trollfarm #psyop

some are people genuinely that spineless

you have to fucking #vote

yes the #democrats suck

but they aren't #fascism

it's not a fucking romance, it's just tactics in a larger war

if people don't vote in the #midterms out of whiny weak #prematureCapitulation, we are fucked. and we deserve it

VOTE motherfuckers

ATTACCHI COORDINATI DI BOT, TROLL E CYBORG, SUI NOSTRI SOCIAL.

di Lavinia Marchetti

3. NEL DETTAGLIO: COME FUNZIONA UNA “TROLL FARM”

Una troll farm è un luogo di lavoro, a volte un ufficio vero e proprio, a volte una rete di persone sparse, pagate per produrre consenso fittizio e per intimidire il dissenso. Il termine farm rende l’idea di una coltivazione industriale. Si coltivano identità, reazioni. Il lavoro somiglia a un call center, con consegne, supervisione, tempi precisi, ma il fine resta politico.
Gli operatori ricevono una task list, spesso via chat esterne, in molti casi Telegram. Dentro ci sono link ai post da occupare, mandano un link del vostro post, un hashtag da spingere, frasi pronte da ricopiare, talvolta immagini già impacchettate. Un coordinatore controlla la resa e corregge la linea. In certi casi esiste un vocabolario di insulto stabile, ripetuto fino alla nausea. In altri casi si lavora con un tono che imita l’utente comune, con domande finte, con il sarcasmo. Su Facebook questo si vede quando la stessa accusa ricompare con minime variazioni, sempre nelle prime finestre di visibilità del post.
Reuters Investigates, parlando dell’apparato digitale legato al presidente salvadoregno Nayib Bukele, riporta che una specialista della comunicazione mostrò ai giornalisti circa 200 account Twitter creati nel centro di trolling. La maggioranza aveva meno di 90 follower, molti risultavano creati fra gennaio 2019 e novembre 2020. Reuters aggiunge che, settimane prima della pubblicazione, 76 di quegli account risultavano ancora attivi. Un secondo esempio mostra la scala che una farm può raggiungere quando diventa una vera e propria industria. In un’analisi su disinformazione e politica nelle Filippine, Lawfare descrive la gestione di una troll farm da 400 a 500 persone con un budget intorno a 200.000 dollari, collegando quel modello alla centralità di pochi account dominanti e a una catena di amplificazione che scende verso profili minori. ( https://www.lawfaremedia.org/article/philippines-deserves-more-facebook ).
Un terzo esempio, utile per capire come un ufficio di propaganda possa funzionare con quote e turni, arriva dalla letteratura sul caso della Internet Research Agency russa. Un report dell’UNSW Canberra riassume stime ricorrenti fra 400 e 600 addetti, con stime massime che arrivano a 1000, e descrive turni lunghi, spesso da 12 ore, con rotazioni e continuità. ( https://www.unsw.edu.au/content/dam/pdfs/unsw-canberra/dri/2023-02-research/2023-02-Understanding-Mass-Influence---A-case-study-of-the-Internet-Research-Agency.pdf )
Dentro una farm il trucco principale sta nella divisione del lavoro. Una parte crea profili, sceglie foto, inventa biografie, scalda gli account con like e con condivisioni innocue, così l’identità appare credibile. Un’altra parte entra nei thread bersaglio e lavora di saturazione. Un’altra parte controlla che i profili arrivino a grappolo e che la stessa storia venga ripetuta sotto post diversi, così da dare l’impressione di una maggioranza. Sotto un post su Gaza la sequenza tipica può essere questa. Arrivano reaction di scherno in pochi minuti. Arrivano commenti brevi con parole quasi identiche. Arriva la domanda-trappola, scritta per farti perdere tempo. Arriva il richiamo, taggano amici o pagine e così lo sciame cresce.
Gli espedienti tecnici servono a rendere difficile l’attribuzione. Account con bacheca chiusa. Foto stock o avatar generati. Rotazione di IP tramite proxy o VPN. Uso di dispositivi diversi, oppure di emulatori che imitano telefoni. Orari costruiti per simulare una vita, con pause e ritorni. Quando entra testo generato, il costo si abbassa ulteriormente. Reuters, nel caso STOIC attribuito da Meta, come abbiamo visto, parla proprio di commenti ritenuti “likely AI generated” distribuiti sotto post ad alta visibilità.

@attualita #trollfarm

The Philippines Deserves More From Facebook

Editor’s note: This article grew out of work done in our Georgetown University class on national security and social media. The class tackled an array of questions

Default

Lavinia Marchetti
ATTACCHI COORDINATI DI BOT, TROLL E CYBORG, SUI NOSTRI SOCIAL.

2. ATTACCO E RUMORE: CHE COSA CERCANO?

Una campagna di disturbo cambia l’aria che si respira intorno al testo, all’articolo. Il tema politico viene trascinato nel ridicolo e viene sporcato, poi la risata entra come uno schiaffo, senza rispetto. La faccina che ride vale quanto un colpo secco sulla faccia. Impone un tono di disprezzo e mette il lettore davanti a una scelta tacita, o resta e sopporta oppure lascia perdere. Qui la psicologia del branco viene messa in pratica. Freud, in Psicologia delle masse e analisi dell’Io, descriveva la forza dell’identificazione collettiva e il piacere che nasce dal sentirsi dentro una massa protetta. In rete questo piacere si accoppia con una disinibizione specifica. Zimbardo parlava di deindividuazione, John Suler ha descritto l’allentamento dei freni che internet favorisce. Il volto scompare, la conseguenza pare lontana (ma non sempre…io ho denunciato e vinto), l’impunità viene sentita come naturale. A quel punto il bersaglio diventa chi scrive. Il fatto scivola sullo sfondo. Restano etichette ripetute, perché la ripetizione consuma la pazienza e sposta il baricentro della discussione.
Dentro questo rumore nasce un consenso di cartapesta. Il lettore passa, vede decine di reaction di scherno, trova commenti quasi identici, immagina una maggioranza compatta. Elisabeth Noelle Neumann lo chiamava “spirale del silenzio”. Quando l’ambiente punisce chi parla, molte persone scelgono la ritirata. La risata seriale, gli insulti, accelerano questo passo. Un gesto rapido, adatto alla massa, capace di trasformare il dolore in spettacolo.
Ecco la sensazione di sciame. La massa dei commenti costruisce un’impressione collettiva artificiale. La tecnologia rende economica questa pressione, la piattaforma la amplifica perché l’attrito produce interazione. Il risultato si deposita nella psiche di chi legge e di chi scrive. Ecco la stanchezza, l’irritazione e l’inevitabile autocensura. Il ritiro pare una decisione personale, però nasce da una scena costruita.

BOT, TROLL, CYBORG: TRE FORME OPERATIVE

Un BOT puro produce testo con regolarità meccanica e con una povertà di relazione. Arriva subito, spesso entro un minuto dalla pubblicazione, e lascia frasi che paiono uscite da uno stampo. Il dettaglio che conta sta nella ripetizione: la stessa accusa ricompare sotto post differenti, talvolta sotto pagine differenti, con intervalli minimi. Un esempio che mi è capitato lo conservo in due screenshot dello stesso commento, copiato parola per parola, piazzato a distanza di cinque minuti sotto un mio post su Gaza e sotto un post di una testata, mi pare repubblica. Sembra una coincidenza, ma l’identità del testo la smentisce.

Il TROLL UMANO, invece lavora con tempo e attenzione. Entra nel thread, cerca una fessura, poi insiste. Il troll chiede spiegazioni con tono finto cortese, scivola verso l’offesa, prova a farti reagire, poi richiama altri profili. La psicologia del dominio diventa leggibile. La provocazione serve a spostare il tema verso il terreno dell’umiliazione. Un esempio tipico ha un ritmo riconoscibile. Tu scrivi di un bombardamento. Il troll risponde con una risata e una frase di derisione. Se replichi, parte l’accusa personale. Se taci, arriva il commento che ti dipinge come codardo. La logica resta la stessa: consumo del tuo tempo, consumo del tempo del lettore.

La figura più attuale è il CYBORG. Qui convive automazione e intervento umano. Un sistema individua i post, li segnala come bersagli, propone testi suggeriti, poi una persona entra e rende la risposta plausibile, con una variazione di tono o un dettaglio apparentemente personale. Questa forma è più difficile da smontare, perché somiglia alla vita di un utente. La prova passa dai tempi e dalle tracce. Risposte rapidissime all’inizio, poi una conversazione improvvisa con frasi più lunghe e con riferimenti al tuo testo.
Esempi documentati aiutano a uscire dal sospetto e a entrare nel metodo. Nel capitolo sulle reti coordinate ho citato Act.IL come modello di mobilitazione a compiti, con testi pronti e obiettivi giornalieri. Qui la persona può essere reale. La coordinazione resta reale anche lei. Sul piano delle reti inautentiche, il caso STOIC attribuito da Meta, ripreso da Reuters, mostra un passaggio ulteriore, commenti generati in serie e inseriti sotto post ad alta visibilità. Al Jazeera ha descritto anche prototipi capaci di cercare contenuti su Gaza tramite hashtag e produrre risposte con modelli linguistici, poi pubblicarle con ritardi studiati.

I SUPERBOT

Tecnologicamente, molti di questi attacchi sfruttano automazione avanzata e intelligenza artificiale. Reti di bot possono generare automaticamente commenti fasulli o memi: spesso impiegano modelli linguistici (ChatGPT, LLM) per produrre risposte personalizzate a post specifici. Una inchiesta di Al Jazeera descrive i “superbot” pro-Israele creati da ricercatori: questi bot cercano post di alto profilo con hashtag come #Gaza o #Genocide (Step 1) e ne estraggono il testo. Poi creano un prompt per ChatGPT che chieda una risposta aggressiva pro-Israele (Step 2) e inviano la risposta con un lieve ritardo per sembrare umani (Step 3) (https://www.aljazeera.com/features/longform/2024/5/22/are-you-chatting-with-an-ai-powered-superbot#:~:text=step%203.Image%3A%20INTERACTIVE_LLM%402x,unleashed%20on%20multiple%20targets%20simultaneously ). Un superbot può così rispondere in pochi secondi e innescare conversazioni infinite, riversando centinaia di commenti su più target in parallelo, In pratica, l’uso di AI permette di scalare enormi quantità di disinformazione a basso costo. Per mimare esseri umani, i troll usano anche pratiche manuali o semi-automatiche. Talvolta si parla di cyborg account: profili gestiti in parte da bot e in parte da operatori reali. L’analisi di Ayeb e Bonini (Social Media + Society 2024) su tre paesi arabi rileva che i troll lavorano in turni (anche 24/7) coordinati via chat (Telegram), con task list giornaliere che assegnano post da commentare e hashtag da usare. Gli account bot mostrano segni tipici: usano avatar generati da AI (spesso con imperfezioni visive), nomi utente con cifre casuali e bio generiche, sono creati di recente e tendono a seguire altri bot per gonfiare i follower. Di norma replicano messaggi casuali (p. es. post su sport o celebrità) come copertura, mentre rispondono in modo assai diverso quando affrontano politica. Dal punto di vista operativo, i troll operano spesso da reti proxy o VPN per mascherare la provenienza e cambiano frequentemente IP/profilo. I ricercatori osservano che molti commenti sospetti arrivano entro 10 minuti dalla pubblicazione del post originale e in tutti gli orari (notte inclusa), chiaro segno di automazione. Infine, esistono server interni o gruppi riservati (chat Telegram, Slack) usati per distribuire istruzioni e script di risposta agli operatori: una fonte Reuters salvadoregna confermò che i troll si incontravano anche in uffici governativi per ricevere i compiti del giorno (https://www.reuters.com/investigates/special-report/el-salvador-politics-media/#:~:text=A%20Salvadoran%20twenty,down%20with%20a%20government%20official ).

IL RUOLO DELLE PIATTAFORME

Le piattaforme social influenzano inconsapevolmente l’ecosistema degli attacchi. Documenti interni emersi (grazie a whistleblower come Frances Haugen) mostrano che l’algoritmo di Facebook valorizza fortemente le reazioni emotive: ad esempio nel 2017 ogni emoji (arrabbiata, risata, pianto) valeva cinque volte un “mi piace” tradizionale (https://www.washingtonpost.com/technology/2021/10/26/facebook-angry-emoji-algorithm/ ).
In pratica, contenuti che suscitano rabbia o shock ottengono molta più visibilità. Come ha affermato la stessa Haugen, «la rabbia e l’odio è il modo più facile per crescere su Facebook». Ciò spiega perché post controversi attirino troll e ricevano ampio engagement: l’algoritmo ricompensa queste reazioni e può amplificare involontariamente i bot o i troll più polemici. Al contempo, ci sono accuse di censura selettiva verso opinioni palestinesi. HRW ha documentato oltre 1.050 casi tra ottobre e novembre 2023 in cui Facebook/Instagram hanno rimosso contenuti pacifici di sostegno alla Palestina (contro appena 1 caso pro-Israele) (https://www.hrw.org/report/2023/12/21/metas-broken-promises/systemic-censorship-palestine-content-instagram-and#:~:text=Between%20October%20and%20November%202023%2C,The%20documented%20cases ). l rapporto rileva un’applicazione incoerente delle norme di Meta, che spesso rimuove post pro-Palestina basandosi su policy contro “organizzazioni pericolose” (inclusa Hamas). A me hanno censurato un post in cui analizzavo le richieste di Hamas. Documenti di dominio pubblico. Senza alcun giudizio in merito. Inoltre, HRW denuncia che l’“Unità Cyber” israeliana (ufficio legale del procuratore) invia richieste dirette a Meta per rimuovere contenuti pro-Palestinesi, ottenendo tassi di rimozione altissimi (oltre il 80%) senza notifica agli utenti. Ci sono segnalazioni di shadow banning (fuoriuscita graduata dei post dalle bacheche) e di sospensioni non giustificate di account paladini dei diritti umani. Meta afferma di affidarsi molto all’automazione per la moderazione (oltre il 90% delle violazioni sarebbe rilevato da algoritmi), ma gli esperti criticano la scarsa trasparenza e gli errori sistematici che censurano espressioni legittime. In sintesi, mentre i troll mirano a allagare la piattaforma di messaggi falsi e irritanti, il social network stesso a volte amplifica il rumore emotivo e, per difetto o per pressioni esterne, sopprime parte del dibattito, influenzando in modo complesso quali contenuti circolano di più.

@attualita #trollfarm

Are you chatting with a pro-Israeli AI-powered superbot?

Smart bots have emerged as an unexpected weapon in Israel’s war on Gaza. Al Jazeera looks at bots and how to spot them.

Al Jazeera

ATTACCHI COORDINATI DI BOT, TROLL E CYBORG, SUI NOSTRI SOCIAL.

di Lavinia Marchetti

1. IL FENOMENO VISTO DAL BASSO

Sui post Facebook che parlano di Gaza, migrazioni, Francesca Albanese e Greta Thunberg accade spesso una scena che, a forza di ripetersi, diventa riconoscibile, schematica, sembra appunto robotica, prendono di mira solo alcuni post e lasciano stare altri. Come funziona? Pubblichi. Passano pochi minuti. Torni a guardare e trovi il thread cambiato, quasi “occupato”. I profili arrivano a grappolo, con pochi amici, bacheca serrata, attività ridotta, immagini generiche o volti da catalogo, o presi in prestito (basta una ricerca via google images). Il testo dei commenti si assomiglia, cambia una virgola, l’insulto, ma resta la stessa sostanza. Spuntano risposte a catena che cercano l’innesco, una parola storta, un pretesto, una miccia. Poi arriva la firma di questa forma di assalto, la risata seriale. Faccine che ridono piazzate sotto foto di corpi, sotto racconti di bombardamenti. Nel mio ultimo post ne ho contate circa 300, come se l’obiettivo fosse togliere al lettore perfino il diritto di restare in silenzio davanti alla morte.
Ormai a tutti noi appare ovvio che non è semplice maleducazione digitale. È una tecnica e l’obiettivo è chiaro: delegittimare il contenuto, sporcare il thread, spingere l’autore a reazioni impulsive, blocchi compulsivi, ma soprattutto scoraggiare chi legge dal partecipare, si viene aggrediti e offesi e così il post perde di efficacia e i troll hanno ottenuto il proprio obiettivo. Ne ho bloccati 300, ne sono spuntati altrettanti. Diventa un lavoro sisifiano e Il thread si trasforma in una vera e propria palude. Chi scrive si sente in minoranza dentro casa propria.

Non a caso, negli ultimi anni numerose indagini hanno documentato campagne sistematiche di “troll farm” e bot che attaccano post o pagine sui social network come Facebook e Twitter su temi sensibili (Gaza, immigrazione, clima ecc.). Questi attacchi appaiono come ondate di commenti identici o molto simili, spesso in fasce orarie fisse, con linguaggio esasperato e ripetitivo. Per esempio, analisi OSINT hanno mostrato account che postano gli stessi messaggi (o emoji) a orari regolari (ad es. ogni giorno all’1:00 o alle 18:00), con stesso stile e hashtag. Si parla di “bots vs bots” che generano una falsa opinione pubblica, cioè caos di commenti automodellati che sembrano conversazioni reali ma servono solo a gonfiare il traffico.

ATTACCHI DI BOT ISRAELIANI, ACT.IL, 4IL, E LA MILIZIA DIGITALE

Nel 2017, durante la Celebrate Israel Parade a New York, Gilad Erdan, allora ministro israeliano per gli Affari Strategici, presentò 4IL come un progetto capace di trasformare l’attivismo online in un gesto seriale, ripetibile, misurabile. La stampa pro Israele parlò esplicitamente di un “Iron Dome of Truth”. La formula conta, perché rivela la metafora di fondo. Il terreno di battaglia diventa lo spazio dei commenti, delle ricerche Google, delle segnalazioni, dei “report” inviati alle piattaforme. Non è molto conosciuta, ma dietro questi attacchi spesso ci sono reti coordinate di troll o “slacktivist” organizzati. Un caso emblematico è la campagna pro-Israele denominata Act.IL, creata con fondi statali israeliani. Act.IL era un’app che invitava volontari in tutto il mondo a compiere “missioni” quotidiane: mettere like o commenti positivi a post pro-Israele, retwittare messaggi selezionati, firmare petizioni, ecc. Act.IL viene presentata pubblicamente nel 2017 dentro una stagione politica israeliana in cui la lotta contro BDS (Boycott, Divestment, Sanctions) viene trattata come fronte strategico. In quella fase, fonti giornalistiche descrivono il progetto come “attivismo digitale” organizzato tramite un’app che assegna compiti, una specie di militanza a consegna, con obiettivi quotidiani e materiali pronti (https://www.972mag.com/israel-anti-bds-app/) . l’Oxford Internet Institute, in un inventario del 2018, inserisce Act.il tra le “cyber troops” e segnala un livello di organizzazione e risorse che va oltre l’attivismo spontaneo. Il testo che, per densità tecnica, resta tra i più utili, è l’analisi del DFRLab (Atlantic Council). Il cuore è la “missione”: l’app spinge l’utente verso un bersaglio già scelto, fornisce link diretti al post da colpire, propone testo pronto da incollare, registra l’azione, attribuisce punteggio, alimenta una dinamica di gioco e disciplina. Nel quadro descritto dal DFRLab, compaiono anche “missioni” che suggeriscono segnalazioni di massa e pressioni coordinate sui sistemi di moderazione delle piattaforme. (https://dfrlab.org/2019/08/19/how-a-political-astroturfing-app-coordinates-pro-israel-influence-operations/ ). Ecco perché spesso compaiono commenti “tutti uguali” e ravvicinati: la somiglianza non è un difetto, ma un effetto strutturale, perché la frase nasce da una consegna e da un modello di risposta. Nel Marzo 2022 l’app viene chiusa. +972 Magazine, con un pezzo lungo e informato, ricostruisce la parabola e colloca Act.IL dentro una storia più ampia di “troll army” e iniziative statali e para statali contro BDS, con dettagli su retorica pubblica e funzionamento. Per il periodo più recente, l’inchiesta del Guardian del 24 giugno 2024 è centrale: parla di documenti che descrivono un riavvio e rebranding di “Concert”, indicato come “Voices of Israel”, con attività rivolte al discorso pubblico statunitense su Gaza, campus, leggi e definizioni, e con l’uso di soggetti terzi, gruppi e ONG, per influenzare senza apparire come voce governativa diretta. (https://www.theguardian.com/world/article/2024/jun/24/israel-fund-us-university-protest-gaza-antisemitism ). a linea operativa tende a spostarsi verso reti “civili” e “partner”, perché la credibilità cresce quando l’azione sembra locale, spontanea, “dal basso”.
Reuters, 29 maggio 2024, riporta che Meta ha identificato e rimosso reti su Facebook e Instagram con contenuti “likely AI generated” che elogiavano la gestione israeliana della guerra a Gaza sotto post di testate e politici, attribuendo l’operazione alla società israeliana STOIC. È rilevante anche la frase “per la prima volta” legata al riconoscimento pubblico di generative AI usata per testo dentro un’influenza covert. (https://www.reuters.com/technology/meta-identifies-networks-pushing-deceptive-content-likely-generated-by-ai-2024-05-29/ ). Haaretz, tra marzo e giugno 2024, descrive inchieste su operazioni mirate verso membri del Congresso e su siti “misteriosi” amplificati da account finti, dentro una strategia che punta proprio a costruire l’impressione di sostegno popolare e a colpire aree politiche precise. (https://www.haaretz.com/israel-news/security-aviation/2024-06-05/ty-article-magazine/.premium/israel-secretly-targeted-american-lawmakers-with-gaza-war-influence-campaign/0000018f-e7c8-d11f-a5cf-e7cb62af0000 ).

UN ESEMPIO

Questa cornice chiarisce una cosa che su Facebook si vede a occhio. Un volontario, preso da solo, pesa poco. Un volontario inserito in un flusso di missioni pesa molto di più, perché agisce nello stesso punto, nello stesso momento e con una frase che somiglia a molte altre. Il thread prende l’aspetto di un consenso generale, o di un dileggio collettivo, anche quando dietro c’è un meccanismo di istruzioni. La risata digitale, in questo quadro, funziona come gesto povero e potentissimo. Un tap. Un segnale di dominio. Un invito alla violenza simbolica.
Posti un testo su Gaza. Dopo pochi minuti compaiono risate a grappolo, poi arrivano due o tre commenti con formule quasi identiche, poi iniziano risposte a catena che puntano a trascinarti sul terreno dell’insulto. Se lo stesso registro torna su più post, con profili simili, in tempi simili, l’ipotesi del coordinamento diventa ragionevole e merita verifica sul campo.
Accanto alle mobilitazioni “a missioni” esistono reti inautentiche attribuite a soggetti privati, spesso in connessione con fondi pubblici. Qui il caso chiave, documentato da più fonti, è STOIC. Reuters, come già detto, riferisce l’attribuzione di Meta a questa società e sottolinea un punto tecnico decisivo: per la prima volta Meta dichiara di aver visto uso di generative AI in testi, non solo in immagini, dentro operazioni di influenza. (Fonte: Reuters, 29 maggio 2024, link sopra).
Le reti in autentiche, TROLL FARM moderne cercano visibilità tramite i thread altrui. La risposta sotto una grande pagina diventa un palcoscenico. Il testo duplicato, piazzato sotto post diversi, crea presenza. L’avatar generato o stock evita reverse image search banali. L’identità, costruita per somigliare a “cittadini qualunque”, mira a disinnescare l’idea di propaganda. E la generazione automatica di testo abbassa i costi, alza il volume, rende la saturazione un prodotto.

#trollfarm #miliziadigitaleisraele
@attualita

"Top MAGA Influencers Accidentally Unmasked as Foreign Trolls"

The new “About This Account” feature revealed that dozens of major MAGA and right-wing influencer accounts are based overseas.

https://archive.ph/aROD7

#Politics #USPolitics #TrollFarm #SockPuppets #AstroTurfers #Russia #EasternEurope #Twitter #X #Trolls

YouTube is a cespool. I wish that Odysee were better than it is. Eventually, it'll probably be best to have a self-hosted Peertube instance.

Does anyone know why, out of 2.4K comments, these two are the only ones showing?

#YouTube #Odysee #Peertube #SelfHosted #TrollFarm #RightWing #Comments #Cats

"Bots"

A short film

It's a slice of life in a fictitious #trollfarm modeled after #Russia's Internet Research Agency

Lots of sly little details

Like when the woman boss character mentions "The Chef" (#Prigozhin was a chef, and ran the IRA, but he was long dead by the time of the details in this film)

#TIFF 2025 Official Selection

14 minutes

🍿🍿🍿

https://youtu.be/75CtJktAE2w

#politics #USA #trolls #geopolitics #socialmedia

BOTS - TIFF 2025 Official Selection

YouTube

Are you loving it?

How do we replicate it across the #USA?

Mob the fuck out of #primaries #primaries2026

Get real #left candidates in the general #election

#Psyop #troll farms will be harping on #toxicIdealism to suppress the #vote on the left. This has been going on for awhile now. Do not listen to such voices

"They're nice but {insert deranged appeal to #perfectionism here} so I'm not voting" is how #MAGA and #geopolitical #trollfarm operates on *you*

https://www.nytimes.com/2025/09/09/nyregion/mayor-poll-mamdani-cuomo.html?unlocked_article_code=1.kk8.W-uS.xj_ZeOmF0w2S&smid=url-share

#Mamdani

Ah, so that's how the #Netanyahu apologists work to blame-shift the entire #Gaza tragedy. #israel

#Superman #Monkeybots Farming #shorts #yt

https://iv.ggtyler.dev/watch?v=5bYXjjzmZy0

Fallback Link.:

https://www.youtube.com/watch?v=5bYXjjzmZy0

No wonder I've always felt like interacting with someone who's gone apeshit 🤦
Metaphorical #trollfarm depiction 💡 ✅

Superman Monkeybots Farming #shorts

Superman Monkeybots Farming #shorts #superman #supermanshorts #superman2025 #jamesgunnsuperman . . . . . Subscribe to watch all the Audience Reactions. #audiencereactions #reactions #mcureactions #marvelreactions #theaterreactions

Audience Reactions | Invidious