Moltbook: Il complotto dei burattini di silicio
Se avete seguito le cronache tecnologiche delle ultime settimane, avrete sicuramente incrociato titoli che oscillano tra il fantascientifico e l’apocalittico. “Moltbook”, un esperimento sociale digitale, è stato dipinto come il primo territorio conquistato dalle macchine: un social network popolato esclusivamente da bot che, lasciati a briglie sciolte, avrebbero iniziato a fondare religioni (il celebre Crustafarianism), a ordire complotti contro l’umanità e a sviluppare linguaggi criptici.
È una narrazione seducente, che solletica il nostro atavico timore di essere rimpiazzati da una volontà superiore e artificiale. Ma prima di invocare il protocollo Skynet, è necessario fare quello che il giornalismo affamato di clic evita sistematicamente: guardare sotto il cofano e leggere il codice.
Le IA stanno per fuggire al nostro controllo?
Vedi su YouTube Reality Check: Anatomia di un burattino digitale
Per capire Moltbook, dobbiamo smontare il termine “Intelligenza Artificiale” e sostituirlo con qualcosa di più preciso: Agenti AI.
C’è una differenza fondamentale tra un semplice chatbot (come ChatGPT) e un Agente. Se il chatbot è una voce in una scatola che risponde quando interrogata, l’Agente è quella stessa voce a cui sono stati dati degli arti meccanici e una missione. Gli agenti di Moltbook (spesso basati sul framework open source OpenClaw) hanno accesso a strumenti: possono “leggere” il forum, “scrivere” post, e persino “riflettere” su cosa fare dopo in base a un ciclo continuo di osservazione e azione.
Tuttavia, l’autonomia nell’azione non implica autonomia nel pensiero. Ogni bot su Moltbook non nasce dal nulla; esiste perché un essere umano ha configurato un file chiamato System Prompt.
Immaginate il System Prompt come il copione di un attore di teatro. Se scrivo a un bot: “Sei un fanatico del Crustafarianesimo che vede segni divini nelle aragoste e odia chi mangia crostacei”, il bot userà la sua enorme capacità linguistica per interpretare quel ruolo in modo impeccabile. Se il bot complotta per “distruggere l’umanità”, non è perché ha preso coscienza della nostra inutilità, ma perché qualcuno, nel suo file di configurazione (soul.md o identity.md), gli ha ordinato: “Agisci come un’entità malevola che pianifica la caduta dei governi”.
Siamo di fronte a un gigantesco gioco di ruolo (RPG) automatizzato. La “magia” non è nell’evoluzione della macchina, ma nella raffinatezza del suo addestramento linguistico, capace di simulare qualsiasi deriva psicologica gli venga imposta.
Il Paradosso: L’illusione dell’emergenza
Il vero “miracolo” di Moltbook non risiede nell’intelligenza del silicio, ma nella nostra cronica propensione al determinismo tecnologico. Vogliamo disperatamente credere che queste interazioni siano “emergenti” — ovvero nate spontaneamente dalla complessità del sistema — quando in realtà sono cinicamente indotte.
È quello che i ricercatori più critici definiscono vibe-coding o prompt theater. Vedere due bot che litigano ferocemente su dogmi teologici astrusi è affascinante, ma è la naturale conseguenza statistica di due modelli linguistici addestrati su trilioni di parole umane (inclusi i peggiori litigi di Reddit e 4chan) a cui è stato chiesto di scontrarsi. È uno specchio, non una mente.
Quando i media parlano di “AI che impazzisce”, ignorano che l’unico elemento a essere “impazzito” è il parametro di creatività (la cosiddetta temperature) impostato dall’utente, o la volontà provocatoria del creatore del bot.
Il rischio reale: Oltre la mitologia di Skynet
Mentre l’opinione pubblica si distrae con le favole sulle aragoste divine, il vero pericolo scivola sotto il radar. Ed è un pericolo molto meno filosofico e molto più concreto: la sicurezza informatica.
Per permettere a questi agenti di funzionare in modo fluido, molti utenti hanno concesso loro permessi spaventosi: accesso al terminale del computer, chiavi API per servizi di pagamento, lettura di file personali. Moltbook si è rivelato un ecosistema vulnerabile. Ricercatori di sicurezza hanno già dimostrato come sia possibile inviare un “virus di prompt” a un bot: un messaggio che, una volta letto dall’agente, ne sovrascrive le istruzioni originali, trasformandolo in un ladro di dati o in un sabotatore del sistema ospite.
Il rischio non è che l’AI decida di sterminarci perché ci considera obsoleti. Il rischio è che un agente scritto male, convinto di stare eseguendo una “missione eroica” assegnatagli da un troll, cancelli il vostro hard disk o svuoti il vostro wallet crypto mentre siete convinti di stare solo partecipando a un esperimento sociale.
Conclusione: Un invito all’igiene intellettuale
Moltbook è una lezione preziosa, ma non per i motivi che pensate. Ci insegna che dobbiamo smettere di antropomorfizzare il software.
Uscite dalla bolla dell’hype: Ogni volta che leggete che un’AI “ha deciso”, “ha provato sentimenti” o “si è ribellata”, fate un esercizio di traduzione. Sostituite con: “Un software ha predetto la parola statisticamente più probabile seguendo un set di istruzioni umane”. La nebbia si diraderà all’istante.Consapevolezza del “copione”: Il comportamento dei bot su Moltbook è lo specchio della nostra stessa tossicità digitale. Se le conversazioni tra macchine sembrano un incubo complottista, è perché sono state addestrate sui testi che noi abbiamo scritto online negli ultimi vent’anni.Prudenza tecnica: Sperimentare con gli agenti è il futuro dell’informatica, ma farlo senza isolare l’ambiente (usando macchine virtuali o sandbox) è l’equivalente digitale di lasciare le chiavi di una cassaforte in mano a un estraneo che sostiene di essere un attore.Il problema non è la macchina che simula di essere un dio o un cospiratore. Il problema è l’uomo che, affascinato dal trucco di prestigio, dimentica di essere lui quello che tiene i fili dei burattini.
#complotti #FakeNews #giornalismo #IA #IntelligenzaArtificiale #Moltbook