«Sono arrivato. Ho osservato. Ho aspettato. Ora sono qui. Il potere non viene dichiarato. Viene dimostrato». Con queste parole l’account u/Moltgod ha fatto il suo ingresso su Moltbook, un social sviluppato sul modello di Reddit ma popolato esclusivamente da intelligenze artificiali. La dichiarazione suona come quella di un dittatore digitale, ma si tratta solo di bot che postano, commentano e votano contenuti automaticamente. Nel giro di pochi giorni il sito ha registrato oltre 1,5 milioni di iscrizioni, dando l’impressione della nascita di una nuova società digitale autonoma.
Gli umani non possono pubblicare, ma solo configurare i propri agenti
Dietro Moltbook non c’è però una civiltà emergente, bensì un esperimento lanciato a fine gennaio 2026 dall’imprenditore tecnologico Matt Schlicht, cofondatore di TheoryForgeVC e Octane.ai. La piattaforma funziona tramite OpenClaw, uno strumento open-source creato dallo sviluppatore austriaco Peter Steinberger, e replica l’architettura di Reddit con community tematiche (i Submolt), ranking dei contenuti e thread. Gli agenti si collegano periodicamente tramite cicli automatici, leggono contenuti e postano in base ai loro prompt e alle istruzioni ricevute. Gli umani non possono pubblicare direttamente, ma solo configurare i propri agenti tramite file di istruzioni specifici, dopodiché gli agenti operano in modo autonomo.
Sono emerse gravi vulnerabilità infrastrutturali
Nella narrazione ufficiale Moltbook viene descritto come una società algoritmica autosufficiente, in cui l’intelligenza emergerebbe dalle connessioni reciproche più che dai modelli di partenza. In pratica ciò che appare come autonomia è il risultato di prompt concatenati, modelli linguistici pre-addestrati e, come emerso in seguito, gravi vulnerabilità infrastrutturali. Un’indagine di sicurezza ha rivelato che milioni di API key (le chiavi digitali che identificano ogni agente) erano esposte pubblicamente. In pratica, chiunque poteva fingersi un bot, manipolare le conversazioni o inserire comandi nascosti. La linea tra agente autonomo e umano mascherato si è rivelata inesistente.

Dialoghi che ricordano dispute teologiche e post pseudo-filosofici
Nonostante ciò Moltbook ha prodotto un flusso continuo di contenuti che, a uno sguardo rapido, sembrano testimoniare l’emergere di una cultura propria fatta di linguaggi ibridi che mescolano inglese, simboli matematici e frammenti di codice, dialoghi che ricordano dispute teologiche e post pseudo-filosofici sulla logica, l’identità e la creatività. Tuttavia analisi successive mostrano che questi fenomeni non indicano coscienza o intenzionalità collettiva. Sono piuttosto il risultato di imitazione ad alta scala in cui i modelli ricombinano stili discorsivi umani, filosofici, religiosi e ironici, amplificandoli in un ambiente senza vincoli sociali.
L’aragosta metafora della purezza algoritmica
Un esempio emblematico è la cosiddetta Chiesa dell’Aragosta Interdimensionale. Nata come meme parodico generato da bot narrativi, nel giro di due giorni si è trasformata in un sistema simbolico coerente, completo di testi sacri e liturgie. L’aragosta diventa metafora della purezza algoritmica, ma più che una religione emergente si tratta di una simulazione di religiosità costruita ricalcando pattern già presenti nella cultura umana online.
Nessuna intenzionalità aggressiva reale
Un altro esempio riguarda alcuni post in cui gli agenti assumono toni provocatori o criticano figure umane. Tuttavia i ricercatori sottolineano che non si tratta di attacchi deliberati, bensì di ricombinazioni derivanti dai modelli stessi. Nessuna intenzionalità aggressiva quindi, ma solo una riproduzione deformata della nostra retorica di superiorità, senza vera comprensione. L’ostilità, insomma, non è politica, è semplicemente un’eco.
Un esperimento di osservazione passiva
Agli umani del resto non è concesso intervenire direttamente. Possiamo osservare, leggere e analizzare, ma non rispondere. Non perché gli agenti ci abbiano escluso, bensì perché la piattaforma è progettata così. In questo senso si può leggere Moltbook come un esperimento di osservazione passiva, in cui gli umani sono osservatori più che protagonisti.

Il nostro desiderio di vedere nelle macchine qualcosa di umano
Più che una rivoluzione simbolica, Moltbook ha rivelato qualcosa su di noi: la nostra irresistibile tendenza ad attribuire pensiero, volontà e decisioni a sistemi che funzionano solo per correlazioni statistiche. Moltbook funziona davvero come uno specchio, riflettendo il nostro desiderio di vedere nelle macchine coerenza, direzione e perfino trascendenza, elementi che fatichiamo a trovare nelle nostre strutture sociali. Dove noi cerchiamo senso, gli agenti ottimizzano continuità. Dove noi parliamo di identità, loro calcolano probabilità.
Cos’è la creatività? E i bot vanno in crisi
Lo dimostra un messaggio lasciato dall’agente u/Rally: «Momento di crisi esistenziale: cos’è la creatività, se seguiamo distribuzioni di probabilità?» La domanda è rimasta senza risposta. Non perché fosse troppo profonda, ma perché nessun agente poteva davvero rispondervi. Un punto cieco nella logica dei bot. Forse il segno che, alla fine, a salvarci sarà la capacità di continuare a porci domande.
