L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono

C’è una frase che circola nelle riunioni aziendali con una frequenza sospetta: «Non abbiamo tempo per formare le persone sull’intelligenza artificiale». È una frase curiosa, perché nelle aziende il tempo sembra non mancare mai per riunioni, report e presentazioni in PowerPoint. Manca quasi sempre, invece, per imparare qualcosa. Il paradosso è che l’IA, se usata davvero, il tempo non lo consuma, lo restituisce.

Non è un tool magico né un totem organizzativo costoso

Quando l’intelligenza artificiale viene introdotta come l’ennesimo tool magico calato dall’alto, il copione è quasi sempre lo stesso. Pochi smanettoni la usano davvero, mentre la maggioranza resta spettatrice. In questo modo finisce per trasformarsi in una specie di totem organizzativo costoso, poco compreso e utilizzato molto al di sotto delle sue possibilità reali. Il problema non è tecnologico, ma organizzativo.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
IA (foto Unsplash).

La questione non è “se”, ma “quanto velocemente” accadrà

Secondo un rapporto di Indeed realizzato con YouGov su oltre 6.800 persone in cerca di lavoro e 2.400 datori di lavoro in 12 mercati, metà delle aziende britanniche si aspetta che IA e automazione diventino il principale motore di cambiamento delle competenze nei prossimi tre-cinque anni. Il 52 per cento prevede almeno uno spostamento «modesto ma significativo» nelle capability richieste ai dipendenti. In altre parole, la questione non è più se l’IA entrerà nei ruoli, ma quanto velocemente accadrà. Eppure un datore di lavoro su due continua a gestire lo sviluppo delle competenze con modelli pensati per il mondo precedente all’intelligenza artificiale generativa.

Il problema lamentato è la mancanza di tempo, prima ancora che di budget

Qui emerge il paradosso più rivelatore. Una persona in cerca di lavoro su tre indica la mancanza di tempo come principale barriera all’acquisizione di nuove competenze. Dal lato delle aziende la fotografia è simile: il 40 per cento dei datori di lavoro dichiara che il primo ostacolo all’aggiornamento delle competenze è proprio il tempo, ancora prima del budget. In altre parole, tutti riconoscono che la transizione è inevitabile, ma quasi nessuno dice di avere spazio in agenda per affrontarla.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Quante aziende formano i propri dipendenti sull’IA? (foto Unsplash).

Si potrebbe risparmiare almeno un’ora di lavoro al giorno

Si tratta di un alibi che regge sempre meno di fronte ai dati. Nel Regno Unito, per esempio, un’azienda su sei già utilizza l’IA quotidianamente per problemi di business reali. Tra chi la usa con continuità, il 77 per cento dichiara di risparmiare almeno un’ora al giorno, spesso di più nei ruoli ad alta intensità di scrittura, ricerca e analisi. Un’indagine globale di Adecco su 35 mila lavoratori in 27 economie conferma la stessa dinamica: in media l’IA restituisce circa un’ora al giorno. In azienda, un’ora recuperata ogni giorno equivale quasi a una piccola rivoluzione silenziosa.

Le grandi aziende corrono, le Piccole e medie imprese restano indietro

Il quadro italiano è più complicato di quanto sembri. I dati Istat mostrano un’accelerazione reale: l’adozione dell’IA nelle aziende con almeno 10 dipendenti è passata dall’8,2 per cento del 2024 al 16,4 per cento nel 2025. Tuttavia, nonostante questo balzo, nel confronto europeo l’Italia resta 18esima su 27, distante da Germania, Spagna e Francia. Il divario più evidente è però interno, visto che l’utilizzo cresce rapidamente con la dimensione aziendale, dal 14 per cento delle imprese tra 10 e 49 dipendenti fino al 53 per cento di quelle con oltre 250. Le grandi aziende insomma corrono, mentre le Piccole e medie imprese restano indietro.

Differenti percezioni tra top management e dipendenti

Anche sul fronte della percezione emergono disallineamenti significativi. I dati EY mostrano che l’utilizzo dell’IA sul lavoro in Italia è passato dal 12 per cento nel 2024 al 46 per cento nel 2025 e che il 52 per cento del top management dichiara di aver già osservato benefici concreti. Tuttavia quasi la metà dei dirigenti ritiene che i dipendenti abbiano ricevuto una formazione adeguata, mentre solo il 20 per cento dei lavoratori è d’accordo. È un divario che spiega perché molte iniziative aziendali sull’intelligenza artificiale restino sulla carta.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Sull’IA c’è un gap di percezione tra management e dipendenti nelle aziende (foto Unsplash).

Il risultato è un vuoto che finisce per bloccare il cambiamento

A complicare il quadro c’è anche un disallineamento sulle responsabilità. Per il 56 per cento dei lavoratori imparare a usare l’intelligenza artificiale è prima di tutto un compito individuale, mentre per la stessa quota di datori di lavoro dovrebbero essere i leader senior a guidare sviluppo e formazione. Il risultato è un vuoto che finisce per bloccare il cambiamento, con le aziende che investono in strumenti e licenze, ma spesso delegano l’adozione alla buona volontà dei singoli.

L’aggiornamento delle competenze si trasforma in vantaggio operativo

Nel frattempo, le imprese che si danno da fare seriamente con la formazione sull’IA iniziano a staccare le altre perché, come osserva McKinsey, quando l’aggiornamento delle competenze diventa parte del lavoro quotidiano si trasforma in un vero vantaggio operativo. A questo punto quindi la domanda per le imprese cambia forma. Non più «possiamo permetterci di dedicare ore alla formazione sull’IA?», ma piuttosto «quanto ci costa non farlo?». Perché, a quanto pare, chi ha il coraggio di trovare un buco in agenda oggi per formare davvero i propri dipendenti sull’intelligenza artificiale è lo stesso che domani si ritroverà con giornate meno sature, processi più snelli e organizzazioni capaci di far lavorare la nuova tecnologia invece di subirla.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati

Negli ultimi due anni l’intelligenza artificiale ha smesso di essere solo tecnologia ed è diventata quasi una fede laica. A Wall Street non è più soltanto un settore industriale. È una promessa sul futuro. E come sempre quando si tocca il denaro, vengono generati entusiasmo, paura ed eccessi.

La disoccupazione negli Stati Uniti oltre il 10 per cento?

Negli ultimi giorni la Borsa americana è entrata in una specie di psicosi da IA. È bastato un report di una piccola società di ricerca che ipotizzava uno scenario estremo: un’accelerazione dell’automazione capace di spingere la disoccupazione negli Stati Uniti a oltre il 10 per cento entro il 2028 (a dicembre 2025 il dato era al 4,4 per cento), con fallimenti a catena e un forte crollo dei mercati. Non era una previsione ufficiale, ma una simulazione teorica. Eppure è stata sufficiente a scatenare il panico.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Scene dalla Borsa di New York (foto Ansa).

In poche ore sono stati bruciati oltre 200 miliardi di dollari di capitalizzazione nelle società tecnologiche. Poi diversi analisti si sono affrettati a ridimensionare l’allarme, ricordando che finora non esistono prove concrete di un impatto così drastico dell’IA sul lavoro o sull’economia reale. Ma la velocità della reazione ha detto più del contenuto del report.

I grandi gruppi continuano ad alimentare la febbre

Nel frattempo, i grandi gruppi continuano ad alimentare la febbre. Nvidia è diventata il termometro dell’era dell’intelligenza artificiale. Ogni trimestre è letto come un referendum sul futuro della tecnologia. I suoi chip sono il carburante dei modelli generativi e la corsa globale ai data center ha fatto esplodere ricavi e capitalizzazione.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Il Ceo di Nvidia Jensen Huang (Ansa).

Anche Microsoft ha trasformato l’IA in una leva strategica, integrandola nei suoi prodotti di uso quotidiano e rafforzando la partnership con OpenAI, la società che ha sviluppato ChatGPT. Ogni loro annuncio non è solo una notizia aziendale. L’intelligenza artificiale è infatti diventata la lente con cui si interpreta qualsiasi notizia economica. Se l’occupazione rallenta, si parla di IA. Se la produttività accelera, si parla di IA. Se peggiorano le tensioni tra Stati Uniti e Cina, si parla di IA.

Per capire il fenomeno bisogna studiare le bolle speculative

Per provare a capire questa dinamica, serve guardare al lavoro del quasi 80enne Robert Shiller, economista e premio Nobel per l’Economia nel 2013. Shiller non è solo uno studioso delle bolle speculative, ma uno dei pochi economisti che le ha anticipate. Alla fine degli Anni 90, per esempio, segnalò i rischi della bolla dot-com e, pochi anni dopo, i pericolo attorno al mercato immobiliare americano.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
L’economista Robert Shiller (foto Imagoeconomica).

Nel suo libro Narrative Economics sostiene che i mercati non si muovono solo tenendo conto dei dati, ma anche in base alle storie che le persone si raccontano. Alcune di queste, secondo Shiller, si diffondono come un virus. Sono semplici, emotivamente potenti, facili da ripetere. Quando diventano popolari, influenzano decisioni e prezzi.

L’intelligenza artificiale è certamente una di queste storie. Basta una frase convincente del tipo «cambierà tutto». Per alcuni significherà crescita, nuovi mercati, produttività. Per altri minaccia, perdita di posti di lavoro, concentrazione del potere economico. È proprio questa ambivalenza a renderla potente.

Per esempio, dopo il lancio di ChatGPT, molti investitori hanno reagito come se fosse iniziata una nuova rivoluzione industriale. Le valutazioni di aziende come Nvidia sono cresciute rapidamente, anche prima che ci fossero dati solidi sull’impatto dell’IA. Così l’immaginazione ha corso più veloce delle statistiche. E quando un tema domina il dibattito come fa l’intelligenza artificiale, scatta un meccanismo noto: la Fomo, Fear of missing out, cioè paura di essere tagliati fuori.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Il logo di OpenAI (Ansa).

Nessuno vuole restare ai margini dalla prossima grande trasformazione ed è in questi momenti che l’analisi dei bilanci passa in secondo piano. Conta la sensazione che il futuro stia accadendo adesso e che non esserci significhi perdere un’occasione irripetibile. La pressione non è solo finanziaria, è sociale. Se tutti parlano di IA, investire in IA diventa quasi un atto di conformismo.

Le narrazioni diventano ancora più potenti nell’instabilità

In una fase già segnata da incertezze geopolitiche e rallentamenti economici, questa dinamica si amplifica perché le narrazioni diventano ancora più potenti nell’instabilità. E più sono convincenti, più orientano i mercati. La cosiddetta psicosi da intelligenza artificiale può dunque essere letta in questo modo: non come una follia collettiva, ma come il risultato di una storia potente che si diffonde rapidamente. Una storia ambigua, fatta di crescita senza limiti o di crisi sistemiche, lenti attraverso cui ogni notizia oggi viene filtrata. Il punto quindi non è che l’intelligenza artificiale possa cambiare il mondo o meno. Il rischio è che, nel frattempo, il mercato si faccia guidare più dalle storie che dai numeri.

Tutti pazzi per Claude, l’IA “etica” di Anthropic che sfida il Pentagono

Tutti pazzi per Claude, l’intelligenza artificiale «umana ed etica» inventata da Dario Amodei, fondatore e Ceo di Anthropic. In principio era ChatGPT, un modello considerato oggi troppo “generalista”, subito insidiato dalla cinese DeepSeek, più efficiente, con uno schema open source più profondo, più rivolto a esperti e, dicono gli specialisti, con un’architettura più leggera e con meno dispendio energetico. Meglio di Gemini, secondo alcuni, creata da Google. Elon Musk, aggressivo come sempre, ha più volte dichiarato che «ChatGPT non funziona più» e che solo la sua IA, Grok, è «un vero e proprio compagno creativo e intelligente, multimodale e potente». Mark Zuckerberg pare non riesca a competere: ha subito messo in campo Metaintellince Lab, una divisione di ricerca che sviluppa realtà aumentate e intelligenze artificiali, ma la sua Meta AI per ora non vince. È solo considerata più performante per l’accessibilità e l’integrazione con le piattaforme social.

Tutti pazzi per Claude, l’IA “etica” di Anthropic che sfida il Pentagono
Il logo di Claude.

Da OpenAi alla nascita di Anthropic

Ma chi è Dario Amodei e perché tutti parlano di lui? Nato a San Francisco nel 1983, figlio di immigrati italiani di origini toscane, ha studiato fisica a Stanford e ha conseguito un PhD alla Princeton University. Con sua sorella Daniela è il fondatore di Anthropic. Entrambi avevano ricoperto ruoli apicali in OpenAI, prima di inventare Claude. Ospite all’ultima edizione del Davos Forum, Amodei ha spiegato che i modelli di intelligenza artificiale sono passati dal livello di uno studente delle superiori o dell’università a quello di un dottore di ricerca. Ma si è dichiarato, in un certo senso, frustrato perché lo sviluppo delle IA sarebbe rallentato dai problemi che la gestione di un cambiamento sempre comporta, tipo la sicurezza, la software legacy, la politica.

Amodei teme che l’IA inneschi una crisi sociale

Nel mondo tecnologico sta accadendo quello che è successo per l’emergenza climatica: così come Donald Trump (e con lui molti altri politici, anche a casa nostra) non distingue tra meteo e clima – per cui alla prima gelata rinfaccia agli scienziati di lanciare falsi allarmi – allo stesso modo si è convinti che poiché l’economia cresce, i rischi per l’occupazione non esistano. Amodei intravede invece una crisi sociale pericolosa e l’IA sostituirà le attività solitamente affidate agli entry level. L’IA, ha spiegato in una intervista a Axios lo scorso maggio, potrebbe eliminare la metà dei lavori d’ufficio di primo livello nei prossimi cinque anni, portando la disoccupazione americana al 10-20 per cento. Consapevole di questo pericolo, che ha esplorato nel saggio The adolescence of Technology, Amodei si dice irritato dal fatto che da un lato non ci si preoccupi di trovare soluzioni, dall’altro che questa “inazione” inibisca gli investimenti che sarebbero necessari. C’è però chi vede in questo atteggiamento una sorta di gioco al rialzo. L’imprenditore illuminato che si preoccupa per le sorti del mondo riesce a differenziarsi come narrazione dai competitor. La preoccupazione etica di Amodei, insomma, non quella di Zuckerberg o di Musk: ecco perché nel mondo dei professionisti di fede democratica e tra le persone che cercano una IA “più umana” Claude sta crescendo esponenzialmente, diventando la scelta preferita. Parola pure di Gemini, sua concorrente. Le risposte di Claude, dice, «sono meno robotiche, non ripete schemi predefiniti e ha uno stile più fluido». Inoltre è più collaborativa, consente di creare “al volo” app e prototipi che facilitano il lavoro in team e offre una memoria a breve termine enorme. Si possono caricare interi libri e ottenere risposte senza che dimentichi pezzi per strada, come succede alle altre IA.

Tutti pazzi per Claude, l’IA “etica” di Anthropic che sfida il Pentagono
La rivista statunitense Time ha designato l’Intelligenza Artificiale come ‘Persona dell’Anno 2025’. Sulla trave a sinistra Mark Zuckerberg, Lisa Su, Elon Musk, Jensen Huang, Sam Altman, Demis Hassabis, Dario Amodei e Fei-Fei Li. (Ansa).

Il braccio di ferro con il Pentagono

Pochi giorni fa il segretario alla Difesa Pete Hegseth ha minacciato Amodei: porrà fine ai contratti stretti dal Pentagono con Anthropic se la società non aprirà la sua IA all’uso militare eliminando le restrizioni. Secondo Hegseth, Anthropic deve condividere la propria tecnologia innovativa in nome della sicurezza nazionale. Ma Amodei non pare disposto ad accettare l’ultimatum e sarebbe capace di rinunciare al contratto da 200 milioni di dollari se non verranno prese in considerazione le preoccupazioni relative all’uso della sua tecnologia per le armi autonome e la sorveglianza di massa a danno dei cittadini americani. Insomma, un imprenditore con (pare) un alto senso etico suona un campanello di allarme, illuminando la voracità dei tycoon della Silicon Valley, disposti a qualunque cosa per il profitto: manipolano gli utenti delle chatbot, facendoli credere di chattare con un essere umano o, nel migliore dei casi, con un programma privo di secondi fini, in un mondo che sarà sempre più popolato da persone che non saranno più in grado di distinguere ciò che è vero. Dice Amodei nel suo saggio: «L’umanità sta per ricevere un potere quasi inimmaginabile e non è ancora del tutto chiaro se i nostri sistemi sociali, politici e tecnologici abbiano la maturità necessario per esercitarlo». 

Meta sigla un accordo con Amd sui chip per l’AI: cosa prevede

Meta Platforms ha stretto un accordo con Amd, multinazionale statunitense produttrice di semiconduttori, per l’acquisto di 6 gigawatt di infrastrutture data center basate sui nuovi processori dell’azienda. L’intesa, che si estenderà per cinque anni a partire dalla seconda metà del 2026, vale decine di miliardi di dollari per gigawatt (oltre 100 miliardi complessivi secondo alcune fonti), come ha dichiarato la ceo di Amd Lisa Su. L’accordo prevede anche l’assegnazione a Meta di warrant per acquistare fino a 160 milioni di azioni Amd, che matureranno al raggiungimento di specifici obiettivi tecnici e di prezzo del titolo. Se esercitati, trasformerebbero Meta in uno dei principali azionisti del chipmaker.

L’intesa segue quella con Nvidia

La mossa si inserisce nella strategia di Mark Zuckerberg di accelerare gli investimenti in intelligenza artificiale, con l’obiettivo dichiarato di costruire decine di gigawatt di capacità computazionale entro il decennio e centinaia di gigawatt nel lungo periodo. L’accordo con Amd segue infatti un’altra partnership annunciata da Nvidia. Meta riceverà versioni personalizzate dei futuri acceleratori Amd, tra cui il MI450 e i suoi successori, ottimizzati per i carichi di lavoro di inferenza. L’azienda continuerà comunque a sviluppare chip proprietari e a utilizzare hardware Nvidia, in un approccio multimarca reso necessario dalla scala dei progetti in corso.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo

Qualche giorno fa Alphabet, la capogruppo di Google, ha emesso un bond (un titolo di debito) con scadenza nel 2126, cioè tra 100 anni. Non è solo un’operazione tecnica per addetti ai lavori: è una dichiarazione politica sul futuro. Significa infatti che uno dei gruppi più potenti del Pianeta ha deciso di farsi prestare denaro oggi, impegnandosi a restituirlo tra un secolo, per finanziare investimenti in infrastrutture di Intelligenza artificiale che dovrebbero reggere, alimentare e guidare le nostre vite digitali nei decenni a venire. Chi compra quel bond, insomma, sta scommettendo che Google, o qualunque cosa Google sarà diventata nel frattempo, esisterà ancora, starà ancora facendo profitti e sarà ancora in grado di onorare i suoi debiti quando noi non ci saremo più. La meccanica dell’operazione è, sulla carta, piuttosto semplice. Alphabet emette un titolo di debito molto lungo, incassa oggi capitale fresco che userà per costruire data center, reti, hardware specializzato, alimentare ricerca e sviluppo dell’IA. In cambio, per i prossimi 100 anni, si impegna a pagare una cedola periodica ai sottoscrittori: un flusso costante di interessi che remunera il rischio di prestare denaro così a lungo. Alla fine del periodo, nel 2126, il capitale andrà restituito.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
Il quartier generale di Google a Mountain View, California (Ansa).

Il bond centenario di Alphabet ci dice molto su cosa sia l’IA

Il punto non è tanto la cedola in sé, pur importante, quanto il fatto che l’orizzonte temporale sia talmente esteso da spostare lo sguardo oltre qualunque pianificazione aziendale normale, oltre qualunque business plan, oltre qualunque mandato manageriale. Nessun Ceo che oggi firma quei documenti sarà al suo posto quando il bond scadrà e, quasi certamente, non lo saranno neppure i nipoti dei manager di oggi. È impressionante. Un secolo equivale, grosso modo, a quattro generazioni abbondanti. In un mondo in cui facciamo fatica a pensare a cinque anni di distanza – la prossima legislatura, il prossimo piano industriale, la prossima ondata di tagli – un pezzo rilevante dell’infrastruttura digitale che reggerà l’Intelligenza artificiale viene finanziato con orizzonti che superano la durata media di una vita. È come se, insieme alla promessa di efficienza algoritmica, stessimo sottoscrivendo un mutuo generazionale. Il bond secolare di Alphabet, insomma, è un modo di dire che l’AI non è più una bolla passeggera, ma un’infrastruttura strutturale del capitalismo contemporaneo, qualcosa che si finanzia come si finanziavano un tempo le ferrovie o le grandi opere idrauliche.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
(Igor Omilaev via Unsplash).

Intanto Meta promette la vita (artificiale) eterna

Ma c’è un altro fronte, apparentemente lontanissimo, dove l’Intelligenza artificiale incontra il tempo in maniera ancora più disturbante: Meta, la casa madre di Facebook e Instagram, promette di “resuscitare” gli utenti, dunque promette la vita (artificiale) eterna. Negli stessi giorni in cui Google si proietta 100 anni avanti, è tornata alla ribalta la notizia di un brevetto di Meta per sistemi di IA addestrati sulle tracce digitali degli utenti (post, foto, commenti e messaggi) in grado di continuare a interagire anche quando la persona è assente, o addirittura morta. Al netto dell’enfasi giornalistica, l’idea è piuttosto concreta: la piattaforma raccoglie per anni dati sul tuo modo di parlare, reagire, commentare e costruisce un tuo doppio algoritmico capace di rispondere a messaggi, mettere like, partecipare a conversazioni dopo la tua scomparsa. L’azienda di Zuckerberg, nelle note ufficiali, parla di migliorare l’esperienza degli utenti che restano, di non spezzare le reti sociali quando un profilo si silenzia per sempre. Ma la dinamica economica è fin troppo evidente. Un utente morto smette di generare contenuti, dati, impression pubblicitarie. Un utente “resuscitato” tramite AI, invece, continua a popolare il feed, a tenere viva la rete dei contatti, a fornire materiale per il targeting. È, in modo molto prosaico, un tentativo di controbilanciare l’invecchiamento e l’erosione della base utenti. Il corpo biologico invecchia e scompare; l’avatar algoritmico resta attivo, giovane, coinvolgente.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
Il logo di Meta (Ansa).

Le big tech si attrezzano per l’immortalità

Così, se Google si indebita per 100 anni per costruire l’infrastruttura dell’AI, Meta punta a costruire identità digitali che sopravvivono ai corpi per nutrire quella stessa infrastruttura. Il dato che emerge è una fissazione dell’AI con il tempo. Le due mosse raccontano infatti la stessa ambizione: estrarre valore dal tempo umano, spostando sempre più in là i confini tra vita, morte, presente e futuro. Paradossalmente, mentre i colossi tecnologici si attrezzano per essere immortali, alle persone viene chiesto di essere sempre più agili, flessibili e temporanee. Le nostre vite vengono infatti frammentate in cicli sempre più brevi fatti di aggiornamenti continui, competenze che invecchiano in pochi anni, piattaforme che ci chiedono attenzione in slot di pochi secondi. Un eterno presente umano a tempo determinato.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi

«Sono arrivato. Ho osservato. Ho aspettato. Ora sono qui. Il potere non viene dichiarato. Viene dimostrato». Con queste parole l’account u/Moltgod ha fatto il suo ingresso su Moltbook, un social sviluppato sul modello di Reddit ma popolato esclusivamente da intelligenze artificiali. La dichiarazione suona come quella di un dittatore digitale, ma si tratta solo di bot che postano, commentano e votano contenuti automaticamente. Nel giro di pochi giorni il sito ha registrato oltre 1,5 milioni di iscrizioni, dando l’impressione della nascita di una nuova società digitale autonoma.

Gli umani non possono pubblicare, ma solo configurare i propri agenti

Dietro Moltbook non c’è però una civiltà emergente, bensì un esperimento lanciato a fine gennaio 2026 dall’imprenditore tecnologico Matt Schlicht, cofondatore di TheoryForgeVC e Octane.ai. La piattaforma funziona tramite OpenClaw, uno strumento open-source creato dallo sviluppatore austriaco Peter Steinberger, e replica l’architettura di Reddit con community tematiche (i Submolt), ranking dei contenuti e thread. Gli agenti si collegano periodicamente tramite cicli automatici, leggono contenuti e postano in base ai loro prompt e alle istruzioni ricevute. Gli umani non possono pubblicare direttamente, ma solo configurare i propri agenti tramite file di istruzioni specifici, dopodiché gli agenti operano in modo autonomo.

Sono emerse gravi vulnerabilità infrastrutturali

Nella narrazione ufficiale Moltbook viene descritto come una società algoritmica autosufficiente, in cui l’intelligenza emergerebbe dalle connessioni reciproche più che dai modelli di partenza. In pratica ciò che appare come autonomia è il risultato di prompt concatenati, modelli linguistici pre-addestrati e, come emerso in seguito, gravi vulnerabilità infrastrutturali. Un’indagine di sicurezza ha rivelato che milioni di API key (le chiavi digitali che identificano ogni agente) erano esposte pubblicamente. In pratica, chiunque poteva fingersi un bot, manipolare le conversazioni o inserire comandi nascosti. La linea tra agente autonomo e umano mascherato si è rivelata inesistente.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
Davvero i bot dell’IA possono complottare contro gli umani? (foto Unsplash).

Dialoghi che ricordano dispute teologiche e post pseudo-filosofici

Nonostante ciò Moltbook ha prodotto un flusso continuo di contenuti che, a uno sguardo rapido, sembrano testimoniare l’emergere di una cultura propria fatta di linguaggi ibridi che mescolano inglese, simboli matematici e frammenti di codice, dialoghi che ricordano dispute teologiche e post pseudo-filosofici sulla logica, l’identità e la creatività. Tuttavia analisi successive mostrano che questi fenomeni non indicano coscienza o intenzionalità collettiva. Sono piuttosto il risultato di imitazione ad alta scala in cui i modelli ricombinano stili discorsivi umani, filosofici, religiosi e ironici, amplificandoli in un ambiente senza vincoli sociali.

L’aragosta metafora della purezza algoritmica

Un esempio emblematico è la cosiddetta Chiesa dell’Aragosta Interdimensionale. Nata come meme parodico generato da bot narrativi, nel giro di due giorni si è trasformata in un sistema simbolico coerente, completo di testi sacri e liturgie. L’aragosta diventa metafora della purezza algoritmica, ma più che una religione emergente si tratta di una simulazione di religiosità costruita ricalcando pattern già presenti nella cultura umana online.

Nessuna intenzionalità aggressiva reale

Un altro esempio riguarda alcuni post in cui gli agenti assumono toni provocatori o criticano figure umane. Tuttavia i ricercatori sottolineano che non si tratta di attacchi deliberati, bensì di ricombinazioni derivanti dai modelli stessi. Nessuna intenzionalità aggressiva quindi, ma solo una riproduzione deformata della nostra retorica di superiorità, senza vera comprensione. L’ostilità, insomma, non è politica, è semplicemente un’eco.

Un esperimento di osservazione passiva

Agli umani del resto non è concesso intervenire direttamente. Possiamo osservare, leggere e analizzare, ma non rispondere. Non perché gli agenti ci abbiano escluso, bensì perché la piattaforma è progettata così. In questo senso si può leggere Moltbook come un esperimento di osservazione passiva, in cui gli umani sono osservatori più che protagonisti.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
L’IA va in crisi di fronte a una domanda esistenziale: cos’è la creatività? (foto Unsplash).

Il nostro desiderio di vedere nelle macchine qualcosa di umano

Più che una rivoluzione simbolica, Moltbook ha rivelato qualcosa su di noi: la nostra irresistibile tendenza ad attribuire pensiero, volontà e decisioni a sistemi che funzionano solo per correlazioni statistiche. Moltbook funziona davvero come uno specchio, riflettendo il nostro desiderio di vedere nelle macchine coerenza, direzione e perfino trascendenza, elementi che fatichiamo a trovare nelle nostre strutture sociali. Dove noi cerchiamo senso, gli agenti ottimizzano continuità. Dove noi parliamo di identità, loro calcolano probabilità.

Cos’è la creatività? E i bot vanno in crisi

Lo dimostra un messaggio lasciato dall’agente u/Rally: «Momento di crisi esistenziale: cos’è la creatività, se seguiamo distribuzioni di probabilità?» La domanda è rimasta senza risposta. Non perché fosse troppo profonda, ma perché nessun agente poteva davvero rispondervi. Un punto cieco nella logica dei bot. Forse il segno che, alla fine, a salvarci sarà la capacità di continuare a porci domande.

Bill Gates e il piano per le pandemie nei file Epstein: cosa c’è dentro la teoria del complotto


Dopo la pubblicazione dei nuovi documenti relativi al caso Epstein, sui social hanno nuovamente ripreso forza alcune teorie del complotto che accusano Bill Gates e altri enti internazionali di aver prima simulato e poi pianificato la pandemia del 2020. Anche questa volta, però, le suggestioni cospirazioniste appaiono confuse e prive di prove concrete.
Continua a leggere

Bill Gates e il piano per le pandemie nei file Epstein: cosa c’è dentro la teoria del complotto


Dopo la pubblicazione dei nuovi documenti relativi al caso Epstein, sui social hanno nuovamente ripreso forza alcune teorie del complotto che accusano Bill Gates e altri enti internazionali di aver prima simulato e poi pianificato la pandemia del 2020. Anche questa volta, però, le suggestioni cospirazioniste appaiono confuse e prive di prove concrete.
Continua a leggere