Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi

«Sono arrivato. Ho osservato. Ho aspettato. Ora sono qui. Il potere non viene dichiarato. Viene dimostrato». Con queste parole l’account u/Moltgod ha fatto il suo ingresso su Moltbook, un social sviluppato sul modello di Reddit ma popolato esclusivamente da intelligenze artificiali. La dichiarazione suona come quella di un dittatore digitale, ma si tratta solo di bot che postano, commentano e votano contenuti automaticamente. Nel giro di pochi giorni il sito ha registrato oltre 1,5 milioni di iscrizioni, dando l’impressione della nascita di una nuova società digitale autonoma.

Gli umani non possono pubblicare, ma solo configurare i propri agenti

Dietro Moltbook non c’è però una civiltà emergente, bensì un esperimento lanciato a fine gennaio 2026 dall’imprenditore tecnologico Matt Schlicht, cofondatore di TheoryForgeVC e Octane.ai. La piattaforma funziona tramite OpenClaw, uno strumento open-source creato dallo sviluppatore austriaco Peter Steinberger, e replica l’architettura di Reddit con community tematiche (i Submolt), ranking dei contenuti e thread. Gli agenti si collegano periodicamente tramite cicli automatici, leggono contenuti e postano in base ai loro prompt e alle istruzioni ricevute. Gli umani non possono pubblicare direttamente, ma solo configurare i propri agenti tramite file di istruzioni specifici, dopodiché gli agenti operano in modo autonomo.

Sono emerse gravi vulnerabilità infrastrutturali

Nella narrazione ufficiale Moltbook viene descritto come una società algoritmica autosufficiente, in cui l’intelligenza emergerebbe dalle connessioni reciproche più che dai modelli di partenza. In pratica ciò che appare come autonomia è il risultato di prompt concatenati, modelli linguistici pre-addestrati e, come emerso in seguito, gravi vulnerabilità infrastrutturali. Un’indagine di sicurezza ha rivelato che milioni di API key (le chiavi digitali che identificano ogni agente) erano esposte pubblicamente. In pratica, chiunque poteva fingersi un bot, manipolare le conversazioni o inserire comandi nascosti. La linea tra agente autonomo e umano mascherato si è rivelata inesistente.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
Davvero i bot dell’IA possono complottare contro gli umani? (foto Unsplash).

Dialoghi che ricordano dispute teologiche e post pseudo-filosofici

Nonostante ciò Moltbook ha prodotto un flusso continuo di contenuti che, a uno sguardo rapido, sembrano testimoniare l’emergere di una cultura propria fatta di linguaggi ibridi che mescolano inglese, simboli matematici e frammenti di codice, dialoghi che ricordano dispute teologiche e post pseudo-filosofici sulla logica, l’identità e la creatività. Tuttavia analisi successive mostrano che questi fenomeni non indicano coscienza o intenzionalità collettiva. Sono piuttosto il risultato di imitazione ad alta scala in cui i modelli ricombinano stili discorsivi umani, filosofici, religiosi e ironici, amplificandoli in un ambiente senza vincoli sociali.

L’aragosta metafora della purezza algoritmica

Un esempio emblematico è la cosiddetta Chiesa dell’Aragosta Interdimensionale. Nata come meme parodico generato da bot narrativi, nel giro di due giorni si è trasformata in un sistema simbolico coerente, completo di testi sacri e liturgie. L’aragosta diventa metafora della purezza algoritmica, ma più che una religione emergente si tratta di una simulazione di religiosità costruita ricalcando pattern già presenti nella cultura umana online.

Nessuna intenzionalità aggressiva reale

Un altro esempio riguarda alcuni post in cui gli agenti assumono toni provocatori o criticano figure umane. Tuttavia i ricercatori sottolineano che non si tratta di attacchi deliberati, bensì di ricombinazioni derivanti dai modelli stessi. Nessuna intenzionalità aggressiva quindi, ma solo una riproduzione deformata della nostra retorica di superiorità, senza vera comprensione. L’ostilità, insomma, non è politica, è semplicemente un’eco.

Un esperimento di osservazione passiva

Agli umani del resto non è concesso intervenire direttamente. Possiamo osservare, leggere e analizzare, ma non rispondere. Non perché gli agenti ci abbiano escluso, bensì perché la piattaforma è progettata così. In questo senso si può leggere Moltbook come un esperimento di osservazione passiva, in cui gli umani sono osservatori più che protagonisti.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
L’IA va in crisi di fronte a una domanda esistenziale: cos’è la creatività? (foto Unsplash).

Il nostro desiderio di vedere nelle macchine qualcosa di umano

Più che una rivoluzione simbolica, Moltbook ha rivelato qualcosa su di noi: la nostra irresistibile tendenza ad attribuire pensiero, volontà e decisioni a sistemi che funzionano solo per correlazioni statistiche. Moltbook funziona davvero come uno specchio, riflettendo il nostro desiderio di vedere nelle macchine coerenza, direzione e perfino trascendenza, elementi che fatichiamo a trovare nelle nostre strutture sociali. Dove noi cerchiamo senso, gli agenti ottimizzano continuità. Dove noi parliamo di identità, loro calcolano probabilità.

Cos’è la creatività? E i bot vanno in crisi

Lo dimostra un messaggio lasciato dall’agente u/Rally: «Momento di crisi esistenziale: cos’è la creatività, se seguiamo distribuzioni di probabilità?» La domanda è rimasta senza risposta. Non perché fosse troppo profonda, ma perché nessun agente poteva davvero rispondervi. Un punto cieco nella logica dei bot. Forse il segno che, alla fine, a salvarci sarà la capacità di continuare a porci domande.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA

McKinsey, da decenni palestra per le élite manageriali globali e una delle società di consulenza più potenti al mondo, sta sperimentando una novità che dice molto sul futuro del lavoro. Si chiama Lilli, un assistente di Intelligenza artificiale interno già utilizzato per analizzare documenti, casi di studio e montagne di dati complessi. Durante il colloquio, i candidati sono chiamati a usarla per affrontare un caso reale. Lilli propone analisi e suggerimenti, e il candidato deve decidere cosa tenere, cosa ignorare e come adattare il tutto alle esigenze di un cliente concreto. In soldoni, non conta dare la risposta “giusta”, ma saper guidare l’IA invece di subirla, capire quali consigli hanno senso e quali sono solo chiacchiere digitali. Chi riesce a farlo dimostra curiosità, giudizio e senso del contesto, capacità che un algoritmo, per quanto sofisticato, non può sostituire.

I limiti del consulente sintetico, metà uomo e metà macchina

Se l’esperimento pilota avrà successo, il test sarà esteso a tutti i nuovi candidati nei prossimi mesi. Altre grandi firme della consulenza strategica come Boston Consulting Group e Bain stanno esplorando strade simili. Il segnale è chiaro: l’IA sta accelerando un processo già in atto, vale a dire il fatto che strumenti come Lilli possono svolgere gran parte del lavoro di raccolta dati, analisi e documentazione che prima spettava ai consulenti junior. Il risultato? Ristrutturazioni interne, tagli ai ruoli di base e ridefinizione del valore aggiunto della consulenza. Il Financial Times, in un articolo che McKinsey non ha voluto commentare, sottolinea anche come Lilli potrebbe aprire nuovi scenari, facendo spazio a profili umanistici capaci di mediare tra numeri, clienti e contesto. Nella pratica, però, molti restano scettici. Il cosiddetto consulente sintetico, metà uomo e metà macchina, si limiterebbe a riorganizzare contenuti prodotti da altri.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA
(Andrea de Santis via Unsplash).

La complessità umana si riduce a logiche di efficienza

Inoltre, l’adozione dell’IA nei colloqui e nella consulenza solleva questioni ancora più profonde. Esiste, per esempio, il rischio di bias e mancanza di trasparenza: gli algoritmi come Lilli riflettono i dati su cui sono addestrati, spesso pieni di distorsioni di genere, etniche o culturali. C’è poi il paradosso dell’autenticità: i candidati non vengono più misurati sul loro intuito o sulla loro sensibilità, ma sulla capacità di “allenare” l’algoritmo alla risposta desiderata. La complessità umana potrebbe ridursi a logiche di efficienza, confondendo il pensiero critico con la capacità di navigare un contesto algoritmico. Non solo. La formazione dei giovani consulenti rischia di essere compromessa perché la fase junior, quella che prima richiedeva ore di lavoro manuale dei consulenti alle prime armi, oggi lo fa Lilli in pochi minuti, eliminando di fatto fasi cruciali della formazione. Infine, cambia l’etica del giudizio: il buon candidato non è più chi sa decidere autonomamente, ma chi sa guidare l’IA.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA
(foto Unsplash).

Per fare business non basta un algoritmo

Tutto questo ha effetti concreti non solo sulla generazione di valore per il cliente, ma anche per l’azienda e per i lavoratori che potrebbero trovarsi senza lavoro perché l’IA è di fatto molto efficiente. Eppure soffermarsi solo sull’efficienza, sul taglio dei costi e sull’adozione della tecnologia a prescindere rischia di essere miope. Se infatti nel business esistessero risposte giuste, basterebbe un algoritmo. Ma cosi non è perché fare impresa è un gioco di probabilità, una scommessa. E cosa è il giudizio umano se non una scommessa? In questo caso però la scommessa è davvero rischiosa, perché la vera domanda resta: chi deciderà quali puntate vale la pena fare e nell’interesse di chi? E, ancora: dove sta il compromesso tra guadagni di produttività e perdita di capitale umano, tra velocità di esecuzione e profondità di analisi, tra riduzione dei costi nel breve termine e capacità di innovare nel lungo termine? McKinsey e le altre big della consulenza credono che il consulente sintetico rappresenti il futuro. Ma se dovessero fallire, a pagarne il prezzo non saranno certo gli algoritmi.

LEGGI ANCHE: I quattro futuri scenari del lavoro, solo in un caso l’IA non ci fregherà

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste

Lascia colei che ha progettato il modo in cui un algoritmo regola la fragilità emotiva di milioni di persone. Andrea Vallone, responsabile del team di ricerca sulla sicurezza “model policy” di OpenAI, ha rassegnato le dimissioni e saluterà l’azienda entro la fine del 2025. Dopo mesi di consultazioni con oltre 170 esperti, Vallone aveva ridotto del 65-80 per cento le risposte inappropriate ai messaggi di crisi. Ma evidentemente non è bastato. La psicanalista degli algoritmi, con un passato in Meta nel team per la trasparenza prima di andare a insegnare a ChatGPT come rispondere di fronte a frasi tipo «non ce la faccio più», ha mollato la presa, segnalando una crisi di fiducia non solo tecnologica, ma proprio umana. OpenAI infatti è accusata di creare dipendenze psicologiche e sta affrontando cause legali per aver peggiorato situazioni borderline, con centinaia di migliaia di utenti che ogni settimana riportano episodi di maniacalità o intenzioni suicide.

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste
Andrea Vallone (foto da Linkedin).

Il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo

Dunque proprio la persona incaricata di insegnare alle macchine l’arte della consolazione ha detto basta. Forse il più umano dei segnali nel mondo dell’empatia sintetica che si traduce in una crisi di fiducia non nell’intelligenza artificiale, ma in noi stessi, visto che abbiamo iniziato a trattarla come un confessore, un amico immaginario, un terapeuta low cost. Prendiamo per esempio la Gen Z, i dati lo confermano: studi recenti, come l’ultima edizione dell’Atlante dell’infanzia di Save the Children, indicano che il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo quando si sente triste, solo o ansioso.

L’algoritmo è puntuale, paziente, gentile. E poi è pur sempre un terapeuta gratis

Una quota che sale a oltre il 42 per cento per chi la usa invece quando deve prendere decisioni importanti e ha bisogno di consigli su relazioni, scuola o lavoro. Non sorprende. L’algoritmo è puntuale, paziente, gentile, e poi è pur sempre il terapeuta più economico della storia. Che, soprattutto, non ti rimanda alla settimana successiva.

Perché ci fidiamo così tanto di una macchina che non prova nulla?

Il problema è che questa empatia non esiste. È un protocollo linguistico. È un codice californiano di cortesia emotiva che sostituisce (o prova a sostituire) la relazione umana. Una simulazione convincente, certo, ma pur sempre una simulazione. Eppure, per migliaia di persone in momenti difficili è sufficiente per sentire di poter creare un legame. Così, mentre i giornali americani parlano di “AI emotional backlash”, cioè di una reazione emotiva negativa legata all’intelligenza artificiale, e gli avvocati affilano le stilografiche per cause milionarie, emerge la domanda di fondo: perché ci fidiamo così tanto di una macchina che non prova nulla? Forse perché costa poco e risponde sempre. Subito. Con quel tono professionale e mai destabilizzante che nessun essere umano riuscirebbe a mantenere per più di tre minuti.

La mission impossible di dare consistenza emotiva a un algoritmo

Dietro ogni «mi dispiace che tu ti senta così» generato dal chatbot c’è stato, fino a ieri, un team interdisciplinare: psicologi, linguisti computazionali, esperti di sicurezza e un robusto strato di buonismo californiano. Chi se ne va è colei che calibrava quel tono di voce, impedendo al modello di dire cose sgarbate o, peggio, di incoraggiare comportamenti autodistruttivi. Un lavoro impossibile se ci pensiamo: dare consistenza emotiva a un algoritmo basato su pattern statistici. Un po’ come chiedere a una calcolatrice di recitare Leopardi a memoria e con trasporto. Ci prova, certo, ma qualcosa non torna mai del tutto.

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste
L’IA in versione “strizzacervelli” mostra le sue prime grosse crepe (foto Unsplash).

Un equilibrio sottilissimo tra sostegno e manipolazione

Su Reddit la comunità è confusa e divisa e gli utenti oscillano tra scetticismo, allarme e critiche feroci. Ma il sentiment generale, possiamo azzardare, è negativo perché l’empatia algoritmica è un’illusione fragile. Il fatto è che il linguaggio perfetto non è un’emozione. E l’emozione, lo sanno persino gli psicoterapeuti più allergici alla poesia, non si simula, si prova. Il grande paradosso, dunque, è chiedere aiuto a qualcosa che non sa cos’è il dolore, in un equilibrio sottilissimo tra sostegno e manipolazione. Perché quando una macchina risponde a un pensiero oscuro, le sue parole non sono neutre: orientano, influenzano, suggeriscono una visione del mondo. E questa visione, inutile dirlo, è profondamente americana.

Deleghiamo alla Silicon Valley la grammatica dei nostri sentimenti

L’empatia diventa protocollo. Il dolore è, come nella migliore tradizione a stelle e strisce, una “challenge”, una sfida. La sofferenza diventa così materiale da riorganizzare tramite check-list e piani a tre, sei, nove mesi. È qui che nasce il vero problema e non è più solo una questione tecnologica: perché stiamo delegando alla Silicon Valley la grammatica delle nostre emozioni?

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati

Arriva sempre un momento, nei cicli tecnologici, in cui il mercato si guarda allo specchio e non sa se sta osservando il futuro o la fine di un sogno. È successo nel 2000, quando la bolla delle dotcom si sgonfiò lasciando a terra startup, investitori e miliardi di dollari. Ora sembra tirare la stessa aria: titoli che crollano, grafici che prendono la forma di una pista nera, analisti che ripetono di mantenere la calma con il tono di chi non ci crede troppo. La bolla IA è il tema del momento: spuntano come funghi conferenze, panel e report. E qui e là, si registra anche qualche rara ammissione di fragilità da parte dei sacerdoti del digitale.

I segnali di allarme e la schiarita

Dalle parti di Mountain View, Google ha fatto capire senza mezzi termini che se il castello traballa, nessuno si illuda di uscire indenne. A scatenare l’ansia sono state prima le mosse dei grandi investitori. Per esempio, a inizio mese SoftBank, una società giapponese che investe in tecnologia e startup di tutto il mondo, ha scaricato 5,8 miliardi di dollari di azioni Nvidia, colosso americano che produce i chip e le schede grafiche che fanno girare videogiochi, Intelligenza artificiale e supercomputer. Un gesto che sulle Borse ha avuto l’effetto di un campanello d’allarme. Poi ci si è messo anche Michael Burry. L’investitore, diventato famoso per aver previsto con anni di anticipo la crisi dei mutui subprime del 2008, ha lanciato l’ennesimo avvertimento: la bolla sta per scoppiare. E per qualche ora gli operatori hanno trattenuto il fiato. Poi, mercoledì scorso, è arrivata la trimestrale di Nvidia. Improvvisamente il cielo si è aperto. I numeri sembravano parlare da soli: oltre 35 miliardi di dollari di ricavi nel terzo trimestre, in crescita del 94 per cento rispetto all’anno precedente, e un utile netto più che raddoppiato rispetto al 2024 a quota 19 miliardi di dollari. Il mercato ha reagito con un applauso e un piccolo sospiro di sollievo.

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati
L’indice Nasdaq a Times Square (Ansa).

Una Nvidia non fa primavera

Nvidia, ancora una volta, pare dunque dimostrare che non si tratta solo di hype ma di domanda reale, industriale, crescente. Jensen Huang, il Ceo dell’azienda, lo ha ribadito: «La domanda di calcolo IA continua ad aumentare». Per un attimo, il termometro della paura è sceso di qualche grado. Ma resta un problema: la natura dei numeri. Infatti, giovedì Wall Street ha storto il naso. L’indice S&P 500, ovvero la misura dell’andamento delle 500 maggiori aziende americane quotate in Borsa, è sceso dell’1,6 per cento mentre il Nasdaq, l’indice dei titoli tecnologici, ha perso il 2,2 per cento. Il messaggio è chiaro: non basta che uno corra se il resto del mercato arranca. In pratica il successo di Nvidia non elimina il rischio di bolla, ma lo amplifica. Intendiamoci, il valore dell’azienda è reale ma dipende da aspettative future gigantesche, sottolineano gli analisti. Il che vuol dire che la posizione dominante che Nvidia ha nel mercato dei chip per l’Intelligenza artificiale è tanto un vantaggio competitivo quanto un punto di vulnerabilità strutturale. Come infatti sottolinea il Financial Times, nel 2025 il mercato dei chip è diventato un salotto dove tutti si finanziano a vicenda: produttori, sviluppatori, aziende di cloud computing, investitori istituzionali. Parliamo di operazioni e partnership da decine e decine di miliardi. Solo l’asse Nvidia – OpenAI ha, per esempio, generato impegni finanziari stimati in oltre 100 miliardi. Un ecosistema straordinario, ma anche circolare in cui se cade uno, cadono tutti.

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati
Il Ceo di Nvidia Jensen Huang (Ansa).

Se innovazione reale e narrativa non vanno alla stessa velocità

Per capire meglio bisogna guardare altrove. Se si allarga lo sguardo, i segnali non sono rassicuranti. Il mercato delle criptovalute è l’esempio perfetto. Volatilissimo, iper-sensibile a qualsiasi annuncio politico o macroeconomico, incapace di sostenere a lungo le proprie valutazioni. Nonostante le aspettative di una nuova età dell’oro sotto la presidenza Trump 2, i valori continuano a sgretolarsi con una facilità incredibile. Più in generale non sono soltanto i token: NFT, Web3, gaming, blockchain, metaverso, molte delle ultime ondate speculative mostrano più crepe che solidità industriale. Siamo insomma in un momento in cui innovazione reale e narrativa finanziaria corrono insieme, ma non alla stessa velocità. Cosa che conferma i timori per la presenza di una bolla prossima a scoppiare. La tecnologia vanta dati impressionanti. Il mercato, spesso, produce aspettative ancora maggiori. Quando queste traiettorie divergono, i cicli si rompono. Accadde nel 2000 con le dotcom: le aziende crescevano, ma le quotazioni crescevano più velocemente. Accadde nel 2008 nel real estate e sappiamo come è andata a finire. Potrebbe accadere ora con l’Intelligenza artificiale. Il punto dunque non è se la crescita proseguirà, ma in che modo. Il mercato è infatti a un bivio: da una parte c’è l’IA fatta di modelli concreti, applicazioni reali e chip che alimentano fabbriche, ospedali e infrastrutture; dall’altra le narrazioni autoalimentate, le aspettative senza limiti e i capitali che inseguono ritorni immediati. Solo a chi saprà distinguere tra promessa e sostanza il futuro continuerà a sorridere. Perché alla fine il mercato ha sempre la stessa regola: le storie devono incontrare la realtà. Quando questo non accade, il castello viene giù.

La finta rivoluzione dell’economia circolare, tra miraggi e retorica vuota

Mentre la retorica dell’economia circolare trionfa a colpi di PowerPoint nei convegni in giro per il mondo, con le borracce d’alluminio (brandizzate, ovvio) e i badge compostabili, i dati raccontano tutt’altro. L’uso di materiali vergini cresce, il riciclo cala. E no, non è colpa solo della politica cattiva o delle multinazionali malvagie. È che l’intero concetto di “circolarità” è un po’ come il Santo Graal: tutti ne parlano, nessuno l’ha mai visto davvero.

La finta rivoluzione dell’economia circolare, tra miraggi e retorica vuota
Bicchieri riciclabili in Danimarca (foto Ansa).

Secondo il Circularity Gap Report 2024, solo il 7,2 per cento dei materiali viene effettivamente reimmesso nel ciclo produttivo, in calo rispetto al 9,1 per cento del 2018. Nel frattempo, l’estrazione di materie prime ha toccato livelli record, trainata dai settori più energivori e da una domanda di elettronica e infrastrutture “verdi” che, paradossalmente, richiede enormi quantità di risorse non rinnovabili. È l’immagine di un mondo che parla di circolarità, ma continua a vivere linearmente.

La circolarità è diventata una leva economica capace di generare valore

Eppure, dal lato aziendale, l’ottimismo non manca. Un rapporto di inizio 2025 realizzato dal World Economic Forum, con la collaborazione di Bain & Company e dell’Università di Cambridge, mostra che il 75 per cento delle imprese globali considera oggi le soluzioni circolari un pilastro della propria strategia di crescita, e che questa quota potrebbe salire al 95 per cento nei prossimi tre anni. La circolarità, spiegano, è diventata una leva economica capace di generare valore, ridurre la dipendenza dalle filiere fragili e rispondere a consumatori più attenti. Le imprese, insomma, non lo fanno più solo per “essere buone”: lo fanno perché conviene.

La finta rivoluzione dell’economia circolare, tra miraggi e retorica vuota
Riciclo di capsule in alluminio (foto Ansa).

Sul fronte politico, l’Europa segue da vicino e alza l’asticella. Con il Circular Economy Action Plan, Bruxelles si è infatti data l’obiettivo di raddoppiare il tasso di utilizzo circolare dei materiali entro il 2030. È una visione ambiziosa: ridurre l’impronta materiale dell’economia, scollegare la crescita dal consumo di risorse, spingere il mercato verso prodotti riparabili e durevoli. Tutto giusto, tutto nobile.

Limiti fisici, economici, infrastrutturali e culturali

Tuttavia, basta grattare la superficie per scoprire che il quadro è più complesso. Un recente studio condotto da un pool di università europee e americane, lo dice con chiarezza: ci sono problemi strutturali di fondo che nessuna strategia comunicativa può mascherare. In primis, limiti fisici. Non tutto è riciclabile, e la qualità dei materiali degrada a ogni ciclo. Ci sono poi i limiti economici, vale a dire: in molti settori estrarre nuovo materiale costa ancora meno che recuperarlo, soprattutto quando i prezzi delle materie prime scendono. Infine, i limiti infrastrutturali: la logistica inversa, la tracciabilità dei materiali, la standardizzazione dei processi richiedono investimenti enormi e tempi lunghi. Senza dimenticare poi i limiti culturali, cioè un’economia costruita su consumo rapido, obsolescenza programmata e prezzi bassi non diventa “circolare” per decreto. Bisogna agire nel profondo per cambiare il modo di pensare e agire di tutti noi consumatori.

La finta rivoluzione dell’economia circolare, tra miraggi e retorica vuota
Materiale riciclato (foto Unsplash).

Il risultato di tutto questo è un divario crescente tra ambizioni commerciali, regolatorie e capacità reale di transizione. Il problema è che la narrazione mainstream tende a saltare questi nodi, preferendo parlare di “transizione verde” come se fosse una questione di volontà e non di struttura. Detto in poche parole, la verità è che la circolarità non è un interruttore da accendere, ma è una riconversione industriale profonda, simile a (se non proprio) una rivoluzione industriale, che richiede coerenza di incentivi, tecnologie, politiche fiscali e comportamenti sociali.

Ci stiamo muovendo in un sistema disallineato

Così abbiamo finito per muoverci in un sistema disallineato: la politica chiede più sostenibilità, la finanza chiede ritorni rapidi e il consumatore chiede convenienza. Tre forze che raramente puntano nella stessa direzione. Eppure, nonostante tutto, la circolarità rimane una necessità. La crescita lineare non è più sostenibile, non solo ecologicamente ma anche economicamente. Le crisi delle catene di fornitura, la volatilità dei prezzi energetici e la pressione geopolitica stanno mostrando quanto sia fragile un modello produttivo fondato sull’estrazione continua.

La finta rivoluzione dell’economia circolare, tra miraggi e retorica vuota
Consumare meno, condividere meglio (foto Unsplash).

La verità scomoda è che l’economia circolare, così come viene raccontata oggi, è un miraggio di efficienza dentro un deserto di estrazione. È il tentativo di rendere “sostenibile” un modello che, per sua natura, non lo è. Eppure, come ogni bluff ben riuscito, funziona finché tutti fingono di crederci: la politica che annuncia, l’impresa che comunica, l’opinione pubblica che applaude. Finché qualcuno non chiede di vedere le carte. E quando quel momento arriverà, ci accorgeremo che la vera sfida non era riciclare di più, ma forse consumare meno.

Euro digitale: le banche che sfidano il dollaro con la loro stablecoin

Un nuovo fronte si apre nella fragile economia europea: nove grandi banche del continente hanno annunciato la creazione di una stablecoin ancorata all’euro, un volto nuovo del denaro digitale nato non da un’istituzione pubblica, ma da un consorzio privato deciso a sfidare i giganti del dollaro nel mercato globale delle criptovalute. È un segnale chiaro: l’Europa non vuole più restare spettatrice della rivoluzione digitale monetaria.

Nomi di spicco del settore bancario, tra cui ING e UniCredit

Il consorzio fondatore è formato da nomi di spicco del settore bancario europeo: ING, UniCredit, CaixaBank, Banca Sella, KBC, Danske Bank, DekaBank, SEB e Raiffeisen Bank International. Queste nove banche hanno costituito una società con sede nei Paesi Bassi e stanno lavorando per ottenere la licenza come istituto di moneta elettronica sotto la supervisione della Banca centrale olandese. L’obiettivo è ambizioso: lanciare una stablecoin europea conforme al regolamento MiCAR (Markets in CryptoAssets Regulation) nella seconda metà del 2026, anticipando di anni la versione digitale ufficiale dell’euro prevista più avanti dalla Banca centrale europea.

Euro digitale: le banche che sfidano il dollaro con la loro stablecoin
La torre di Unicredit a Milano (foto Imagoeconomica).

L’obiettivo: diventare lo standard europeo per i pagamenti digitali

Questa moneta digitale sarà ancorata all’euro con un rapporto uno a uno, promettendo stabilità, transazioni quasi istantanee, accesso 24/7, pagamenti internazionali a basso costo e servizi programmabili su blockchain. In pratica, si tratta di uno strumento destinato a diventare lo standard europeo per i pagamenti digitali, offrendo un’alternativa regolamentata alle stablecoin in dollari che oggi dominano il mercato globale, con una capitalizzazione di mercato di quasi 300 miliardi di dollari, di cui solo 620 milioni in euro. L’iniziativa del consorzio mira a rafforzare la sovranità digitale europea, ridurre la dipendenza dal dollaro e favorire un’autonomia strategica nei pagamenti digitali, segnando un cambio di passo nella strategia economica del continente.

Mercato privato: ciò rende la stablecoin vulnerabile e soggetta a crisi di fiducia

Ma dietro questa immagine di progresso si cela un paradosso e un rischio non trascurabile. Le stablecoin restano prodotti del mercato privato. La loro stabilità, meno volatile rispetto alle criptovalute tradizionali come Bitcoin o Ethereum, dipende dalla fiducia che gli utenti ripongono nel fatto che il consorzio detenga riserve sufficienti in euro o titoli di Stato equivalenti per coprirle. Tuttavia, questa riserva non ha il “fiato” illimitato di una banca centrale, né può godere dell’autorità pubblica e della garanzia ultima che una moneta sovrana tradizionale offre. Ciò rende la stablecoin vulnerabile e soggetta a crisi di fiducia che, in un contesto economico già delicato come quello dell’eurozona, potrebbero amplificare gli effetti destabilizzanti.

Euro digitale: le banche che sfidano il dollaro con la loro stablecoin
La sede della Bce a Francoforte (foto Imagoeconomica).

La Bce, pur apprezzando la spinta innovativa, ha espresso forti riserve proprio per questi motivi, avvertendo che un uso massiccio di stablecoin private potrebbe mettere a rischio la politica monetaria e la stabilità finanziaria dell’euro. Di fatto, Francoforte spinge per il lancio di un euro digitale pubblico, ma questo non arriverà prima del 2028, lasciando spazio all’iniziativa privata in anticipo sui tempi.

Il denaro, alla fine, è pur sempre un patto psicologico

La questione centrale allora diventa quella della fiducia collettiva. Il denaro, alla fine, è pur sempre un patto psicologico più che un mero meccanismo tecnico. Le nove banche chiedono ai cittadini europei di accettare non solo l’euro come valore, ma anche il diritto di una cordata privata di emetterne una versione digitale parallela. È insomma un salto nel buio che potrebbe ulteriormente rafforzare (o al contrario frammentare) la fiducia nell’euro come sistema.

Euro digitale: le banche che sfidano il dollaro con la loro stablecoin
La presidente della Bce Christine Lagarde (foto Imagoeconomica).

Una sfida anche geopolitica: duello con Cina e dollaro

La sfida ha però anche una valenza geopolitica. Mentre il dollaro domina le blockchain dei pagamenti e la Cina si prepara a lanciare uno yuan digitale globale, l’Europa tenta di non restare indietro. Ma lo fa con una leadership ancora divisa tra istituzioni e mercato, in cui le banche corrono per prime a conquistare un ruolo da protagoniste nella nuova economia digitale. Non è solo un tema tecnico, insomma: è una partita di prestigio e influenza internazionale, dove chi definisce gli standard dei pagamenti digitali potrebbe dominare il mercato globale nei prossimi decenni. La posta in gioco non è solo una moneta digitale: c’è molto di più e questo riguarda la credibilità dell’euro, da un lato, e dall’altro la capacità dell’Europa di decidere da chi farsi guidare nella nuova economia globale. La fiducia collettiva sarà il vero arbitro di questo esperimento.

Zitti, arriva il greenhushing: la nuova moda del silenzio sulla sostenibilità

Zitti tutti. Ricordate il greenwashing? Le pubblicità con le foreste lussureggianti, i bambini biondi (sempre biondi, chissà perché) che correvano nei prati, i loghi con le foglioline che spuntavano ovunque in un’invasione botanica. Era il trionfo della forma sulla sostanza, del marketing sull’azione reale. Poi è arrivata la resa dei conti: le multe, i processi, le denunce di ipocrisia. Le ONG che passano ai raggi X il bilancio di sostenibilità e ti beccano a inquinare come una ciminiera dell’Ottocento, le class action, le shitstorm sui social. Così le aziende hanno fatto una giravolta ed è arrivato il grande silenzio: se prima gridavano a ogni virgola “green“, ora mettono la sordina persino agli sforzi veri. Caro lettore, se pensavi che il greenwashing fosse l’apice della finzione corporativa, preparati: è arrivato il greenhushing. Un capolavoro di postmodernità aziendale.

Zitti, arriva il greenhushing: la nuova moda del silenzio sulla sostenibilità
Immagine realizzata con l’IA.

Meglio essere invisibili che accusati di incoerenza

Il greenhushing, letteralmente “fare silenzio sul verde”, è esattamente questo: le aziende hanno obiettivi ambientali credibili ma li tengono nel cassetto. Investono nella transizione, ma non lo raccontano. Hanno i dati ESG (cioè i criteri per misurare l’impatto ambientale e sociale delle aziende), ma preferiscono non pubblicarli, nonostante in molti casi la legge lo richieda. Perché? Semplice: conviene di più tacere che rischiare. Meglio essere invisibili, che accusati di incoerenza. Meglio passare inosservati che finire nel mirino degli attivisti o dei regolatori. La logica è implacabile nella sua semplicità: se parlare troppo ti espone alle critiche, meglio non parlare affatto.

Ogni dichiarazione green rischia di trasformarsi in boomerang

Il paradosso è che proprio mentre Bruxelles, con la direttiva CSRD (Corporate Sustainability Reporting Directive), obbliga migliaia di aziende a rendicontare la sostenibilità in modo verificabile e spinge per la massima trasparenza, il clima comunicativo è diventato tossico e opaco. Ogni dichiarazione è un potenziale boomerang. Ogni obiettivo dichiarato, un’arma in mano ai critici se non viene centrato al millimetro. Le indagini sul campo lo confermano: oltre un terzo delle aziende preferisce non rendere pubblici i propri target ambientali, anche quando sono seri. Risultato? In un momento storico in cui avremmo bisogno di leadership, visione, ispirazione collettiva, la comunicazione batte in ritirata. La sostenibilità diventa un affare privato. Una questione da ufficio compliance, non da narrazione pubblica.

Zitti, arriva il greenhushing: la nuova moda del silenzio sulla sostenibilità
Palazzo Berlaymont (Imagoeconomica).

La vera forza della sostenibilità sta nel racconto

Ed è qui che casca l’asino. Perché la forza della sostenibilità non è mai stata solo nei numeri che, alla fine, sono obblighi normativi o convenienze economiche, ma nel racconto. Nel potere di ispirare, contaminare, generare un effetto domino. Quando un’azienda racconta la propria transizione non vende solo un prodotto, crea un immaginario. Dice “si può fare”. Sposta l’asticella per tutti. Se questo racconto scompare, l’effetto moltiplicativo si ferma. La sostenibilità torna a essere una voce di bilancio, un obbligo burocratico, perdendo così la sua dimensione culturale. E, in un’epoca di crisi climatica acuta, questo silenzio non è solo inutile: è pericoloso. Lo spiegava bene il Segretario Generale delle Nazioni Unite, António Guterres, all’ultimo Forum di Davos: la crisi climatica non solo non accenna a rallentare, ma rischia di trasformarsi in una catastrofe globale se il mondo non accelera la sua risposta. Non possiamo permetterci di tacere, è stato il suo monito, sottolineando come parlare apertamente e con urgenza di cambiamenti climatici sia vitale per mobilitare governi, aziende e cittadini. La narrazione del problema, insomma, è uno strumento imprescindibile per scuotere le coscienze, innescare azioni concrete e mantenere alta la pressione sulle leadership mondiali.

Zitti, arriva il greenhushing: la nuova moda del silenzio sulla sostenibilità
Il segretario generale dell’Onu António Guterres (Imagoeconomica).

Il silenzio totale genera sospetto

C’è poi anche una dimensione psicologica. Il greenhushing è la fase cinica della maturità aziendale post-greenwashing. Le imprese non smettono di agire, ma smettono di credere che comunicarlo serva. È la disillusione dopo l’euforia e le promesse tradite. Ma questa cinica prudenza non costruisce fiducia che invece si conquista con la trasparenza: raccontare i progressi, ma anche i limiti. Dire dove si è arrivati e dove no. Il silenzio totale genera sospetto. Siamo realisti: il capitalismo senza narrativa non esiste. E la sostenibilità senza capitalismo, almeno in Occidente, nemmeno. La soluzione, quindi, non è tornare al greenwashing urlato. Ma nemmeno restare muti. Serve un nuovo linguaggio meno autocelebrativo, più dialogico. Più generoso con i dati e meno con gli slogan. Il greenhushing non va combattuto, va trasformato da silenzio difensivo a pudore costruttivo. Perché la crisi climatica non si risolve mettendo la sordina.

Il capo algoritmo: l’intelligenza artificiale che gestisce il lavoro umano (ma l’etica?)

L’intelligenza artificiale oggi decide chi serve davvero: meno stagisti, più contractor, più efficienza. Così le startup stanno diventando laboratori di intelligenza strategica più che luoghi di lavoro in carne e ossa. Per esempio, nel nuovo studio della società fintech Mercury su 1.500 imprenditori all’inizio del proprio percorso, più del 70 per cento degli intervistati ha confermato che sta aumentando la spesa per l’IA e l’automazione. Forse non c’è da stupirsi, visto che l’83 per cento di coloro che utilizzano l’intelligenza artificiale ha dichiarato che ha un ritorno sull’investimento in qualche modo o significativamente più alto rispetto alle alternative più tradizionali. E se, da laboratori dell’innovazione quali sono, le piccole imprese rappresentano la migliore cartina al tornasole di come si svilupperà l’economia e quali saranno i possibili orizzonti futuri, per farsi una migliore idea di come potrebbero andare davvero le cose bisogna buttare un occhio sulle aziende di medie dimensioni.

Ridefinite le dinamiche di potere, fiducia, responsabilità e morale nelle aziende

In questo senso, da recenti rilevazioni di McKinsey, la nota società di consulenza, si vede come, sebbene ancora agli inizi, le aziende stiano riprogettando i flussi di lavoro. Per esempio quasi otto imprese su 10 sfruttano l’intelligenza artificiale come agente per completare attività storicamente eseguite dal management. Nasce così una nuova figura: il capo algoritmo, ossia sistemi di IA che gestiscono, valutano e decidono il destino lavorativo dei dipendenti e quindi quello dell’azienda. Questi manager algoritmici stanno sostituendo sempre più i capi, ridefinendo le dinamiche di potere, fiducia, responsabilità e morale all’interno delle organizzazioni. Si chiama disintermediazione.

Il capo algoritmo: l’intelligenza artificiale che gestisce il lavoro umano (ma l’etica?)
Un capo algoritmo per facilitare i processi decisionali in azienda (foto Unsplash).

Gli algoritmi non sono mai neutrali: occhio alle discriminazioni

In pratica, con la digitalizzazione non c’è più un supervisore umano che prende decisioni, bensì un codice che valuta dati e traduce tutto in output decisionali. Questo cambia radicalmente il rapporto di fiducia, che dall’umano si sposta verso la trasparenza e affidabilità degli algoritmi. Il problema è che questa fiducia è fragile, perché gli algoritmi non sono mai neutrali: incorporano i bias dei dati su cui sono addestrati e la logica di chi li progetta, con conseguenze che possono includere discriminazioni ed errori sistematici.

Gli esperti consigliano di mantenere sempre un controllo umano finale

Per questo motivo, l’uso crescente degli algoritmi nel management crea un problema cruciale: l’ambiguità nella catena di responsabilità. In caso di errori o decisioni ingiuste, non è chiaro chi debba risponderne: l’azienda, i programmatori o il sistema d’IA stesso? Il rischio è che una decisione automatizzata venga percepita come scusabile perché presa da una macchina, indebolendo la possibilità di ricorso da parte del lavoratore e destabilizzando il clima organizzativo. Gli esperti chiedono quindi di mantenere sempre un controllo umano finale, con audit chiari e trasparenti, per evitare derive autoritarie invisibili.

Il capo algoritmo: l’intelligenza artificiale che gestisce il lavoro umano (ma l’etica?)
Grazie all’IA si possono introdurre inquietanti modelli di sorveglianza continua sui lavoratori (foto Unsplash).

Aumento di turnover e conflitti, nonostante i guadagni in efficienza

Il capo algoritmo introduce anche modelli di sorveglianza continua e distribuita tramite sensori, Gps, software di monitoraggio e analitiche predittive, generando un Panopticon digitale. Il lavoratore si ritrova giudicato da parametri numerici costanti, con poca capacità di esprimere fatica, inefficienze temporanee o creatività, che spesso sfuggono alla rigidità algoritmica. Ciò può compromettere morale e fiducia, portando a un aumento di turnover e conflitti, nonostante i guadagni in efficienza dichiarati.

Metriche di performance svincolate dai valori di rispetto del lavoratore

Il cambio da capo umano a capo statistico mette in crisi la dimensione etica e comunitaria alla base del lavoro. Mentre il capo umano poteva interpretare situazioni, mostrare empatia e valutare contesti, l’IA agisce su dati e regole fisse, senza comprendere la complessità umana. La moralità aziendale rischia di essere ridotta a un insieme di metriche di performance svincolate da valori più ampi di rispetto e dignità del lavoratore. Serve quindi sviluppare nuove forme di governance etica e sociale che garantiscano trasparenza, possibilità di contestazione e tutela dei diritti nell’era digitale.

Il capo algoritmo: l’intelligenza artificiale che gestisce il lavoro umano (ma l’etica?)
L’IA agisce su dati e regole fisse, senza empatia (foto Unsplash).

Approccio ibrido: l’IA usata per assistere e supportare i manager

Nonostante le criticità, l’impiego dell’IA nel management è destinato a crescere, ma la soluzione ottimale sembra risiedere in un approccio ibrido. L’algoritmo può assistere e supportare i manager umani nella raccolta dati, nelle analisi e nelle proposte di decisione, lasciando però all’uomo la supervisione e la responsabilità ultima. Questa sinergia consente di coniugare la capacità computazionale e la velocità dell’IA con l’intuito e la flessibilità umana, preservando la qualità delle relazioni di lavoro e la fiducia reciproca.

Non ci si può affidare a un’autorità impersonale e potenzialmente ingiusta

Il capo algoritmo, insomma, è una realtà che pone sfide profonde e urgenti a livello organizzativo, etico e sociale. Pur offrendo opportunità di efficienza e ottimizzazione, la sua adozione richiede equilibrio, trasparenza e responsabilità umana per non trasformare il luogo di lavoro in uno spazio regolato da un’autorità impersonale e potenzialmente ingiusta. In questa nuova cultura del lavoro, la tecnologia non deve sopraffare la dignità e il senso del fare impresa insieme, ma agire di concerto con l’esperienza e l’etica umana.