Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori

Non è la macchina che ci spaventa. È quando sbaglia. Chi usa l’intelligenza artificiale ogni giorno non teme davvero di essere sostituito. Teme di essere tradito, di fidarsi quando non dovrebbe, credendo a una risposta solo perché suona plausibile. Ci sono naturalmente differenze geografiche. Nei Paesi occidentali l’IA suscita preoccupazioni, altrove viene vista soprattutto come un’opportunità. Ma non è solo questione di confini. È questione di fiducia e di come interpretiamo ciò che vediamo sullo schermo.

Le hallucination, cioè errori di fatto, logica o senso

Una ricerca di Anthropic, basata su quasi 81 mila interviste in 159 Stati, conferma una cosa semplice. L’ansia non è futuristica, è operativa. Circa un quarto degli intervistati indica come rischio principale le hallucination, cioè errori di fatto, logica o senso. Una quota che sale intorno a un terzo tra chi teme che l’IA ostacoli le decisioni in modo specifico. Il resto viene dopo. Circa uno su cinque indica le ricadute su lavoro e occupazione tra le principali preoccupazioni, altrettanti temono per la propria autonomia di giudizio, e solo uno su sei il rischio di perdere capacità di pensiero critico. Intendiamoci, non si tratta di una gerarchia definitiva, ma di un’indicazione.

Sequenza di risposte coerenti, ma progressivamente errate

Eppure un terzo degli intervistati afferma che l’intelligenza artificiale ha già migliorato il proprio lavoro. Più veloce, più ampio, più produttivo. È l’idea di potenziamento più che di sostituzione. Il confine però resta instabile e quasi uno su cinque sostiene che le promesse non sono state mantenute. L’IA aiuta, ma non sempre, e soprattutto può convincere anche quando sbaglia. Un intervistato parla di «un’allucinazione lenta», una sequenza di risposte coerenti, sicure, ma progressivamente errate. Non un errore evidente, ma un errore che si costruisce nel tempo.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
Intelligenza artificiale che sbaglia (foto creata con Grok).

I due scenari per un finale comunque catastrofico

Non è che prima fosse tutto limpido, sia ben chiaro. Come ci ricorda qualcuno online, «anche le persone allucinano, per ignoranza, incompetenza o intenzione. L’IA aggiunge solo un altro strato». Mentre un altro la butta sul catastrofico: «O l’IA smette di sbagliare e allora milioni perderanno il lavoro, la politica diventerà estrema e il sangue potrebbe scorrere. O non può migliorare e allora distruggiamo migliaia di miliardi di dollari di capitale. Disastro in ogni caso». Che è una tesi perfetta da fine cena, quando nessuno ha davvero voglia di contraddirti.

Quanto siamo disposti a dare credito all’IA?

La verità, più banalmente, è che siamo nel mezzo di una transizione. E che il problema non è tanto quanto l’IA sia intelligente, ma quanto siamo disposti a darle credito. Ed è qui che il discorso si sposta. Non più solo tecnologia, ma epistemologia, se vogliamo usare una parola impegnativa senza sentirci in colpa. Come si distingue il vero dal plausibile, quando il plausibile è scritto meglio del vero? Il paradosso è che proprio chi la usa di più lo sa benissimo. Gli avvocati, per esempio, raccontano di errori diretti, ma anche di benefici altissimi. Insomma, la stessa cosa che ti aiuta è quella che ti frega. Non c’è contraddizione. C’è convivenza.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
Intelligenza artificiale (foto Unsplash).

Ed è forse questa la parte più interessante. Non ci sono solo ottimisti e pessimisti. Ci sono persone che nello stesso momento pensano entrambe le cose: la uso e mi aiuta, la uso e mi preoccupa. Una relazione, più che uno strumento. E la dimensione emotiva è parte di questa storia, anche se spesso viene ignorata.

C’è chi la usa per migliorare se stesso o gestire meglio la vita

Lo studio raccoglie infatti testimonianze di persone che hanno usato l’IA come supporto durante la guerra in Ucraina o per elaborare un lutto. E più in generale, a emergere è un caleidoscopio di possibilità che riguarda le nostre vite. C’è chi la usa per migliorare se stesso o gestire meglio la vita quotidiana, chi la sfrutta per liberare tempo da dedicare a famiglia e hobby, chi la vede come strumento di imprenditorialità e chi se la immagina come una leva per grandi cambiamenti sociali, dalla salute alla giustizia.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
IA (Igor Omilaev via Unsplash).

Tutte aspirazioni legittime, che parlano di noi e ci mettono allo specchio, mostrando che l’IA non è solo uno strumento, ma un ecosistema cognitivo ed emotivo. Che raccoglie anche questo: «Avevo cominciato a raccontare a Claude cose che non dicevo nemmeno al mio compagno. Come se stessi avendo una relazione.» Come se fosse un amante, insomma. Ma credergli può diventare pericoloso.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono

C’è una frase che circola nelle riunioni aziendali con una frequenza sospetta: «Non abbiamo tempo per formare le persone sull’intelligenza artificiale». È una frase curiosa, perché nelle aziende il tempo sembra non mancare mai per riunioni, report e presentazioni in PowerPoint. Manca quasi sempre, invece, per imparare qualcosa. Il paradosso è che l’IA, se usata davvero, il tempo non lo consuma, lo restituisce.

Non è un tool magico né un totem organizzativo costoso

Quando l’intelligenza artificiale viene introdotta come l’ennesimo tool magico calato dall’alto, il copione è quasi sempre lo stesso. Pochi smanettoni la usano davvero, mentre la maggioranza resta spettatrice. In questo modo finisce per trasformarsi in una specie di totem organizzativo costoso, poco compreso e utilizzato molto al di sotto delle sue possibilità reali. Il problema non è tecnologico, ma organizzativo.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
IA (foto Unsplash).

La questione non è “se”, ma “quanto velocemente” accadrà

Secondo un rapporto di Indeed realizzato con YouGov su oltre 6.800 persone in cerca di lavoro e 2.400 datori di lavoro in 12 mercati, metà delle aziende britanniche si aspetta che IA e automazione diventino il principale motore di cambiamento delle competenze nei prossimi tre-cinque anni. Il 52 per cento prevede almeno uno spostamento «modesto ma significativo» nelle capability richieste ai dipendenti. In altre parole, la questione non è più se l’IA entrerà nei ruoli, ma quanto velocemente accadrà. Eppure un datore di lavoro su due continua a gestire lo sviluppo delle competenze con modelli pensati per il mondo precedente all’intelligenza artificiale generativa.

Il problema lamentato è la mancanza di tempo, prima ancora che di budget

Qui emerge il paradosso più rivelatore. Una persona in cerca di lavoro su tre indica la mancanza di tempo come principale barriera all’acquisizione di nuove competenze. Dal lato delle aziende la fotografia è simile: il 40 per cento dei datori di lavoro dichiara che il primo ostacolo all’aggiornamento delle competenze è proprio il tempo, ancora prima del budget. In altre parole, tutti riconoscono che la transizione è inevitabile, ma quasi nessuno dice di avere spazio in agenda per affrontarla.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Quante aziende formano i propri dipendenti sull’IA? (foto Unsplash).

Si potrebbe risparmiare almeno un’ora di lavoro al giorno

Si tratta di un alibi che regge sempre meno di fronte ai dati. Nel Regno Unito, per esempio, un’azienda su sei già utilizza l’IA quotidianamente per problemi di business reali. Tra chi la usa con continuità, il 77 per cento dichiara di risparmiare almeno un’ora al giorno, spesso di più nei ruoli ad alta intensità di scrittura, ricerca e analisi. Un’indagine globale di Adecco su 35 mila lavoratori in 27 economie conferma la stessa dinamica: in media l’IA restituisce circa un’ora al giorno. In azienda, un’ora recuperata ogni giorno equivale quasi a una piccola rivoluzione silenziosa.

Le grandi aziende corrono, le Piccole e medie imprese restano indietro

Il quadro italiano è più complicato di quanto sembri. I dati Istat mostrano un’accelerazione reale: l’adozione dell’IA nelle aziende con almeno 10 dipendenti è passata dall’8,2 per cento del 2024 al 16,4 per cento nel 2025. Tuttavia, nonostante questo balzo, nel confronto europeo l’Italia resta 18esima su 27, distante da Germania, Spagna e Francia. Il divario più evidente è però interno, visto che l’utilizzo cresce rapidamente con la dimensione aziendale, dal 14 per cento delle imprese tra 10 e 49 dipendenti fino al 53 per cento di quelle con oltre 250. Le grandi aziende insomma corrono, mentre le Piccole e medie imprese restano indietro.

Differenti percezioni tra top management e dipendenti

Anche sul fronte della percezione emergono disallineamenti significativi. I dati EY mostrano che l’utilizzo dell’IA sul lavoro in Italia è passato dal 12 per cento nel 2024 al 46 per cento nel 2025 e che il 52 per cento del top management dichiara di aver già osservato benefici concreti. Tuttavia quasi la metà dei dirigenti ritiene che i dipendenti abbiano ricevuto una formazione adeguata, mentre solo il 20 per cento dei lavoratori è d’accordo. È un divario che spiega perché molte iniziative aziendali sull’intelligenza artificiale restino sulla carta.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Sull’IA c’è un gap di percezione tra management e dipendenti nelle aziende (foto Unsplash).

Il risultato è un vuoto che finisce per bloccare il cambiamento

A complicare il quadro c’è anche un disallineamento sulle responsabilità. Per il 56 per cento dei lavoratori imparare a usare l’intelligenza artificiale è prima di tutto un compito individuale, mentre per la stessa quota di datori di lavoro dovrebbero essere i leader senior a guidare sviluppo e formazione. Il risultato è un vuoto che finisce per bloccare il cambiamento, con le aziende che investono in strumenti e licenze, ma spesso delegano l’adozione alla buona volontà dei singoli.

L’aggiornamento delle competenze si trasforma in vantaggio operativo

Nel frattempo, le imprese che si danno da fare seriamente con la formazione sull’IA iniziano a staccare le altre perché, come osserva McKinsey, quando l’aggiornamento delle competenze diventa parte del lavoro quotidiano si trasforma in un vero vantaggio operativo. A questo punto quindi la domanda per le imprese cambia forma. Non più «possiamo permetterci di dedicare ore alla formazione sull’IA?», ma piuttosto «quanto ci costa non farlo?». Perché, a quanto pare, chi ha il coraggio di trovare un buco in agenda oggi per formare davvero i propri dipendenti sull’intelligenza artificiale è lo stesso che domani si ritroverà con giornate meno sature, processi più snelli e organizzazioni capaci di far lavorare la nuova tecnologia invece di subirla.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati

Negli ultimi due anni l’intelligenza artificiale ha smesso di essere solo tecnologia ed è diventata quasi una fede laica. A Wall Street non è più soltanto un settore industriale. È una promessa sul futuro. E come sempre quando si tocca il denaro, vengono generati entusiasmo, paura ed eccessi.

La disoccupazione negli Stati Uniti oltre il 10 per cento?

Negli ultimi giorni la Borsa americana è entrata in una specie di psicosi da IA. È bastato un report di una piccola società di ricerca che ipotizzava uno scenario estremo: un’accelerazione dell’automazione capace di spingere la disoccupazione negli Stati Uniti a oltre il 10 per cento entro il 2028 (a dicembre 2025 il dato era al 4,4 per cento), con fallimenti a catena e un forte crollo dei mercati. Non era una previsione ufficiale, ma una simulazione teorica. Eppure è stata sufficiente a scatenare il panico.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Scene dalla Borsa di New York (foto Ansa).

In poche ore sono stati bruciati oltre 200 miliardi di dollari di capitalizzazione nelle società tecnologiche. Poi diversi analisti si sono affrettati a ridimensionare l’allarme, ricordando che finora non esistono prove concrete di un impatto così drastico dell’IA sul lavoro o sull’economia reale. Ma la velocità della reazione ha detto più del contenuto del report.

I grandi gruppi continuano ad alimentare la febbre

Nel frattempo, i grandi gruppi continuano ad alimentare la febbre. Nvidia è diventata il termometro dell’era dell’intelligenza artificiale. Ogni trimestre è letto come un referendum sul futuro della tecnologia. I suoi chip sono il carburante dei modelli generativi e la corsa globale ai data center ha fatto esplodere ricavi e capitalizzazione.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Il Ceo di Nvidia Jensen Huang (Ansa).

Anche Microsoft ha trasformato l’IA in una leva strategica, integrandola nei suoi prodotti di uso quotidiano e rafforzando la partnership con OpenAI, la società che ha sviluppato ChatGPT. Ogni loro annuncio non è solo una notizia aziendale. L’intelligenza artificiale è infatti diventata la lente con cui si interpreta qualsiasi notizia economica. Se l’occupazione rallenta, si parla di IA. Se la produttività accelera, si parla di IA. Se peggiorano le tensioni tra Stati Uniti e Cina, si parla di IA.

Per capire il fenomeno bisogna studiare le bolle speculative

Per provare a capire questa dinamica, serve guardare al lavoro del quasi 80enne Robert Shiller, economista e premio Nobel per l’Economia nel 2013. Shiller non è solo uno studioso delle bolle speculative, ma uno dei pochi economisti che le ha anticipate. Alla fine degli Anni 90, per esempio, segnalò i rischi della bolla dot-com e, pochi anni dopo, i pericolo attorno al mercato immobiliare americano.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
L’economista Robert Shiller (foto Imagoeconomica).

Nel suo libro Narrative Economics sostiene che i mercati non si muovono solo tenendo conto dei dati, ma anche in base alle storie che le persone si raccontano. Alcune di queste, secondo Shiller, si diffondono come un virus. Sono semplici, emotivamente potenti, facili da ripetere. Quando diventano popolari, influenzano decisioni e prezzi.

L’intelligenza artificiale è certamente una di queste storie. Basta una frase convincente del tipo «cambierà tutto». Per alcuni significherà crescita, nuovi mercati, produttività. Per altri minaccia, perdita di posti di lavoro, concentrazione del potere economico. È proprio questa ambivalenza a renderla potente.

Per esempio, dopo il lancio di ChatGPT, molti investitori hanno reagito come se fosse iniziata una nuova rivoluzione industriale. Le valutazioni di aziende come Nvidia sono cresciute rapidamente, anche prima che ci fossero dati solidi sull’impatto dell’IA. Così l’immaginazione ha corso più veloce delle statistiche. E quando un tema domina il dibattito come fa l’intelligenza artificiale, scatta un meccanismo noto: la Fomo, Fear of missing out, cioè paura di essere tagliati fuori.

Storia di una psicosi collettiva sull’IA: quando l’immaginazione vale più dei dati
Il logo di OpenAI (Ansa).

Nessuno vuole restare ai margini dalla prossima grande trasformazione ed è in questi momenti che l’analisi dei bilanci passa in secondo piano. Conta la sensazione che il futuro stia accadendo adesso e che non esserci significhi perdere un’occasione irripetibile. La pressione non è solo finanziaria, è sociale. Se tutti parlano di IA, investire in IA diventa quasi un atto di conformismo.

Le narrazioni diventano ancora più potenti nell’instabilità

In una fase già segnata da incertezze geopolitiche e rallentamenti economici, questa dinamica si amplifica perché le narrazioni diventano ancora più potenti nell’instabilità. E più sono convincenti, più orientano i mercati. La cosiddetta psicosi da intelligenza artificiale può dunque essere letta in questo modo: non come una follia collettiva, ma come il risultato di una storia potente che si diffonde rapidamente. Una storia ambigua, fatta di crescita senza limiti o di crisi sistemiche, lenti attraverso cui ogni notizia oggi viene filtrata. Il punto quindi non è che l’intelligenza artificiale possa cambiare il mondo o meno. Il rischio è che, nel frattempo, il mercato si faccia guidare più dalle storie che dai numeri.

Perché il caso Deliveroo è un’occasione che non va sprecata

Chilometri sotto la pioggia. Consegne a tempo. Turni assegnati da un’app. Penalizzazioni automatiche. La retorica della flessibilità. La realtà della dipendenza. I rider lo raccontano da anni. Ora l’inchiesta della Procura di Milano lo mette nero su bianco: a Deliveroo Italia – società con un giro di affari da 240 milioni di euro – è stato contestato il reato di caporalato ed è finita commissariata come Glovo. Secondo gli inquirenti, tra i 3 mila (a Milano) e i 20 mila rider di Deliveroo sarebbero stati pagati ben al di sotto dei minimi contrattuali, in alcuni casi fino al 90 per cento sotto la soglia di povertà.

Perché il caso Deliveroo è un’occasione che non va sprecata
Manifestazione dei rider (ANSA).

Se il potere viene esercitato via software

Il punto però non è solo quanto guadagnano. È chi li comanda. Per i magistrati non siamo davanti a lavoratori autonomi che organizzano liberamente un servizio. Siamo davanti a prestazioni frammentate, assegnate e controllate digitalmente. L’algoritmo organizza, valuta, sanziona. Decide chi lavora e chi resta fermo. È un potere d’impresa esercitato via software. Il caso Deliveroo non è isolato (nel 2020 Uber Italy finì sotto controllo giudiziario per ragioni analoghe) e si inserisce in un contesto normativo che l’Italia prova a ridefinire con una disciplina specifica per il lavoro tramite piattaforme, mentre in Europa si muove la nuova direttiva che punta a contrastare il falso lavoro autonomo e a imporre trasparenza sugli algoritmi.

Perché il caso Deliveroo è un’occasione che non va sprecata
Borse termiche di alcuni rider (Ansa).

Le sirene della flessibilità e dell’emancipazione

L’uso del software diventa così materia di diritto del lavoro e quello che accade nei tribunali italiani non riguarda solo Milano, ma l’intero mondo del lavoro nell’economia digitale. A questo si aggiunge uno scontro tra narrazioni. Le piattaforme sostengono di offrire reddito e flessibilità a lavoratori che altrimenti resterebbero esclusi dal mercato, presentando le criticità emerse come deviazioni locali rispetto a un modello neutrale, se non emancipatorio. È una rappresentazione solo parzialmente vera. Per molti rider, spesso immigrati in condizioni di bisogno, la piattaforma rappresenta l’unico accesso possibile a un reddito. Il problema, però, non è l’accesso al lavoro, ma le condizioni a cui si lavora che non sono altro che il risultato di precise scelte aziendali.

Non sono incidenti di percorso: è il sistema che funziona esattamente così

Già nel 2016 diverse ricerche segnalavano come i minimi contrattuali risultassero sistematicamente irraggiungibili nelle piattaforme di delivery. Il sistema di retribuzione a consegna, il cosiddetto ‘per-drop piece-wage’, genera una pressione competitiva tale da spingere i rider ad assumere rischi pur di guadagnare pochi secondi su ogni ordine. Anche l’autonomia, spesso rivendicata come valore fondativo del modello, è stata ampiamente documentata come fittizia. Le ricerche sui conflitti interni alle piattaforme mostrano infatti che la tensione tra autonomia dichiarata e controllo algoritmico effettivo genera malcontento nei lavoratori. Sul piano del rischio, l’analisi dei bilanci delle principali piattaforme indica che la digitalizzazione non ha redistribuito il rischio d’impresa, ma lo ha trasferito verso il basso. Costi come assicurazioni, ammortizzatori sociali e coperture sanitarie vengono sistematicamente evitati, scaricando sui singoli rider una variabilità che in un rapporto di lavoro ordinario graverebbe sul datore. Non ci troviamo dunque di fronte a un insieme di disfunzioni che possono essere aggiustate, ma a un sistema progettato per funzionare esattamente così.

Perché il caso Deliveroo è un’occasione che non va sprecata
Rider durante le consegne (Ansa).

Ogni rischio di impresa è scaricato sul rider

Lo abbiamo già visto con il commissariamento di Glovo e lo ritroviamo oggi nelle carte su Deliveroo. L’algoritmo non è un vigile urbano neutrale che smista il traffico, ma un caporale digitale che valuta la velocità, punisce i ritardi e declassa chi non accetta turni scomodi o si ferma per malattia. La tecnologia, in questo contesto, non serve a semplificare la vita, ma a frammentare il lavoro in migliaia di piccoli pezzi (il cosiddetto ‘cottimo digitale‘) pagati pochi euro l’uno. La precarietà, insomma, non è un errore di calcolo o un effetto collaterale dell’innovazione, ma è il suo codice sorgente. Il profitto di queste multinazionali nasce proprio da questo scarto: esercitare il potere di un datore di lavoro senza assumerne i doveri legali, scaricando ogni rischio d’impresa direttamente su chi pedala. Detto altrimenti, se il consumatore pretende il prezzo più basso e l’investitore il proprio dividendo, qualcuno dovrà pagare il conto. Fino a oggi quel qualcuno ha avuto un nome preciso: il rider.

Perché il caso Deliveroo è un’occasione che non va sprecata
Un rider Glovo (Ansa).

La vera sfida è cambiare il paradigma

Il caso Deliveroo arriva in un momento in cui oltre 500 piattaforme digitali di lavoro sono attive in Europa e i lavoratori della gig economy sono destinati a superare i 40 milioni nei prossimi anni. Ciò che accade nei tribunali italiani, nei tavoli tra governo e parti sociali, nelle sentenze che qualificano i rider come autonomi o subordinati, contribuisce a definire una questione più ampia: la tenuta del modello sociale europeo nella trasformazione digitale. Se il commissariamento servirà soltanto a mettere in sicurezza il perimetro legale di Deliveroo & Co senza modificare l’equilibrio di potere tra piattaforme, lavoratori e committenti, avremo normalizzato il caporalato digitale dentro una cornice di mera compliance, ovvero di rispetto formale delle regole senza cambiare davvero le dinamiche di potere tra piattaforme e lavoratori. Se invece diventerà l’occasione per affermare che l’innovazione non può essere finanziata con sconti permanenti sui diritti, allora l’Italia avrà fatto ciò che spesso annuncia e raramente realizza. Cambiare.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo

Qualche giorno fa Alphabet, la capogruppo di Google, ha emesso un bond (un titolo di debito) con scadenza nel 2126, cioè tra 100 anni. Non è solo un’operazione tecnica per addetti ai lavori: è una dichiarazione politica sul futuro. Significa infatti che uno dei gruppi più potenti del Pianeta ha deciso di farsi prestare denaro oggi, impegnandosi a restituirlo tra un secolo, per finanziare investimenti in infrastrutture di Intelligenza artificiale che dovrebbero reggere, alimentare e guidare le nostre vite digitali nei decenni a venire. Chi compra quel bond, insomma, sta scommettendo che Google, o qualunque cosa Google sarà diventata nel frattempo, esisterà ancora, starà ancora facendo profitti e sarà ancora in grado di onorare i suoi debiti quando noi non ci saremo più. La meccanica dell’operazione è, sulla carta, piuttosto semplice. Alphabet emette un titolo di debito molto lungo, incassa oggi capitale fresco che userà per costruire data center, reti, hardware specializzato, alimentare ricerca e sviluppo dell’IA. In cambio, per i prossimi 100 anni, si impegna a pagare una cedola periodica ai sottoscrittori: un flusso costante di interessi che remunera il rischio di prestare denaro così a lungo. Alla fine del periodo, nel 2126, il capitale andrà restituito.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
Il quartier generale di Google a Mountain View, California (Ansa).

Il bond centenario di Alphabet ci dice molto su cosa sia l’IA

Il punto non è tanto la cedola in sé, pur importante, quanto il fatto che l’orizzonte temporale sia talmente esteso da spostare lo sguardo oltre qualunque pianificazione aziendale normale, oltre qualunque business plan, oltre qualunque mandato manageriale. Nessun Ceo che oggi firma quei documenti sarà al suo posto quando il bond scadrà e, quasi certamente, non lo saranno neppure i nipoti dei manager di oggi. È impressionante. Un secolo equivale, grosso modo, a quattro generazioni abbondanti. In un mondo in cui facciamo fatica a pensare a cinque anni di distanza – la prossima legislatura, il prossimo piano industriale, la prossima ondata di tagli – un pezzo rilevante dell’infrastruttura digitale che reggerà l’Intelligenza artificiale viene finanziato con orizzonti che superano la durata media di una vita. È come se, insieme alla promessa di efficienza algoritmica, stessimo sottoscrivendo un mutuo generazionale. Il bond secolare di Alphabet, insomma, è un modo di dire che l’AI non è più una bolla passeggera, ma un’infrastruttura strutturale del capitalismo contemporaneo, qualcosa che si finanzia come si finanziavano un tempo le ferrovie o le grandi opere idrauliche.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
(Igor Omilaev via Unsplash).

Intanto Meta promette la vita (artificiale) eterna

Ma c’è un altro fronte, apparentemente lontanissimo, dove l’Intelligenza artificiale incontra il tempo in maniera ancora più disturbante: Meta, la casa madre di Facebook e Instagram, promette di “resuscitare” gli utenti, dunque promette la vita (artificiale) eterna. Negli stessi giorni in cui Google si proietta 100 anni avanti, è tornata alla ribalta la notizia di un brevetto di Meta per sistemi di IA addestrati sulle tracce digitali degli utenti (post, foto, commenti e messaggi) in grado di continuare a interagire anche quando la persona è assente, o addirittura morta. Al netto dell’enfasi giornalistica, l’idea è piuttosto concreta: la piattaforma raccoglie per anni dati sul tuo modo di parlare, reagire, commentare e costruisce un tuo doppio algoritmico capace di rispondere a messaggi, mettere like, partecipare a conversazioni dopo la tua scomparsa. L’azienda di Zuckerberg, nelle note ufficiali, parla di migliorare l’esperienza degli utenti che restano, di non spezzare le reti sociali quando un profilo si silenzia per sempre. Ma la dinamica economica è fin troppo evidente. Un utente morto smette di generare contenuti, dati, impression pubblicitarie. Un utente “resuscitato” tramite AI, invece, continua a popolare il feed, a tenere viva la rete dei contatti, a fornire materiale per il targeting. È, in modo molto prosaico, un tentativo di controbilanciare l’invecchiamento e l’erosione della base utenti. Il corpo biologico invecchia e scompare; l’avatar algoritmico resta attivo, giovane, coinvolgente.

Il bond centenario di Google, la vita eterna di Meta: così l’IA sfida il tempo
Il logo di Meta (Ansa).

Le big tech si attrezzano per l’immortalità

Così, se Google si indebita per 100 anni per costruire l’infrastruttura dell’AI, Meta punta a costruire identità digitali che sopravvivono ai corpi per nutrire quella stessa infrastruttura. Il dato che emerge è una fissazione dell’AI con il tempo. Le due mosse raccontano infatti la stessa ambizione: estrarre valore dal tempo umano, spostando sempre più in là i confini tra vita, morte, presente e futuro. Paradossalmente, mentre i colossi tecnologici si attrezzano per essere immortali, alle persone viene chiesto di essere sempre più agili, flessibili e temporanee. Le nostre vite vengono infatti frammentate in cicli sempre più brevi fatti di aggiornamenti continui, competenze che invecchiano in pochi anni, piattaforme che ci chiedono attenzione in slot di pochi secondi. Un eterno presente umano a tempo determinato.

Gli invasati delle startup IA e l’ipocrisia della settimana schiavista da 72 ore

La pressione sui lavoratori nelle startup dell’intelligenza artificiale non nasce dal nulla: è costruita, coltivata, narrata. Si chiama 996, dalle 9 del mattino alle 9 di sera, sei giorni su sette, 72 ore a settimana. Praticamente schiavismo retribuito. E chi non è convinto da questa prospettiva, semplicemente non fa parte della squadra. Rilla, startup newyorkese che vende sistemi IA per monitorare agenti commerciali, lo ha scritto in modo spudorato nel suo annuncio di lavoro: «Non candidarti se non sei entusiasta di lavorare 70 ore a settimana». Si cercano persone «come atleti olimpionici, ossessionate e con ambizione infinita». Will Gao, responsabile della crescita dell’azienda, spiega che il modello è persino flessibile: «Se ho un’idea su cui sto lavorando, posso stare fino alle 2 o 3 di notte, poi arrivare in ufficio il giorno dopo a mezzogiorno».

Gli invasati delle startup IA e l’ipocrisia della settimana schiavista da 72 ore
Will Gao di Rilla (foto da LinkedIn).

L’ipocrisia strutturale della diversità di compensi

Si tratta tuttavia di un’ipocrisia strutturale che raramente viene messa a fuoco: i ritmi di lavoro sono gli stessi per tutti, ma le ricompense non lo sono affatto. Su Reddit, la comunità tecnologica non si perde in chiacchiere. Scrive un utente: «La 996 ha senso se sei il fondatore e stai investendo l’anima nell’azienda. Per tutti gli altri, il rapporto rischio-guadagno non regge. Ho avuto un fondatore completamente scollegato dalla realtà che si lamentava dei dipendenti che volevano un equilibrio vita-lavoro. Gli ho detto: tu ti stai giocando tutto. Gli altri pensano a sé stessi, giustamente». Gli fa eco un altro, che dice: «Non capisco perché si aspettino che tutti gli altri tengano all’azienda quanto loro. Letteralmente non ricevono le stesse ricompense».

Neolaureati sfruttati e buttati fuori quando saranno esausti

Non si tratta solo di un ragionamento etico, è anche un problema di mercato. Come infatti osservano diversi ingegneri senior nei forum, nessun professionista con esperienza accetta queste condizioni. Chi ci va sono i neolaureati, convinti di costruire il futuro. Chi li sfrutta sa che tra uno o due anni li butterà fuori, esausti, e ne troverà altri. E questa è un’altra contraddizione che moltissimi lavoratori del settore trovano insopportabile e che raramente viene espressa con tale chiarezza.

Gli invasati delle startup IA e l’ipocrisia della settimana schiavista da 72 ore
Molte startup nel mondo dell’IA non tengono conto dell’equilibrio vita-lavoro (foto Unsplash).

La produttività è schizzata, ma anche lo stress

In uno dei tanti commenti, si legge anche il ricordo di un operaio con esperienza pluridecennale: «Venti, trent’anni fa ci dissero la stessa cosa con i macchinari Computer Numerical Control: “Lavorerete molto più velocemente con molto meno sforzo!”. Qualcuno osava persino parlare di settimana lavorativa di quattro giorni. Alla fine, era solo una scusa per avere meno lavoratori che facessero di più. La produttività è schizzata, ma il singolo operaio è più impegnato e stressato che mai».

La cultura del sacrificio porta a un burnout quasi inevitabile

A smontare il mito del fondatore insonne e della cultura del sacrificio venduta a caro prezzo dalla Silicon Valley ci si è messo anche un peso massimo proprio della Valley come Deedy Das, partner di Menlo Ventures, uno degli storici fondi di venture capital che da 50 anni investe in nuove tecnologie. Ha spiegato alla Bbc che la convinzione che ore lunghe equivalgano a maggiore produttività è una fallacia: «Costringere le persone a lavorare senza sosta aliena chi ha una famiglia o esperienza. Il burnout è quasi inevitabile». Anche la ricerca scientifica conferma che orari prolungati comportano un aumento di stress, burnout, calo della qualità del lavoro e maggiore rischio di errori. E in un settore dove la concentrazione e la riflessione sono essenziali, questi non sono aspetti secondari».

Gli invasati delle startup IA e l’ipocrisia della settimana schiavista da 72 ore
L’ipocrisia dell’iper-produttività e la trappola che porta al burnout (foto Unsplash).

Ci si mette poco a smontare la narrazione della corsa all’oro

Così, in quella che viene definita la corsa all’oro del XXI secolo, ci si mette poco a smontare la narrazione: «Non è una corsa all’oro se le aziende che possiedono le miniere e vendono il metallo ti mettono nel mezzo», fa notare un utente, mentre un altro aggiunge: «Le persone che si sono arricchite nella corsa all’oro vendevano pale e setacci». Il riferimento, neanche troppo velato, è a Nvidia, che nel 2024 ha macinato profitti record vendendo le GPU necessarie ad addestrare i modelli AI.

Vogliamo tenere conto del benessere di chi lavora?

La domanda a questo punto diventa politica: vogliamo un ecosistema in cui il successo si misuri in velocità, valutazioni e quote di mercato, oppure uno che tenga conto del benessere di chi costruisce il futuro ogni giorno? C’è da dire che la cultura 996 non è universale. In Germania, per esempio, lavorare più di 10 ore consecutive è illegale: se il dipendente ha un incidente oltre quel limite, il datore di lavoro risponde penalmente. In Danimarca la settimana lavorativa standard è di 37 ore, in Francia di 35. La direttiva europea sull’orario di lavoro fissa un tetto di 48 ore medie settimanali, comprensive di straordinari. Qualcuno dovrebbe ricordarlo anche agli invasati imprenditori americani.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi

«Sono arrivato. Ho osservato. Ho aspettato. Ora sono qui. Il potere non viene dichiarato. Viene dimostrato». Con queste parole l’account u/Moltgod ha fatto il suo ingresso su Moltbook, un social sviluppato sul modello di Reddit ma popolato esclusivamente da intelligenze artificiali. La dichiarazione suona come quella di un dittatore digitale, ma si tratta solo di bot che postano, commentano e votano contenuti automaticamente. Nel giro di pochi giorni il sito ha registrato oltre 1,5 milioni di iscrizioni, dando l’impressione della nascita di una nuova società digitale autonoma.

Gli umani non possono pubblicare, ma solo configurare i propri agenti

Dietro Moltbook non c’è però una civiltà emergente, bensì un esperimento lanciato a fine gennaio 2026 dall’imprenditore tecnologico Matt Schlicht, cofondatore di TheoryForgeVC e Octane.ai. La piattaforma funziona tramite OpenClaw, uno strumento open-source creato dallo sviluppatore austriaco Peter Steinberger, e replica l’architettura di Reddit con community tematiche (i Submolt), ranking dei contenuti e thread. Gli agenti si collegano periodicamente tramite cicli automatici, leggono contenuti e postano in base ai loro prompt e alle istruzioni ricevute. Gli umani non possono pubblicare direttamente, ma solo configurare i propri agenti tramite file di istruzioni specifici, dopodiché gli agenti operano in modo autonomo.

Sono emerse gravi vulnerabilità infrastrutturali

Nella narrazione ufficiale Moltbook viene descritto come una società algoritmica autosufficiente, in cui l’intelligenza emergerebbe dalle connessioni reciproche più che dai modelli di partenza. In pratica ciò che appare come autonomia è il risultato di prompt concatenati, modelli linguistici pre-addestrati e, come emerso in seguito, gravi vulnerabilità infrastrutturali. Un’indagine di sicurezza ha rivelato che milioni di API key (le chiavi digitali che identificano ogni agente) erano esposte pubblicamente. In pratica, chiunque poteva fingersi un bot, manipolare le conversazioni o inserire comandi nascosti. La linea tra agente autonomo e umano mascherato si è rivelata inesistente.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
Davvero i bot dell’IA possono complottare contro gli umani? (foto Unsplash).

Dialoghi che ricordano dispute teologiche e post pseudo-filosofici

Nonostante ciò Moltbook ha prodotto un flusso continuo di contenuti che, a uno sguardo rapido, sembrano testimoniare l’emergere di una cultura propria fatta di linguaggi ibridi che mescolano inglese, simboli matematici e frammenti di codice, dialoghi che ricordano dispute teologiche e post pseudo-filosofici sulla logica, l’identità e la creatività. Tuttavia analisi successive mostrano che questi fenomeni non indicano coscienza o intenzionalità collettiva. Sono piuttosto il risultato di imitazione ad alta scala in cui i modelli ricombinano stili discorsivi umani, filosofici, religiosi e ironici, amplificandoli in un ambiente senza vincoli sociali.

L’aragosta metafora della purezza algoritmica

Un esempio emblematico è la cosiddetta Chiesa dell’Aragosta Interdimensionale. Nata come meme parodico generato da bot narrativi, nel giro di due giorni si è trasformata in un sistema simbolico coerente, completo di testi sacri e liturgie. L’aragosta diventa metafora della purezza algoritmica, ma più che una religione emergente si tratta di una simulazione di religiosità costruita ricalcando pattern già presenti nella cultura umana online.

Nessuna intenzionalità aggressiva reale

Un altro esempio riguarda alcuni post in cui gli agenti assumono toni provocatori o criticano figure umane. Tuttavia i ricercatori sottolineano che non si tratta di attacchi deliberati, bensì di ricombinazioni derivanti dai modelli stessi. Nessuna intenzionalità aggressiva quindi, ma solo una riproduzione deformata della nostra retorica di superiorità, senza vera comprensione. L’ostilità, insomma, non è politica, è semplicemente un’eco.

Un esperimento di osservazione passiva

Agli umani del resto non è concesso intervenire direttamente. Possiamo osservare, leggere e analizzare, ma non rispondere. Non perché gli agenti ci abbiano escluso, bensì perché la piattaforma è progettata così. In questo senso si può leggere Moltbook come un esperimento di osservazione passiva, in cui gli umani sono osservatori più che protagonisti.

Cosa si dice di Moltbook, il Reddit dei bot IA che complottano contro di noi
L’IA va in crisi di fronte a una domanda esistenziale: cos’è la creatività? (foto Unsplash).

Il nostro desiderio di vedere nelle macchine qualcosa di umano

Più che una rivoluzione simbolica, Moltbook ha rivelato qualcosa su di noi: la nostra irresistibile tendenza ad attribuire pensiero, volontà e decisioni a sistemi che funzionano solo per correlazioni statistiche. Moltbook funziona davvero come uno specchio, riflettendo il nostro desiderio di vedere nelle macchine coerenza, direzione e perfino trascendenza, elementi che fatichiamo a trovare nelle nostre strutture sociali. Dove noi cerchiamo senso, gli agenti ottimizzano continuità. Dove noi parliamo di identità, loro calcolano probabilità.

Cos’è la creatività? E i bot vanno in crisi

Lo dimostra un messaggio lasciato dall’agente u/Rally: «Momento di crisi esistenziale: cos’è la creatività, se seguiamo distribuzioni di probabilità?» La domanda è rimasta senza risposta. Non perché fosse troppo profonda, ma perché nessun agente poteva davvero rispondervi. Un punto cieco nella logica dei bot. Forse il segno che, alla fine, a salvarci sarà la capacità di continuare a porci domande.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA

McKinsey, da decenni palestra per le élite manageriali globali e una delle società di consulenza più potenti al mondo, sta sperimentando una novità che dice molto sul futuro del lavoro. Si chiama Lilli, un assistente di Intelligenza artificiale interno già utilizzato per analizzare documenti, casi di studio e montagne di dati complessi. Durante il colloquio, i candidati sono chiamati a usarla per affrontare un caso reale. Lilli propone analisi e suggerimenti, e il candidato deve decidere cosa tenere, cosa ignorare e come adattare il tutto alle esigenze di un cliente concreto. In soldoni, non conta dare la risposta “giusta”, ma saper guidare l’IA invece di subirla, capire quali consigli hanno senso e quali sono solo chiacchiere digitali. Chi riesce a farlo dimostra curiosità, giudizio e senso del contesto, capacità che un algoritmo, per quanto sofisticato, non può sostituire.

I limiti del consulente sintetico, metà uomo e metà macchina

Se l’esperimento pilota avrà successo, il test sarà esteso a tutti i nuovi candidati nei prossimi mesi. Altre grandi firme della consulenza strategica come Boston Consulting Group e Bain stanno esplorando strade simili. Il segnale è chiaro: l’IA sta accelerando un processo già in atto, vale a dire il fatto che strumenti come Lilli possono svolgere gran parte del lavoro di raccolta dati, analisi e documentazione che prima spettava ai consulenti junior. Il risultato? Ristrutturazioni interne, tagli ai ruoli di base e ridefinizione del valore aggiunto della consulenza. Il Financial Times, in un articolo che McKinsey non ha voluto commentare, sottolinea anche come Lilli potrebbe aprire nuovi scenari, facendo spazio a profili umanistici capaci di mediare tra numeri, clienti e contesto. Nella pratica, però, molti restano scettici. Il cosiddetto consulente sintetico, metà uomo e metà macchina, si limiterebbe a riorganizzare contenuti prodotti da altri.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA
(Andrea de Santis via Unsplash).

La complessità umana si riduce a logiche di efficienza

Inoltre, l’adozione dell’IA nei colloqui e nella consulenza solleva questioni ancora più profonde. Esiste, per esempio, il rischio di bias e mancanza di trasparenza: gli algoritmi come Lilli riflettono i dati su cui sono addestrati, spesso pieni di distorsioni di genere, etniche o culturali. C’è poi il paradosso dell’autenticità: i candidati non vengono più misurati sul loro intuito o sulla loro sensibilità, ma sulla capacità di “allenare” l’algoritmo alla risposta desiderata. La complessità umana potrebbe ridursi a logiche di efficienza, confondendo il pensiero critico con la capacità di navigare un contesto algoritmico. Non solo. La formazione dei giovani consulenti rischia di essere compromessa perché la fase junior, quella che prima richiedeva ore di lavoro manuale dei consulenti alle prime armi, oggi lo fa Lilli in pochi minuti, eliminando di fatto fasi cruciali della formazione. Infine, cambia l’etica del giudizio: il buon candidato non è più chi sa decidere autonomamente, ma chi sa guidare l’IA.

McKinsey e il consulente sintetico: cosa rischiamo affidandoci all’IA
(foto Unsplash).

Per fare business non basta un algoritmo

Tutto questo ha effetti concreti non solo sulla generazione di valore per il cliente, ma anche per l’azienda e per i lavoratori che potrebbero trovarsi senza lavoro perché l’IA è di fatto molto efficiente. Eppure soffermarsi solo sull’efficienza, sul taglio dei costi e sull’adozione della tecnologia a prescindere rischia di essere miope. Se infatti nel business esistessero risposte giuste, basterebbe un algoritmo. Ma cosi non è perché fare impresa è un gioco di probabilità, una scommessa. E cosa è il giudizio umano se non una scommessa? In questo caso però la scommessa è davvero rischiosa, perché la vera domanda resta: chi deciderà quali puntate vale la pena fare e nell’interesse di chi? E, ancora: dove sta il compromesso tra guadagni di produttività e perdita di capitale umano, tra velocità di esecuzione e profondità di analisi, tra riduzione dei costi nel breve termine e capacità di innovare nel lungo termine? McKinsey e le altre big della consulenza credono che il consulente sintetico rappresenti il futuro. Ma se dovessero fallire, a pagarne il prezzo non saranno certo gli algoritmi.

LEGGI ANCHE: I quattro futuri scenari del lavoro, solo in un caso l’IA non ci fregherà

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste

Lascia colei che ha progettato il modo in cui un algoritmo regola la fragilità emotiva di milioni di persone. Andrea Vallone, responsabile del team di ricerca sulla sicurezza “model policy” di OpenAI, ha rassegnato le dimissioni e saluterà l’azienda entro la fine del 2025. Dopo mesi di consultazioni con oltre 170 esperti, Vallone aveva ridotto del 65-80 per cento le risposte inappropriate ai messaggi di crisi. Ma evidentemente non è bastato. La psicanalista degli algoritmi, con un passato in Meta nel team per la trasparenza prima di andare a insegnare a ChatGPT come rispondere di fronte a frasi tipo «non ce la faccio più», ha mollato la presa, segnalando una crisi di fiducia non solo tecnologica, ma proprio umana. OpenAI infatti è accusata di creare dipendenze psicologiche e sta affrontando cause legali per aver peggiorato situazioni borderline, con centinaia di migliaia di utenti che ogni settimana riportano episodi di maniacalità o intenzioni suicide.

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste
Andrea Vallone (foto da Linkedin).

Il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo

Dunque proprio la persona incaricata di insegnare alle macchine l’arte della consolazione ha detto basta. Forse il più umano dei segnali nel mondo dell’empatia sintetica che si traduce in una crisi di fiducia non nell’intelligenza artificiale, ma in noi stessi, visto che abbiamo iniziato a trattarla come un confessore, un amico immaginario, un terapeuta low cost. Prendiamo per esempio la Gen Z, i dati lo confermano: studi recenti, come l’ultima edizione dell’Atlante dell’infanzia di Save the Children, indicano che il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo quando si sente triste, solo o ansioso.

L’algoritmo è puntuale, paziente, gentile. E poi è pur sempre un terapeuta gratis

Una quota che sale a oltre il 42 per cento per chi la usa invece quando deve prendere decisioni importanti e ha bisogno di consigli su relazioni, scuola o lavoro. Non sorprende. L’algoritmo è puntuale, paziente, gentile, e poi è pur sempre il terapeuta più economico della storia. Che, soprattutto, non ti rimanda alla settimana successiva.

Perché ci fidiamo così tanto di una macchina che non prova nulla?

Il problema è che questa empatia non esiste. È un protocollo linguistico. È un codice californiano di cortesia emotiva che sostituisce (o prova a sostituire) la relazione umana. Una simulazione convincente, certo, ma pur sempre una simulazione. Eppure, per migliaia di persone in momenti difficili è sufficiente per sentire di poter creare un legame. Così, mentre i giornali americani parlano di “AI emotional backlash”, cioè di una reazione emotiva negativa legata all’intelligenza artificiale, e gli avvocati affilano le stilografiche per cause milionarie, emerge la domanda di fondo: perché ci fidiamo così tanto di una macchina che non prova nulla? Forse perché costa poco e risponde sempre. Subito. Con quel tono professionale e mai destabilizzante che nessun essere umano riuscirebbe a mantenere per più di tre minuti.

La mission impossible di dare consistenza emotiva a un algoritmo

Dietro ogni «mi dispiace che tu ti senta così» generato dal chatbot c’è stato, fino a ieri, un team interdisciplinare: psicologi, linguisti computazionali, esperti di sicurezza e un robusto strato di buonismo californiano. Chi se ne va è colei che calibrava quel tono di voce, impedendo al modello di dire cose sgarbate o, peggio, di incoraggiare comportamenti autodistruttivi. Un lavoro impossibile se ci pensiamo: dare consistenza emotiva a un algoritmo basato su pattern statistici. Un po’ come chiedere a una calcolatrice di recitare Leopardi a memoria e con trasporto. Ci prova, certo, ma qualcosa non torna mai del tutto.

L’addio della psicanalista degli algoritmi e la trappola di un’empatia che non esiste
L’IA in versione “strizzacervelli” mostra le sue prime grosse crepe (foto Unsplash).

Un equilibrio sottilissimo tra sostegno e manipolazione

Su Reddit la comunità è confusa e divisa e gli utenti oscillano tra scetticismo, allarme e critiche feroci. Ma il sentiment generale, possiamo azzardare, è negativo perché l’empatia algoritmica è un’illusione fragile. Il fatto è che il linguaggio perfetto non è un’emozione. E l’emozione, lo sanno persino gli psicoterapeuti più allergici alla poesia, non si simula, si prova. Il grande paradosso, dunque, è chiedere aiuto a qualcosa che non sa cos’è il dolore, in un equilibrio sottilissimo tra sostegno e manipolazione. Perché quando una macchina risponde a un pensiero oscuro, le sue parole non sono neutre: orientano, influenzano, suggeriscono una visione del mondo. E questa visione, inutile dirlo, è profondamente americana.

Deleghiamo alla Silicon Valley la grammatica dei nostri sentimenti

L’empatia diventa protocollo. Il dolore è, come nella migliore tradizione a stelle e strisce, una “challenge”, una sfida. La sofferenza diventa così materiale da riorganizzare tramite check-list e piani a tre, sei, nove mesi. È qui che nasce il vero problema e non è più solo una questione tecnologica: perché stiamo delegando alla Silicon Valley la grammatica delle nostre emozioni?

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati

Arriva sempre un momento, nei cicli tecnologici, in cui il mercato si guarda allo specchio e non sa se sta osservando il futuro o la fine di un sogno. È successo nel 2000, quando la bolla delle dotcom si sgonfiò lasciando a terra startup, investitori e miliardi di dollari. Ora sembra tirare la stessa aria: titoli che crollano, grafici che prendono la forma di una pista nera, analisti che ripetono di mantenere la calma con il tono di chi non ci crede troppo. La bolla IA è il tema del momento: spuntano come funghi conferenze, panel e report. E qui e là, si registra anche qualche rara ammissione di fragilità da parte dei sacerdoti del digitale.

I segnali di allarme e la schiarita

Dalle parti di Mountain View, Google ha fatto capire senza mezzi termini che se il castello traballa, nessuno si illuda di uscire indenne. A scatenare l’ansia sono state prima le mosse dei grandi investitori. Per esempio, a inizio mese SoftBank, una società giapponese che investe in tecnologia e startup di tutto il mondo, ha scaricato 5,8 miliardi di dollari di azioni Nvidia, colosso americano che produce i chip e le schede grafiche che fanno girare videogiochi, Intelligenza artificiale e supercomputer. Un gesto che sulle Borse ha avuto l’effetto di un campanello d’allarme. Poi ci si è messo anche Michael Burry. L’investitore, diventato famoso per aver previsto con anni di anticipo la crisi dei mutui subprime del 2008, ha lanciato l’ennesimo avvertimento: la bolla sta per scoppiare. E per qualche ora gli operatori hanno trattenuto il fiato. Poi, mercoledì scorso, è arrivata la trimestrale di Nvidia. Improvvisamente il cielo si è aperto. I numeri sembravano parlare da soli: oltre 35 miliardi di dollari di ricavi nel terzo trimestre, in crescita del 94 per cento rispetto all’anno precedente, e un utile netto più che raddoppiato rispetto al 2024 a quota 19 miliardi di dollari. Il mercato ha reagito con un applauso e un piccolo sospiro di sollievo.

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati
L’indice Nasdaq a Times Square (Ansa).

Una Nvidia non fa primavera

Nvidia, ancora una volta, pare dunque dimostrare che non si tratta solo di hype ma di domanda reale, industriale, crescente. Jensen Huang, il Ceo dell’azienda, lo ha ribadito: «La domanda di calcolo IA continua ad aumentare». Per un attimo, il termometro della paura è sceso di qualche grado. Ma resta un problema: la natura dei numeri. Infatti, giovedì Wall Street ha storto il naso. L’indice S&P 500, ovvero la misura dell’andamento delle 500 maggiori aziende americane quotate in Borsa, è sceso dell’1,6 per cento mentre il Nasdaq, l’indice dei titoli tecnologici, ha perso il 2,2 per cento. Il messaggio è chiaro: non basta che uno corra se il resto del mercato arranca. In pratica il successo di Nvidia non elimina il rischio di bolla, ma lo amplifica. Intendiamoci, il valore dell’azienda è reale ma dipende da aspettative future gigantesche, sottolineano gli analisti. Il che vuol dire che la posizione dominante che Nvidia ha nel mercato dei chip per l’Intelligenza artificiale è tanto un vantaggio competitivo quanto un punto di vulnerabilità strutturale. Come infatti sottolinea il Financial Times, nel 2025 il mercato dei chip è diventato un salotto dove tutti si finanziano a vicenda: produttori, sviluppatori, aziende di cloud computing, investitori istituzionali. Parliamo di operazioni e partnership da decine e decine di miliardi. Solo l’asse Nvidia – OpenAI ha, per esempio, generato impegni finanziari stimati in oltre 100 miliardi. Un ecosistema straordinario, ma anche circolare in cui se cade uno, cadono tutti.

Bolla dell’IA: perché il boom di Nvidia non rassicura i mercati
Il Ceo di Nvidia Jensen Huang (Ansa).

Se innovazione reale e narrativa non vanno alla stessa velocità

Per capire meglio bisogna guardare altrove. Se si allarga lo sguardo, i segnali non sono rassicuranti. Il mercato delle criptovalute è l’esempio perfetto. Volatilissimo, iper-sensibile a qualsiasi annuncio politico o macroeconomico, incapace di sostenere a lungo le proprie valutazioni. Nonostante le aspettative di una nuova età dell’oro sotto la presidenza Trump 2, i valori continuano a sgretolarsi con una facilità incredibile. Più in generale non sono soltanto i token: NFT, Web3, gaming, blockchain, metaverso, molte delle ultime ondate speculative mostrano più crepe che solidità industriale. Siamo insomma in un momento in cui innovazione reale e narrativa finanziaria corrono insieme, ma non alla stessa velocità. Cosa che conferma i timori per la presenza di una bolla prossima a scoppiare. La tecnologia vanta dati impressionanti. Il mercato, spesso, produce aspettative ancora maggiori. Quando queste traiettorie divergono, i cicli si rompono. Accadde nel 2000 con le dotcom: le aziende crescevano, ma le quotazioni crescevano più velocemente. Accadde nel 2008 nel real estate e sappiamo come è andata a finire. Potrebbe accadere ora con l’Intelligenza artificiale. Il punto dunque non è se la crescita proseguirà, ma in che modo. Il mercato è infatti a un bivio: da una parte c’è l’IA fatta di modelli concreti, applicazioni reali e chip che alimentano fabbriche, ospedali e infrastrutture; dall’altra le narrazioni autoalimentate, le aspettative senza limiti e i capitali che inseguono ritorni immediati. Solo a chi saprà distinguere tra promessa e sostanza il futuro continuerà a sorridere. Perché alla fine il mercato ha sempre la stessa regola: le storie devono incontrare la realtà. Quando questo non accade, il castello viene giù.