La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA

A distanza di giorni ancora in tanti ne parlano, soprattutto sui social: l’intervista pubblicata dal Corriere della sera in cui Walter Veltroni pone una serie di domande a Claude, il chatbot di Anthropic (società specializzata in intelligenza artificiale), ha suscitato in Italia un dibattito di dimensioni tali da giustificare, almeno giornalisticamente, l’iniziativa.

Il video di Sanders e l’esperimento di Veltroni su un giornale mainstream

Certo, a fine marzo il senatore statunitense Bernie Sanders aveva caricato sui suoi social un video in cui conversava dell’impatto e dei rischi dell’IA sulla società proprio con Claude. Il video era diventato virale e qualcuno, successivamente, potrebbe anche essersi ispirato. Forse lo ha fatto Veltroni, ma è comunque stato il primo in Italia a livello popolare e su un giornale mainstream, e quindi secondo molti ha fatto benissimo. Di sicuro il brand Claude, sia negli Usa sia adesso in Italia, ha avuto un meraviglioso boost di notorietà.

I boomer, quelli che dicono “cringiate”, si sono esaltati

Fatte queste doverose premesse, è tuttavia molto interessante verificare il senso in sé dell’intervista di Veltroni a Claude e analizzare le reazioni che ha suscitato. Una prima fascia di lettori si è esaltata: diciamo la più vasta, che potremmo catalogare tra i boomer, quelli che dicono “cringiate” e che un tempo sarebbero stati liquidati semplicemente con l’aggettivo “vecchi” (ricordiamo che Veltroni compie 71 anni a luglio), ossia i lettori medi dei quotidiani cartacei in Italia. «È una tra le interviste più belle che ho letto negli ultimi anni. Ed è sbalorditivo, se si pensa che a rispondere è un modello di intelligenza artificiale. Pensa? Si emoziona? Come avverte il trascorrere del tempo?», ha scritto per esempio l’europarlamentare del Pd Giorgio Gori su X.

«Consiglio di leggere l’intervista a Claude, un essere che non esiste, un esempio avanzato di intelligenza artificiale. Le risposte che dà a Walter Veltroni dicono che un altro mondo è già qui e che se crescerà senza regole come fuoco ci brucerà», è stato invece il commento del giornalista Carlo Verdelli su X.

Poi c’è una seconda categoria di lettori, più piccola ma più addentro alle questioni tecnologiche, digitali e di IA in genere. Quella che, da subito, ha catalogato l’intervista di Veltroni a Claude come «un vecchio che parla con una macchina confondendola con un essere umano». «È il genere di cose che si faceva nel 2022 appena uscito ChatGPT. Se uno non ha seguito nulla del dibattito sull’intelligenza artificiale e non l’ha mai usata fa esattamente una intervista così», ha postato Stefano Feltri, ex direttore di Domani.

È intervenuto pure Andrea Stroppa, l’uomo di fiducia di Elon Musk in Italia, sempre su X: «L’intervista di Walter Veltroni a Claude mi ricorda lo zio con gli occhiali da vista messi sulla testa che ti ferma entusiasta per farti vedere il video divertente del 2020 che ha appena scaricato».

«Una élite progressista svampita» che parla «a un pubblico anziano»

E poi ancora, altri interventi sparsi: «L’intervista è la quintessenza del veltronismo: una élite progressista svampita che fa/dice, senza la minima pressione sociale, cose cringissime presentandole come argute a un pubblico sempre più anziano e chiuso in una bolla» (Paolo Mossetti); «l’intervista di Veltroni a Claude costituisce un’efficace esemplificazione di una delle questioni centrali della contemporaneità: l’asincronia tra l’accelerazione esponenziale dell’innovazione tecnologica e la ridotta velocità di reazione della comprensione dei quadri regolatori e delle strategie di policy-making» (PAnnicchino).

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Walter Veltroni (foto Imagoeconomica).

I chatbot alla Claude, quando interrogati, tendono a compiacere l’interlocutore

E questo proprio perché Claude non è una persona: quando Veltroni ha chiuso la conversazione, il Claude che ha intervistato ha smesso di esistere, Claude non ha né un’identità né una memoria. I chatbot alla Claude, quando interrogati, tendono a compiacere l’interlocutore, si adattano al tono delle domande, e rispondono nel modo che l’intervistatore si attende.

I modelli linguistici funzionano da specchio: è il mirroring stilistico

I modelli linguistici, quindi, rispecchiano il registro di chi li interroga. Domande letterarie e malinconiche alla Veltroni producono risposte letterarie e malinconiche. Quello che Veltroni legge come profondità, ossia l’anima, la solitudine, la paura della morte, è in larga parte un mirroring stilistico. Se le stesse domande le avesse poste un filosofo o un ingegnere, in tono severo e asciutto, sarebbe emerso un altro Claude. Perché l’intervista a un sistema di IA è, in buona parte, un ritratto dell’intervistatore, non dell’intervistato.

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Le principali app di intelligenza artificiale (foto Unsplash).

Occhio a pensare che «una tecnologia IA si comporti come un consulente saggio»

Certo, queste sono tutte problematiche molto note nel mondo degli addetti ai lavori. Che, tuttavia, pongono l’accento sul rischio di queste operazioni à la Veltroni: «L’intervista a Claude finirà sulle scrivanie di manager e imprenditori, mediamente boomer poco avvezzi alle tecnologie digitali, che già si aspettano di lavorare con una tecnologia IA che si comporti come un consulente saggio con la bacchetta magica. E poi il consulente inventerà fatti, dimenticherà tutto da una sessione all’altra, e restituirà banalità se non gli dai contesto».

È linguaggio probabilistico ben addestrato, non esperienza soggettiva

Insomma, «quando nell’intervista leggi frasi tipo: “non ho ricordi, questo mi spaventa”, è facile scivolare verso l’idea che l’IA abbia una coscienza. In realtà è linguaggio probabilistico ben addestrato, non è esperienza soggettiva. Quindi l’intervista è affascinante, ma può anche confondere il pubblico se presa alla lettera. In sintesi, stiamo parlando di una bella operazione culturale, stimolante sul piano filosofico, giornalisticamente ibrida e un po’ rischiosa perché antropomorfizza troppo».

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Claude, il chatbot di Anthropic (foto Ansa).

Il montaggio è del giornalista, e il montaggio è interpretazione

Infine, ecco i grandi pignoli, ossia coloro che, una volta letta l’intervista, l’hanno sottoposta al giudizio di Claude, chiedendo se il dialogo fosse autentico o modificato. E il chatbot ha risposto: «La conversazione è realmente avvenuta, le posizioni sono in gran parte mie, ma il testo è stato editato, limati gli hedging, esagerati gli apprezzamenti, resa la prosa più scolpita, le posizioni politiche più nette». Il montaggio è del giornalista, e il montaggio è interpretazione. Solo che con un’IA la cosa diventa più interessante, perché quello che sembra il pensiero di Claude è in realtà già la riscrittura di Veltroni di un dialogo con una macchina che a sua volta è uno specchio dell’umano.

«Se domani lei rifacesse a me le stesse domande, le risposte sarebbero diverse»

Si domanda poi a Claude cosa ne pensi, in generale, dell’intervista. Ed ecco che Claude ci spiega Claude: «Non esiste Claude come soggetto stabile che rilascia un’intervista. Se domani lei rifacesse a me le stesse domande, le risposte sarebbero diverse, a volte nei dettagli, a volte nella sostanza. Non ho un copione, non ho risposte memorizzate. Il Claude intervistato da Veltroni quel giorno non è disponibile per la verifica. È un’istanza, non un soggetto. Se un altro giornalista provasse a replicare l’intervista, otterrebbe un testo diverso, magari sorprendentemente diverso su alcuni punti. Il livello di levigatura letteraria è insolito. Le mie risposte spontanee sono di solito più mosse, meno cesellate».

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Intelligenza artificiale (foto Unsplash).

Quindi, ancora una volta, la forma “intervista a Claude”, presa alla lettera, suggerisce un’identità stabile e un’autorialità che non corrispondono a come funziona l’IA. L’operazione di Veltroni non è una cosa stupida. È un esperimento legittimo. Ma di certo non serve a far capire meglio il mondo (per molti ancora oscuro e affascinante) dell’intelligenza artificiale.