Lascia colei che ha progettato il modo in cui un algoritmo regola la fragilità emotiva di milioni di persone. Andrea Vallone, responsabile del team di ricerca sulla sicurezza “model policy” di OpenAI, ha rassegnato le dimissioni e saluterà l’azienda entro la fine del 2025. Dopo mesi di consultazioni con oltre 170 esperti, Vallone aveva ridotto del 65-80 per cento le risposte inappropriate ai messaggi di crisi. Ma evidentemente non è bastato. La psicanalista degli algoritmi, con un passato in Meta nel team per la trasparenza prima di andare a insegnare a ChatGPT come rispondere di fronte a frasi tipo «non ce la faccio più», ha mollato la presa, segnalando una crisi di fiducia non solo tecnologica, ma proprio umana. OpenAI infatti è accusata di creare dipendenze psicologiche e sta affrontando cause legali per aver peggiorato situazioni borderline, con centinaia di migliaia di utenti che ogni settimana riportano episodi di maniacalità o intenzioni suicide.

Il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo
Dunque proprio la persona incaricata di insegnare alle macchine l’arte della consolazione ha detto basta. Forse il più umano dei segnali nel mondo dell’empatia sintetica che si traduce in una crisi di fiducia non nell’intelligenza artificiale, ma in noi stessi, visto che abbiamo iniziato a trattarla come un confessore, un amico immaginario, un terapeuta low cost. Prendiamo per esempio la Gen Z, i dati lo confermano: studi recenti, come l’ultima edizione dell’Atlante dell’infanzia di Save the Children, indicano che il 41,8 per cento dei 15-19enni italiani si rivolge all’IA per conforto emotivo quando si sente triste, solo o ansioso.
L’algoritmo è puntuale, paziente, gentile. E poi è pur sempre un terapeuta gratis
Una quota che sale a oltre il 42 per cento per chi la usa invece quando deve prendere decisioni importanti e ha bisogno di consigli su relazioni, scuola o lavoro. Non sorprende. L’algoritmo è puntuale, paziente, gentile, e poi è pur sempre il terapeuta più economico della storia. Che, soprattutto, non ti rimanda alla settimana successiva.
Perché ci fidiamo così tanto di una macchina che non prova nulla?
Il problema è che questa empatia non esiste. È un protocollo linguistico. È un codice californiano di cortesia emotiva che sostituisce (o prova a sostituire) la relazione umana. Una simulazione convincente, certo, ma pur sempre una simulazione. Eppure, per migliaia di persone in momenti difficili è sufficiente per sentire di poter creare un legame. Così, mentre i giornali americani parlano di “AI emotional backlash”, cioè di una reazione emotiva negativa legata all’intelligenza artificiale, e gli avvocati affilano le stilografiche per cause milionarie, emerge la domanda di fondo: perché ci fidiamo così tanto di una macchina che non prova nulla? Forse perché costa poco e risponde sempre. Subito. Con quel tono professionale e mai destabilizzante che nessun essere umano riuscirebbe a mantenere per più di tre minuti.
La mission impossible di dare consistenza emotiva a un algoritmo
Dietro ogni «mi dispiace che tu ti senta così» generato dal chatbot c’è stato, fino a ieri, un team interdisciplinare: psicologi, linguisti computazionali, esperti di sicurezza e un robusto strato di buonismo californiano. Chi se ne va è colei che calibrava quel tono di voce, impedendo al modello di dire cose sgarbate o, peggio, di incoraggiare comportamenti autodistruttivi. Un lavoro impossibile se ci pensiamo: dare consistenza emotiva a un algoritmo basato su pattern statistici. Un po’ come chiedere a una calcolatrice di recitare Leopardi a memoria e con trasporto. Ci prova, certo, ma qualcosa non torna mai del tutto.

Un equilibrio sottilissimo tra sostegno e manipolazione
Su Reddit la comunità è confusa e divisa e gli utenti oscillano tra scetticismo, allarme e critiche feroci. Ma il sentiment generale, possiamo azzardare, è negativo perché l’empatia algoritmica è un’illusione fragile. Il fatto è che il linguaggio perfetto non è un’emozione. E l’emozione, lo sanno persino gli psicoterapeuti più allergici alla poesia, non si simula, si prova. Il grande paradosso, dunque, è chiedere aiuto a qualcosa che non sa cos’è il dolore, in un equilibrio sottilissimo tra sostegno e manipolazione. Perché quando una macchina risponde a un pensiero oscuro, le sue parole non sono neutre: orientano, influenzano, suggeriscono una visione del mondo. E questa visione, inutile dirlo, è profondamente americana.
Deleghiamo alla Silicon Valley la grammatica dei nostri sentimenti
L’empatia diventa protocollo. Il dolore è, come nella migliore tradizione a stelle e strisce, una “challenge”, una sfida. La sofferenza diventa così materiale da riorganizzare tramite check-list e piani a tre, sei, nove mesi. È qui che nasce il vero problema e non è più solo una questione tecnologica: perché stiamo delegando alla Silicon Valley la grammatica delle nostre emozioni?
