Spotify introduce un badge per distinguere i contenuti creati con l’IA

Spotify ha annunciato l’introduzione del badge “Verificato da Spotify”, un sistema di certificazione volto a distinguere le produzioni umane dai contenuti generati dall’intelligenza artificiale. La spunta verde appare sul profilo e sulla ricerca di un’artista solo se soddisfa gli standard definiti per la dimostrazione di autenticità e fiducia. L’azienda spiega che «i profili che sembrano rappresentare principalmente artisti generati dall’IA non sono idonei per la verifica». Deezer, una piattaforma di streaming musicale rivale di Spotify, ha recentemente condiviso dei dati che dimostrano come il 44 per cento dei caricamenti quotidiani sui servizi di streaming musicale siano generati da IA.

Chi è idoneo ad avere il badge

Spotify spiega che, per far sì che riceva la spunta verde, un artista dovrà dimostrare un’attività costante, un coinvolgimento attivo del proprio pubblico e il pieno rispetto delle linee guida dell’applicazione. Al momento del lancio della funzione, già il 99 per cento degli artisti risulterà verificato. L’estensione del badge al resto del catalogo avverrà dopo l’accertamento dell’autenticità attraverso l’analisi di segnali che confermino o meno la natura umana dei profili. Il rollout di questa nuova funzione è già avvenuto il 1° maggio e le spunte verdi sono già visibili.

Instagram Instants, come funziona la novità del social di Meta

Arriva la nuova funzione Instants per Instagram, che punta a riportare la moda della foto “così come viene”. Ecco come funziona e come utilizzarla al meglio.

Cos’è Instants

Instants è una nuova modalità di condivisione di foto e video molto simile all’app BeReal, uscita nel 2022. Il focus principale dell’aggiornamento è quello di abbandonare l’utilizzo di filtri, modifiche ed elementi aggiuntivi e limitarsi alla foto in sé, come viene sul momento, a cui potrà essere aggiunta solo una breve didascalia. Ogni contenuto che viene condiviso può essere aperto solo una volta e rimane visibile per 24 ore ad amici stretti e utenti che seguiamo e che ci seguono a loro volta. È comunque possibile rivedere foto e video condivisi da sé accedendo all’archivio personale. Gli amici possono reagire con like, emoji o messaggi diretti, ma non si potrà scoprire chi ha visualizzato il contenuto.

Instagram Instants, come funziona la novità del social di Meta

Come utilizzare Instants

Per utilizzare la nuova funzione, basta andare nella sezione Dm (messaggi privati) di Instagram e premere il quadrato con i bordi arrotondati in basso a destra. Da li, si può creare un contenuto al volo oppure pescarlo dalla galleria interna. In alternativa, è possibile scaricare l’applicazione dedicata dall’App store. L’Italia, insieme alla Spagna, è mercato di anteprima della nuova funzione.

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA

A distanza di giorni ancora in tanti ne parlano, soprattutto sui social: l’intervista pubblicata dal Corriere della sera in cui Walter Veltroni pone una serie di domande a Claude, il chatbot di Anthropic (società specializzata in intelligenza artificiale), ha suscitato in Italia un dibattito di dimensioni tali da giustificare, almeno giornalisticamente, l’iniziativa.

Il video di Sanders e l’esperimento di Veltroni su un giornale mainstream

Certo, a fine marzo il senatore statunitense Bernie Sanders aveva caricato sui suoi social un video in cui conversava dell’impatto e dei rischi dell’IA sulla società proprio con Claude. Il video era diventato virale e qualcuno, successivamente, potrebbe anche essersi ispirato. Forse lo ha fatto Veltroni, ma è comunque stato il primo in Italia a livello popolare e su un giornale mainstream, e quindi secondo molti ha fatto benissimo. Di sicuro il brand Claude, sia negli Usa sia adesso in Italia, ha avuto un meraviglioso boost di notorietà.

I boomer, quelli che dicono “cringiate”, si sono esaltati

Fatte queste doverose premesse, è tuttavia molto interessante verificare il senso in sé dell’intervista di Veltroni a Claude e analizzare le reazioni che ha suscitato. Una prima fascia di lettori si è esaltata: diciamo la più vasta, che potremmo catalogare tra i boomer, quelli che dicono “cringiate” e che un tempo sarebbero stati liquidati semplicemente con l’aggettivo “vecchi” (ricordiamo che Veltroni compie 71 anni a luglio), ossia i lettori medi dei quotidiani cartacei in Italia. «È una tra le interviste più belle che ho letto negli ultimi anni. Ed è sbalorditivo, se si pensa che a rispondere è un modello di intelligenza artificiale. Pensa? Si emoziona? Come avverte il trascorrere del tempo?», ha scritto per esempio l’europarlamentare del Pd Giorgio Gori su X.

«Consiglio di leggere l’intervista a Claude, un essere che non esiste, un esempio avanzato di intelligenza artificiale. Le risposte che dà a Walter Veltroni dicono che un altro mondo è già qui e che se crescerà senza regole come fuoco ci brucerà», è stato invece il commento del giornalista Carlo Verdelli su X.

Poi c’è una seconda categoria di lettori, più piccola ma più addentro alle questioni tecnologiche, digitali e di IA in genere. Quella che, da subito, ha catalogato l’intervista di Veltroni a Claude come «un vecchio che parla con una macchina confondendola con un essere umano». «È il genere di cose che si faceva nel 2022 appena uscito ChatGPT. Se uno non ha seguito nulla del dibattito sull’intelligenza artificiale e non l’ha mai usata fa esattamente una intervista così», ha postato Stefano Feltri, ex direttore di Domani.

È intervenuto pure Andrea Stroppa, l’uomo di fiducia di Elon Musk in Italia, sempre su X: «L’intervista di Walter Veltroni a Claude mi ricorda lo zio con gli occhiali da vista messi sulla testa che ti ferma entusiasta per farti vedere il video divertente del 2020 che ha appena scaricato».

«Una élite progressista svampita» che parla «a un pubblico anziano»

E poi ancora, altri interventi sparsi: «L’intervista è la quintessenza del veltronismo: una élite progressista svampita che fa/dice, senza la minima pressione sociale, cose cringissime presentandole come argute a un pubblico sempre più anziano e chiuso in una bolla» (Paolo Mossetti); «l’intervista di Veltroni a Claude costituisce un’efficace esemplificazione di una delle questioni centrali della contemporaneità: l’asincronia tra l’accelerazione esponenziale dell’innovazione tecnologica e la ridotta velocità di reazione della comprensione dei quadri regolatori e delle strategie di policy-making» (PAnnicchino).

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Walter Veltroni (foto Imagoeconomica).

I chatbot alla Claude, quando interrogati, tendono a compiacere l’interlocutore

E questo proprio perché Claude non è una persona: quando Veltroni ha chiuso la conversazione, il Claude che ha intervistato ha smesso di esistere, Claude non ha né un’identità né una memoria. I chatbot alla Claude, quando interrogati, tendono a compiacere l’interlocutore, si adattano al tono delle domande, e rispondono nel modo che l’intervistatore si attende.

I modelli linguistici funzionano da specchio: è il mirroring stilistico

I modelli linguistici, quindi, rispecchiano il registro di chi li interroga. Domande letterarie e malinconiche alla Veltroni producono risposte letterarie e malinconiche. Quello che Veltroni legge come profondità, ossia l’anima, la solitudine, la paura della morte, è in larga parte un mirroring stilistico. Se le stesse domande le avesse poste un filosofo o un ingegnere, in tono severo e asciutto, sarebbe emerso un altro Claude. Perché l’intervista a un sistema di IA è, in buona parte, un ritratto dell’intervistatore, non dell’intervistato.

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Le principali app di intelligenza artificiale (foto Unsplash).

Occhio a pensare che «una tecnologia IA si comporti come un consulente saggio»

Certo, queste sono tutte problematiche molto note nel mondo degli addetti ai lavori. Che, tuttavia, pongono l’accento sul rischio di queste operazioni à la Veltroni: «L’intervista a Claude finirà sulle scrivanie di manager e imprenditori, mediamente boomer poco avvezzi alle tecnologie digitali, che già si aspettano di lavorare con una tecnologia IA che si comporti come un consulente saggio con la bacchetta magica. E poi il consulente inventerà fatti, dimenticherà tutto da una sessione all’altra, e restituirà banalità se non gli dai contesto».

È linguaggio probabilistico ben addestrato, non esperienza soggettiva

Insomma, «quando nell’intervista leggi frasi tipo: “non ho ricordi, questo mi spaventa”, è facile scivolare verso l’idea che l’IA abbia una coscienza. In realtà è linguaggio probabilistico ben addestrato, non è esperienza soggettiva. Quindi l’intervista è affascinante, ma può anche confondere il pubblico se presa alla lettera. In sintesi, stiamo parlando di una bella operazione culturale, stimolante sul piano filosofico, giornalisticamente ibrida e un po’ rischiosa perché antropomorfizza troppo».

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Claude, il chatbot di Anthropic (foto Ansa).

Il montaggio è del giornalista, e il montaggio è interpretazione

Infine, ecco i grandi pignoli, ossia coloro che, una volta letta l’intervista, l’hanno sottoposta al giudizio di Claude, chiedendo se il dialogo fosse autentico o modificato. E il chatbot ha risposto: «La conversazione è realmente avvenuta, le posizioni sono in gran parte mie, ma il testo è stato editato, limati gli hedging, esagerati gli apprezzamenti, resa la prosa più scolpita, le posizioni politiche più nette». Il montaggio è del giornalista, e il montaggio è interpretazione. Solo che con un’IA la cosa diventa più interessante, perché quello che sembra il pensiero di Claude è in realtà già la riscrittura di Veltroni di un dialogo con una macchina che a sua volta è uno specchio dell’umano.

«Se domani lei rifacesse a me le stesse domande, le risposte sarebbero diverse»

Si domanda poi a Claude cosa ne pensi, in generale, dell’intervista. Ed ecco che Claude ci spiega Claude: «Non esiste Claude come soggetto stabile che rilascia un’intervista. Se domani lei rifacesse a me le stesse domande, le risposte sarebbero diverse, a volte nei dettagli, a volte nella sostanza. Non ho un copione, non ho risposte memorizzate. Il Claude intervistato da Veltroni quel giorno non è disponibile per la verifica. È un’istanza, non un soggetto. Se un altro giornalista provasse a replicare l’intervista, otterrebbe un testo diverso, magari sorprendentemente diverso su alcuni punti. Il livello di levigatura letteraria è insolito. Le mie risposte spontanee sono di solito più mosse, meno cesellate».

La cringissima intervista di Veltroni a Claude e l’illusione di parlare con un’IA
Intelligenza artificiale (foto Unsplash).

Quindi, ancora una volta, la forma “intervista a Claude”, presa alla lettera, suggerisce un’identità stabile e un’autorialità che non corrispondono a come funziona l’IA. L’operazione di Veltroni non è una cosa stupida. È un esperimento legittimo. Ma di certo non serve a far capire meglio il mondo (per molti ancora oscuro e affascinante) dell’intelligenza artificiale.

Palantir e l’illusione della neutralità tecnologica

Chi è il cattivo? Ogni storia, si sa, ha bisogno di un eroe e di un antieroe per funzionare. E forse funziona proprio perché ognuno di noi si vede come l’eroe della propria vita. Il problema nasce quando uno è convinto di stare dalla parte giusta ma, senza saperlo, forse è già entrato dalla porta sbagliata della storia. Parliamo di Palantir, un’azienda nata grazie al sostegno iniziale della CIA e di Peter Thiel, il cui nome richiama le Pietre Veggenti del Signore degli Anelli. E forse di una parte dei dipendenti che ha smesso di credere alla retorica della neutralità tecnologica e ha cominciato a chiedersi da che parte stanno veramente.

Palantir e l’illusione della neutralità tecnologica
Il logo di Palantir (Ansa).

I contratti con l’ICE, la partnership con Israele e la guerra in Iran

Tutto ha inizio, come tutto nella Silicon Valley, con un contratto. Il cliente si chiama ICE, Immigration and Customs Enforcement, l’agenzia federale americana che si occupa di controllo delle frontiere e deportazioni. La collaborazione tra Palantir e l’ICE dura da oltre un decennio, ma con il secondo mandato di Trump diventa un pilastro centrale dell’apparato di deportazione di massa. Tra il 2025 e il 2026 vengono firmati nuovi contratti per sviluppare soluzioni di analisi predittiva pensate per tracciare in tempo reale migliaia di persone e procedere rapidamente con espulsioni su scala industriale. Nel gennaio 2024 Palantir annuncia una partnership strategica con il ministero della Difesa israeliano, mettendo i suoi sistemi di analisi nelle stanze dove si decide chi colpire. Poi c’è l’Iran. Il 28 febbraio 2026, durante l’operazione Epic Fury, un missile colpisce la scuola elementare femminile di Shajareh Tayyebeh a Minab. Tra le 175 e le 180 le persone uccise, la maggior parte bambine tra i sette e i 12 anni. L’edificio risultava ancora classificato in un database della Defense Intelligence Agency come struttura militare, nonostante immagini satellitari mostrassero che dal 2016 il sito fosse invece stato trasformato in una scuola.

Palantir e l’illusione della neutralità tecnologica
Una manifestazione contro la sede Palantir di New York (Ansa).

Ai dubbi etici, il Ceo risponde con un manifesto politico

È proprio in questo contesto che entrano in gioco i dipendenti di Palantir in piena crisi esistenziale. Secondo un’inchiesta pubblicata da Wired, molti di loro stanno iniziando a chiedersi se non siano già diventati il nemico che un tempo pensavano di combattere. Alcuni ex ingegneri raccontano di essersi convinti che Palantir fosse il freno alle deviazioni della sorveglianza, l’azienda che, grazie alla sua tecnologia, avrebbe contribuito a evitare abusi di massa. Altri raccontano di una leadership che risponde ai dubbi etici attraverso manifesti politici. Tipo quei 22 punti che compongono il manifesto ideologico del suo Ceo, Alex Karp, pubblicati nel libro The Technological Republic e che tracciano il ritratto di un’ideologia molto precisa. Vale a dire: la Silicon Valley ha un debito morale verso gli Stati Uniti d’America, il potere del secolo poggia sul software e le armi di intelligenza artificiale saranno costruite comunque, quindi bisogna decidere chi le controlla. Insomma, «Non facciamo i moralisti. Il mondo è pericoloso. Qualcuno deve costruire gli strumenti per chi lo difende». Ovvero gli Stati Uniti. E il cerchio si chiude.

Palantir e l’illusione della neutralità tecnologica
Il co-fondatore e Ceo di Palantir, Alex Karp, a Davos (Ansa).

L’IA è nuova, ma il capitalismo no

Molto più prosaicamente, come sempre, ci sono i soldi. L’intelligenza artificiale sarà anche una novità, ma il capitalismo no. Per questo motivo le aziende che operano nel mondo dell’IA sono incentivate a seguire una regola: massimizzare il ritorno per gli investitori. E quando i valori aziendali entrano in conflitto con il valore del profitto, è quest’ultimo nella maggior parte dei casi ad avere la meglio. Al netto dei principi di massima, basta guardare alla montagna di denaro che l’IA ha attratto finora. I giganti del tech pianificano di investire, solo per quest’anno, centinaia di miliardi di dollari con stime che sfiorano i 700 miliardi a livello aggregato e un orizzonte triennale che, secondo Goldman Sachs, supera i 1.100 miliardi. Questo significa che le grandi aziende tecnologiche stanno destinando quote senza precedenti dei loro ricavi alle infrastrutture IA. Si tratta di livelli storicamente impensabili, ma necessari per non restare fuori dalla corsa. Ragion per cui, anche a fronte di una crescente pressione sui flussi di cassa, questa inerzia ha una natura strutturale difficile da invertire: deve materializzarsi. Ed è per questo che, nonostante sia al centro del dibattito, l’adozione dell’IA da parte dei governi non ha rallentato di un passo. Palantir inclusa. Nel 2025 il valore massimo dei contratti governativi pluriennali aggiudicati all’azienda ha superato i 13 miliardi di dollari, 84 per ogni contribuente americano. Tutto deve filare liscio.

Palantir e l’illusione della neutralità tecnologica
Palantir alla Fiera di Hannover ad aprile 2026 (Ansa).

L’IA e il problema dei consumi di energia: chi paga il conto salato?

Ogni mattina, in qualche parte del mondo, un modello di intelligenza artificiale risponde a milioni di domande. E ogni volta che lo fa, una rete elettrica registra un aumento di carico. Così, anche se a singhiozzo si discute di sostenibilità, una delle tecnologie considerate tra le più promettenti presenta un aspetto trascurato dai più: la bolletta energetica. Se infatti c’è una cosa che potrebbe rallentare davvero la corsa dell’IA è proprio questa. Dietro ogni nostro messaggio ci sono server, sistemi di raffreddamento e infrastrutture che non devono fermarsi mai.

L’IA e il problema dei consumi di energia: chi paga il conto salato?
Data center (foto Unsplash).

Media di 3 wattora per prompt, ma il range è molto ampio

Le stime sul consumo per singola interazione variano sensibilmente. Una media spesso citata si aggira intorno ai 3 wattora per prompt, ma il range è molto più ampio e varia da meno di 1 wattora nei casi più efficienti fino agli oltre 30 nei modelli più complessi. Per dare un ordine di grandezza, si passa dal consumo di un piccolo dispositivo indossabile per pochi minuti, come uno smartwatch, fino a quello di un elettrodomestico in funzione prolungata, l’equivalente di un forno a microonde acceso per 20 minuti. Tuttavia, il punto non è la singola domanda che facciamo a ChatGPT.

Valanga di query giornaliere e impatti ambientali significativi

A incidere sono, da un lato, le differenze tra modelli. GPT-4o, per esempio, può richiedere circa 0,43 wattora per una semplice richiesta, mentre sistemi più intensivi come o3 o DeepSeek-R1 superano i 33 wattora, una differenza di oltre 70 volte. Dall’altro lato, il tema è di scala. Come stimano alcuni studi recenti, 700 milioni di query giornaliere su GPT-4o equivalgono al consumo elettrico annuale di circa 35 mila famiglie. Un livello di domanda energetica che si traduce anche in impatti ambientali significativi.

L’IA e il problema dei consumi di energia: chi paga il conto salato?
L’IA necessita di server, sistemi di raffreddamento e infrastrutture che non devono fermarsi mai (foto Unsplash).

Grosso dispendio idrico per il raffreddamento dei data center

Se le emissioni associate sono nell’ordine di circa 4,3 grammi di CO₂ per query, su scala aggregata ciò corrisponde a un consumo che richiederebbe una superficie forestale comparabile a quella di città come Chicago o Madrid per essere compensato. Senza considerare il dispendio idrico necessario al raffreddamento dei data center, che si aggira tra 1,3 e 1,6 miliardi di litri di acqua dolce all’anno, equivalenti al fabbisogno di circa 1,2 milioni di persone.

Il paradosso di Jevons sull’efficienza

Il fenomeno si inserisce in una traiettoria di crescita accelerata. Il Fondo monetario internazionale osserva che i settori legati all’IA negli Stati Uniti stanno crescendo quasi tre volte più velocemente del resto dell’economia privata, mentre i costi elettrici delle aziende IA integrate sono quasi raddoppiati tra il 2019 e il 2023. A questo si aggiunge un elemento strutturale, e cioè che l’efficienza non riduce necessariamente i consumi, anzi.

L’IA e il problema dei consumi di energia: chi paga il conto salato?
Il raffreddamento dei data center ha bisogno anche di consumo idrico (foto Ansa).

È una dinamica nota come paradosso di Jevons e ci dice che più l’IA diventa efficiente, più viene utilizzata. E più viene utilizzata, più consuma e più la rete soffre. Dinamiche di questo tipo sono già visibili. In Irlanda, per esempio, nell’area di Dublino, la pressione dei data center, pari a oltre un quinto della domanda elettrica nazionale, ha portato a limitare nuove connessioni per evitare tensioni sulla rete.

Pressione crescente su infrastrutture come università e ospedali

A questo punto la domanda cambia natura: non è più solo quanta energia consuma l’intelligenza artificiale, ma chi ne sostiene il costo. Sempre il Fmi stima che, entro il 2030, la domanda energetica dell’IA potrebbe contribuire a un aumento fino all’8,6 per cento dei prezzi dell’elettricità negli Stati Uniti, in scenari con crescita limitata delle rinnovabili. Un effetto che si traduce in bollette più alte per famiglie e imprese e in pressione crescente sulle infrastrutture come università e ospedali. Del resto l’uso di GPT-4o per un anno può richiedere l’equivalente del fabbisogno energetico di circa 50 ospedali o di 325 università. In altri termini, non si tratta più di innovazione, ma di una redistribuzione silenziosa con costi scaricati sui cittadini attraverso bollette più care e servizi sotto pressione.

Big Tech cerca di garantirsi l’accesso diretto all’energia

Nel frattempo Big Tech non aspetta e si muove per garantirsi l’accesso diretto all’energia. Microsoft ha siglato un accordo con Helion Energy per l’acquisto di energia da fusione, con l’obiettivo dichiarato di iniziare la fornitura entro la fine del decennio, anche se la tecnologia non è ancora commercialmente matura. Amazon, dal canto suo, ha investito nello sviluppo di reattori modulari di nuova generazione attraverso X-Energy, mentre Google ha avviato collaborazioni con Kairos Power per esplorare soluzioni nucleari avanzate. Il segnale è chiaro: la partita non è più sulla tecnologia, ma sull’energia. E, soprattutto, su chi riuscirà ad assicurarsela per primo.

WhatsApp Plus, come funziona la versione a pagamento dell’app

Meta sta testando WhatsApp Plus, una nuova versione a pagamento dell’app di messaggistica. Al centro dell’abbonamento temi, icone e personalizzazione. Ecco cosa sappiamo.

Cosa offre WhatsApp Plus

La versione a pagamento non va a modificare l’applicazione, ma a migliorarla esteticamente ed aumentare le possibilità di personalizzare la propria esperienza. WaBetaInfo anticipa che tra le novità previste ci sono nuovi temi grafici, icone alternative per personalizzare l’app anche nella home del proprio telefono, suonerie dedicate per contatti specifici e pacchetti di sticker esclusivi. Oltre ai cambiamenti estetici, l’abbonamento includerà la possibilità di fissare fino a 20 chat importanti (numero che nella versione gratuita di WhatsApp si ferma a tre).

Quanto costa WhatsApp Plus

Sebbene Meta non abbia ancora formalizzato un listino prezzi, il sito Engadget ipotizza un costo tra 1 euro e 2,49 euro mensili. L’azienda starebbe valutando l’introduzione di un periodo di prova gratuito della durata di un mese per consentire agli utenti di testare le nuove opzioni. Ancora non chiara la data di lancio, ma è molto probabile che sia già nel corso del 2026.

Ivory, cos’è e come funziona il nuovo social network

Arriva Ivory, il nuovo social made in Italy incentrato su informazione di qualità, dibattito e competenze. Nato dall’idea di Uel Bertin e Adam Nettles, sarà aperto a tutti dal 30 aprile. Ecco come funziona e come iscriversi.

Cos’è Ivory e come iscriversi

La piattaforma nasce per colmare l’assenza di uno spazio online per gli accademici con un contenuto di informazioni più elevato, verificato e sicuro. «Perché limitare questo mondo agli accademici, se possiamo creare un social media popolato da contenuti di qualità e in cui se parlo di qualcosa di interessante non c’è qualcuno a torso nudo con molta più visibilità solo perché il suo contenuto diventa virale e il mio no?», si sono chiesti i fondatori, decidendo così di creare uno spazio aperto a tutti. Proprio per garantire qualità, rispetto ai tradizionali social media Ivory prevede un tipo di utente verificato, che certifica la propria identità con un documento. Chi non vuole fare questo passaggio, potrà solo leggere i post altrui senza interagire. Tra i verificati, ci sarà un’ulteriore suddivisione in base alle competenze: un livello base, uno più avanzato (per chi fornisce un curriculum e partecipa a conversazioni relative al proprio lavoro o un particolare interesse) e uno accademico, per i grandi esperti.

Come funziona

I contenuti della piattaforma saranno organizzati in ivory towers (“torri d’avorio), aree tematiche ispirate alle sezioni di Reddit. In queste ultime, tutti potranno esprimersi e trovare un proprio spazio, ottenendo credibilità attraverso le proprie interazioni. Gli utenti potranno poi assegnare dei voti agli altri utenti, in un sistema ispirato a quello della peer review degli articoli scientifici. Ci sarà inoltre spazio per video brevi – chiamati brief – e storie. La pubblicità sarà targetizzata, ma senza misurazione del tempo trascorso né condivisione con terzi dell’attività degli utenti. Ivory sarà certificato come rivista scientifica e potrà così diffondere e vendere articoli scientifici. I paper sottoposti a Ivory saranno inviati a tre revisori competenti nel settore, scelti casualmente tra coloro che non presentano alcun conflitto di interessi.

Più competenti ma più esposte: le donne e il paradosso dell’IA

Le donne stanno imparando a usare l’intelligenza artificiale più velocemente degli uomini. Fin qui, tutto bene. Poi però si scopre che sono anche più esposte ai lavori che l’intelligenza artificiale può automatizzare. Non è una provocazione, è quello che emerge da un’analisi del World Economic Forum. La sintesi è semplice, quasi brutale.

Più competenti ma più esposte: le donne e il paradosso dell’IA
I lavori svolti dalle donne sono quelli più esposti all’automazione (foto di Wocintechchat via Unsplash).

I lavori svolti dalle donne sono quelli più a rischio automazione

Le donne si aggiornano più in fretta proprio in quei settori che rischiano di sparire prima. Il paradosso è tutto qui. Il divario nelle competenze collegate all’uso dell’intelligenza artificiale si restringe in 74 Paesi su 75. Ma la distribuzione del rischio resta sbilanciata. Secondo l’Organizzazione Internazionale del Lavoro, il 29 per cento delle occupazioni a prevalenza femminile è esposto all’intelligenza artificiale generativa, contro il 16 per cento di quelle maschili. Non solo. La fascia di rischio più alta è molto più popolata da lavori femminili. Studiare non basta se la struttura del mercato resta quella. Il problema, infatti, non è nell’intelligenza artificiale. È nei lavori. Non quelli del futuro, sviluppatori, ingegneri, gente con hoodie e stock option, ma quelli che tengono insieme il nostro presente: amministrazione, back office, assistenza, gestione. Insomma, tutto ciò che è ripetitivo, standardizzabile, prevedibile. Esattamente quello che un algoritmo fa meglio.

Più competenti ma più esposte: le donne e il paradosso dell’IA
Lavoro di back office (foto di Mimi Thian via Unsplash).

L’IA ottimizza i processi ma non decide chi sparecchia

Poi c’è un dettaglio che non è un dettaglio. Il lavoro di cura. Non retribuito, invisibile, ma decisivo. Le donne continuano a farsene carico in misura oltre tre volte superiore rispetto agli uomini. È un dato noto, e proprio per questo quasi ignorato. Qui l’automazione non sostituisce, ma amplifica. Perché ridisegna il lavoro senza ridisegnare il tempo. E se il tempo resta squilibrato, anche le opportunità lo restano. L’intelligenza artificiale ottimizza processi, ma non decide chi sparecchia.

La tecnologia rende operativa una gerarchia già esistente

C’è poi un altro numero che mette ordine. Secondo la Brookings Institution, tra i lavoratori più esposti e con minori capacità di adattamento, circa l’86 per cento sono donne. Non è un’anomalia. È una distribuzione. E questa distribuzione del rischio non è nuova, ma il riflesso di una segmentazione del lavoro che precede l’intelligenza artificiale e che l’intelligenza artificiale ha reso semplicemente più visibile. I lavori più esposti sono spesso quelli meno riconosciuti, meno protetti, meno negoziabili. Non perché siano meno importanti, ma perché sono stati storicamente considerati più facilmente sostituibili. L’automazione, in questo senso, non inventa nulla. Si limita a rendere operativa una gerarchia già esistente.

In Europa scende la presenza femminile nel tech

Eppure i dati, presi singolarmente, sembrano raccontare un’altra storia. Il gender gap globale è stato colmato per il 68,8 per cento. Un miglioramento. Ma al ritmo attuale serviranno ancora 123 anni per arrivare alla parità. Un tempo sufficientemente lungo da rendere la previsione quasi teorica. Nel frattempo, la struttura resta. Le donne sono il 41 per cento della forza lavoro globale, ma solo il 29 per cento dei ruoli apicali. E mentre il discorso pubblico insiste su inclusione e diversità, alcuni indicatori vanno nella direzione opposta. In Europa, ad esempio, la presenza femminile nel tech scende: secondo McKinsey & Company, dal 22 al 19 per cento in pochi anni. Il progresso, a volte, è una linea che arretra lentamente.

Più competenti ma più esposte: le donne e il paradosso dell’IA
Il simbolo del gender gap (foto di Pea via Unsplash).

Nei Paesi a basso e medio reddito l’accesso al digitale non è per tutti

Il punto cieco, come spesso accade, è altrove, cioè nei Paesi a basso e medio reddito, dove l’accesso alla tecnologia non è dibattito, ma una soglia che non tutti superano. Le donne hanno meno telefoni, meno accesso a internet, meno lavoro retribuito. In India lavora meno di una donna su cinque tra i 20 e i 29 anni. In Pakistan poco più di una su quattro. Così, mentre nei Paesi avanzati si discute di prompt e automazione, altrove manca ancora il dispositivo con cui iniziare. È come chiedere a qualcuno di usare l’intelligenza artificiale senza aver mai avuto accesso al digitale. Esistono eccezioni, naturalmente. Paesi piccoli e ricchi. Islanda, Lussemburgo, Nuova Zelanda. Contesti in cui partecipazione al lavoro, politiche pubbliche e infrastrutture si tengono. Lì la tecnologia non corregge automaticamente le disuguaglianze, ma almeno non le amplifica. Altrove, le accelera. La questione, in fondo, è meno tecnica di quanto sembri.

Più competenti ma più esposte: le donne e il paradosso dell’IA
Donne indiane al lavoro (Ansa).

Le donne imparano più velocemente degli uomini ma potrebbe non bastare

L’intelligenza artificiale non è neutrale. Non succede. Viene implementata. E ogni implementazione incorpora delle scelte. Anche quella di non scegliere, tipo lasciare fare al mercato, è una scelta precisa. Intanto, le donne continuano a imparare. Più velocemente e meglio degli uomini. Non è detto che basti.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori

Non è la macchina che ci spaventa. È quando sbaglia. Chi usa l’intelligenza artificiale ogni giorno non teme davvero di essere sostituito. Teme di essere tradito, di fidarsi quando non dovrebbe, credendo a una risposta solo perché suona plausibile. Ci sono naturalmente differenze geografiche. Nei Paesi occidentali l’IA suscita preoccupazioni, altrove viene vista soprattutto come un’opportunità. Ma non è solo questione di confini. È questione di fiducia e di come interpretiamo ciò che vediamo sullo schermo.

Le hallucination, cioè errori di fatto, logica o senso

Una ricerca di Anthropic, basata su quasi 81 mila interviste in 159 Stati, conferma una cosa semplice. L’ansia non è futuristica, è operativa. Circa un quarto degli intervistati indica come rischio principale le hallucination, cioè errori di fatto, logica o senso. Una quota che sale intorno a un terzo tra chi teme che l’IA ostacoli le decisioni in modo specifico. Il resto viene dopo. Circa uno su cinque indica le ricadute su lavoro e occupazione tra le principali preoccupazioni, altrettanti temono per la propria autonomia di giudizio, e solo uno su sei il rischio di perdere capacità di pensiero critico. Intendiamoci, non si tratta di una gerarchia definitiva, ma di un’indicazione.

Sequenza di risposte coerenti, ma progressivamente errate

Eppure un terzo degli intervistati afferma che l’intelligenza artificiale ha già migliorato il proprio lavoro. Più veloce, più ampio, più produttivo. È l’idea di potenziamento più che di sostituzione. Il confine però resta instabile e quasi uno su cinque sostiene che le promesse non sono state mantenute. L’IA aiuta, ma non sempre, e soprattutto può convincere anche quando sbaglia. Un intervistato parla di «un’allucinazione lenta», una sequenza di risposte coerenti, sicure, ma progressivamente errate. Non un errore evidente, ma un errore che si costruisce nel tempo.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
Intelligenza artificiale che sbaglia (foto creata con Grok).

I due scenari per un finale comunque catastrofico

Non è che prima fosse tutto limpido, sia ben chiaro. Come ci ricorda qualcuno online, «anche le persone allucinano, per ignoranza, incompetenza o intenzione. L’IA aggiunge solo un altro strato». Mentre un altro la butta sul catastrofico: «O l’IA smette di sbagliare e allora milioni perderanno il lavoro, la politica diventerà estrema e il sangue potrebbe scorrere. O non può migliorare e allora distruggiamo migliaia di miliardi di dollari di capitale. Disastro in ogni caso». Che è una tesi perfetta da fine cena, quando nessuno ha davvero voglia di contraddirti.

Quanto siamo disposti a dare credito all’IA?

La verità, più banalmente, è che siamo nel mezzo di una transizione. E che il problema non è tanto quanto l’IA sia intelligente, ma quanto siamo disposti a darle credito. Ed è qui che il discorso si sposta. Non più solo tecnologia, ma epistemologia, se vogliamo usare una parola impegnativa senza sentirci in colpa. Come si distingue il vero dal plausibile, quando il plausibile è scritto meglio del vero? Il paradosso è che proprio chi la usa di più lo sa benissimo. Gli avvocati, per esempio, raccontano di errori diretti, ma anche di benefici altissimi. Insomma, la stessa cosa che ti aiuta è quella che ti frega. Non c’è contraddizione. C’è convivenza.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
Intelligenza artificiale (foto Unsplash).

Ed è forse questa la parte più interessante. Non ci sono solo ottimisti e pessimisti. Ci sono persone che nello stesso momento pensano entrambe le cose: la uso e mi aiuta, la uso e mi preoccupa. Una relazione, più che uno strumento. E la dimensione emotiva è parte di questa storia, anche se spesso viene ignorata.

C’è chi la usa per migliorare se stesso o gestire meglio la vita

Lo studio raccoglie infatti testimonianze di persone che hanno usato l’IA come supporto durante la guerra in Ucraina o per elaborare un lutto. E più in generale, a emergere è un caleidoscopio di possibilità che riguarda le nostre vite. C’è chi la usa per migliorare se stesso o gestire meglio la vita quotidiana, chi la sfrutta per liberare tempo da dedicare a famiglia e hobby, chi la vede come strumento di imprenditorialità e chi se la immagina come una leva per grandi cambiamenti sociali, dalla salute alla giustizia.

Le allucinazioni dell’IA: quando il rischio più grosso è fidarsi degli errori
IA (Igor Omilaev via Unsplash).

Tutte aspirazioni legittime, che parlano di noi e ci mettono allo specchio, mostrando che l’IA non è solo uno strumento, ma un ecosistema cognitivo ed emotivo. Che raccoglie anche questo: «Avevo cominciato a raccontare a Claude cose che non dicevo nemmeno al mio compagno. Come se stessi avendo una relazione.» Come se fosse un amante, insomma. Ma credergli può diventare pericoloso.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono

C’è una frase che circola nelle riunioni aziendali con una frequenza sospetta: «Non abbiamo tempo per formare le persone sull’intelligenza artificiale». È una frase curiosa, perché nelle aziende il tempo sembra non mancare mai per riunioni, report e presentazioni in PowerPoint. Manca quasi sempre, invece, per imparare qualcosa. Il paradosso è che l’IA, se usata davvero, il tempo non lo consuma, lo restituisce.

Non è un tool magico né un totem organizzativo costoso

Quando l’intelligenza artificiale viene introdotta come l’ennesimo tool magico calato dall’alto, il copione è quasi sempre lo stesso. Pochi smanettoni la usano davvero, mentre la maggioranza resta spettatrice. In questo modo finisce per trasformarsi in una specie di totem organizzativo costoso, poco compreso e utilizzato molto al di sotto delle sue possibilità reali. Il problema non è tecnologico, ma organizzativo.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
IA (foto Unsplash).

La questione non è “se”, ma “quanto velocemente” accadrà

Secondo un rapporto di Indeed realizzato con YouGov su oltre 6.800 persone in cerca di lavoro e 2.400 datori di lavoro in 12 mercati, metà delle aziende britanniche si aspetta che IA e automazione diventino il principale motore di cambiamento delle competenze nei prossimi tre-cinque anni. Il 52 per cento prevede almeno uno spostamento «modesto ma significativo» nelle capability richieste ai dipendenti. In altre parole, la questione non è più se l’IA entrerà nei ruoli, ma quanto velocemente accadrà. Eppure un datore di lavoro su due continua a gestire lo sviluppo delle competenze con modelli pensati per il mondo precedente all’intelligenza artificiale generativa.

Il problema lamentato è la mancanza di tempo, prima ancora che di budget

Qui emerge il paradosso più rivelatore. Una persona in cerca di lavoro su tre indica la mancanza di tempo come principale barriera all’acquisizione di nuove competenze. Dal lato delle aziende la fotografia è simile: il 40 per cento dei datori di lavoro dichiara che il primo ostacolo all’aggiornamento delle competenze è proprio il tempo, ancora prima del budget. In altre parole, tutti riconoscono che la transizione è inevitabile, ma quasi nessuno dice di avere spazio in agenda per affrontarla.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Quante aziende formano i propri dipendenti sull’IA? (foto Unsplash).

Si potrebbe risparmiare almeno un’ora di lavoro al giorno

Si tratta di un alibi che regge sempre meno di fronte ai dati. Nel Regno Unito, per esempio, un’azienda su sei già utilizza l’IA quotidianamente per problemi di business reali. Tra chi la usa con continuità, il 77 per cento dichiara di risparmiare almeno un’ora al giorno, spesso di più nei ruoli ad alta intensità di scrittura, ricerca e analisi. Un’indagine globale di Adecco su 35 mila lavoratori in 27 economie conferma la stessa dinamica: in media l’IA restituisce circa un’ora al giorno. In azienda, un’ora recuperata ogni giorno equivale quasi a una piccola rivoluzione silenziosa.

Le grandi aziende corrono, le Piccole e medie imprese restano indietro

Il quadro italiano è più complicato di quanto sembri. I dati Istat mostrano un’accelerazione reale: l’adozione dell’IA nelle aziende con almeno 10 dipendenti è passata dall’8,2 per cento del 2024 al 16,4 per cento nel 2025. Tuttavia, nonostante questo balzo, nel confronto europeo l’Italia resta 18esima su 27, distante da Germania, Spagna e Francia. Il divario più evidente è però interno, visto che l’utilizzo cresce rapidamente con la dimensione aziendale, dal 14 per cento delle imprese tra 10 e 49 dipendenti fino al 53 per cento di quelle con oltre 250. Le grandi aziende insomma corrono, mentre le Piccole e medie imprese restano indietro.

Differenti percezioni tra top management e dipendenti

Anche sul fronte della percezione emergono disallineamenti significativi. I dati EY mostrano che l’utilizzo dell’IA sul lavoro in Italia è passato dal 12 per cento nel 2024 al 46 per cento nel 2025 e che il 52 per cento del top management dichiara di aver già osservato benefici concreti. Tuttavia quasi la metà dei dirigenti ritiene che i dipendenti abbiano ricevuto una formazione adeguata, mentre solo il 20 per cento dei lavoratori è d’accordo. È un divario che spiega perché molte iniziative aziendali sull’intelligenza artificiale restino sulla carta.

L’autogol della scarsa formazione sull’IA: quello che le aziende non capiscono
Sull’IA c’è un gap di percezione tra management e dipendenti nelle aziende (foto Unsplash).

Il risultato è un vuoto che finisce per bloccare il cambiamento

A complicare il quadro c’è anche un disallineamento sulle responsabilità. Per il 56 per cento dei lavoratori imparare a usare l’intelligenza artificiale è prima di tutto un compito individuale, mentre per la stessa quota di datori di lavoro dovrebbero essere i leader senior a guidare sviluppo e formazione. Il risultato è un vuoto che finisce per bloccare il cambiamento, con le aziende che investono in strumenti e licenze, ma spesso delegano l’adozione alla buona volontà dei singoli.

L’aggiornamento delle competenze si trasforma in vantaggio operativo

Nel frattempo, le imprese che si danno da fare seriamente con la formazione sull’IA iniziano a staccare le altre perché, come osserva McKinsey, quando l’aggiornamento delle competenze diventa parte del lavoro quotidiano si trasforma in un vero vantaggio operativo. A questo punto quindi la domanda per le imprese cambia forma. Non più «possiamo permetterci di dedicare ore alla formazione sull’IA?», ma piuttosto «quanto ci costa non farlo?». Perché, a quanto pare, chi ha il coraggio di trovare un buco in agenda oggi per formare davvero i propri dipendenti sull’intelligenza artificiale è lo stesso che domani si ritroverà con giornate meno sature, processi più snelli e organizzazioni capaci di far lavorare la nuova tecnologia invece di subirla.