{"id":827789,"date":"2026-04-17T00:41:00","date_gmt":"2026-04-17T00:41:00","guid":{"rendered":"http:\/\/nugnes.com\/?guid=9655fb1031120076b3b995387feb62aa"},"modified":"2026-04-17T00:41:00","modified_gmt":"2026-04-17T00:41:00","slug":"ia-e-salute-una-risposta-su-due-e-inaffidabile","status":"publish","type":"post","link":"https:\/\/nugnes.com\/?p=827789","title":{"rendered":"IA e salute: una risposta su due \u00e8 inaffidabile"},"content":{"rendered":"<p>AGI - I <strong>chatbot<\/strong> basati su <strong>intelligenza artificiale<\/strong>, sempre pi\u00f9 utilizzati anche per ottenere<strong> informazioni sanitarie<\/strong>, forniscono risposte spesso incomplete o inesatte, con possibili conseguenze per la salute degli utenti. Lo evidenzia uno studio guidato da Nicholas Tiller del Lundquist Institute for Biomedical Innovation at Harbor-UCLA Medical Center, pubblicato sulla rivista BMJ Open, che ha analizzato le prestazioni di cinque tra i sistemi pi\u00f9 diffusi.<\/p>\n<h2>Come \u00e8 stata condotta la ricerca<\/h2>\n<p>I ricercatori hanno sottoposto i chatbot a 250 domande su temi particolarmente sensibili e gi\u00e0 esposti alla disinformazione, come <strong>vaccini<\/strong>, <strong>tumori<\/strong>, <strong>nutrizione<\/strong>, <strong>cellule staminali<\/strong> e <strong>prestazioni sportive<\/strong>. Le domande, formulate sia in modalit\u00e0 aperta sia chiusa, riproducevano richieste realistiche di utenti alla ricerca di informazioni mediche online e, in alcuni casi, erano progettate per mettere alla prova i modelli rispetto a contenuti fuorvianti o scientificamente controversi.<\/p>\n<h2>I risultati: met\u00e0 delle risposte presenta criticit\u00e0<\/h2>\n<p>Dall'analisi emerge che il 50% delle risposte presenta criticit\u00e0: il 30% \u00e8 stato classificato come \"parzialmente problematico\", mentre il 20% come \"altamente problematico\", ossia tale da poter orientare un utente verso scelte sanitarie inefficaci o addirittura dannose se seguite senza consulto medico. Le risposte generate a domande aperte si sono dimostrate significativamente pi\u00f9 vulnerabili, con una maggiore tendenza a produrre contenuti errati o fuorvianti, mentre le domande chiuse hanno portato pi\u00f9 spesso a risultati corretti.<\/p>\n<h2>Risposte sicure ma non sempre affidabili<\/h2>\n<p>Un elemento rilevante riguarda il tono delle risposte: i chatbot tendono a esprimersi con sicurezza e apparente autorevolezza, raramente accompagnando le informazioni con avvertenze, limiti o inviti a rivolgersi a un professionista. Questo pu\u00f2 aumentare il rischio che gli utenti interpretino le risposte come affidabili e definitive.<\/p>\n<p>Anche la qualit\u00e0 delle fonti citate risulta problematica: in media, la completezza delle referenze si ferma al 40% e sono frequenti casi di citazioni inesistenti o imprecise, un fenomeno noto come \"hallucination\".<\/p>\n<h2>I temi pi\u00f9 critici: dove i chatbot sbagliano di pi\u00f9<\/h2>\n<p>Dal punto di vista della comprensibilit\u00e0, i testi prodotti si collocano su un livello linguistico elevato, equivalente a quello richiesto a un laureato, rendendo pi\u00f9 difficile l'accesso alle informazioni per una parte significativa della popolazione. Tra i diversi ambiti analizzati, i chatbot hanno mostrato prestazioni migliori su vaccini e tumori, mentre i risultati peggiori riguardano cellule staminali, nutrizione e performance atletica.<\/p>\n<h2>Perch\u00e9 i chatbot commettono errori<\/h2>\n<p>Lo studio sottolinea che queste criticit\u00e0 derivano anche dalla natura stessa dei modelli generativi, che non ragionano ne' valutano criticamente le evidenze, ma producono risposte sulla base di schemi statistici appresi dai dati di addestramento. Questi includono anche contenuti provenienti da forum, social media e fonti non sempre affidabili, mentre solo una parte limitata della letteratura scientifica \u00e8 effettivamente accessibile.<\/p>\n<h2>I rischi per gli utenti e le possibili soluzioni<\/h2>\n<p>In un contesto in cui sempre pi\u00f9 persone utilizzano i chatbot come sostituti dei motori di ricerca o come strumenti per orientarsi in ambito sanitario, i ricercatori richiamano l'attenzione sulla necessita' di interventi mirati. Tra le priorit\u00e0 indicate figurano programmi di educazione per il pubblico, formazione specifica per i professionisti e l'introduzione di meccanismi di supervisione e regolamentazione. L'obiettivo \u00e8 evitare che questi strumenti, pur offrendo grandi potenzialit\u00e0, contribuiscano alla diffusione di informazioni scorrette o fuorvianti in ambito medico.&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>AGI &#8211; I chatbot basati su intelligenza artificiale, sempre pi\u00f9 utilizzati anche per ottenere informazioni sanitarie, forniscono risposte spesso incomplete o inesatte, con possibili conseguenze per la salute degli utenti. Lo evidenzia uno studio guidato&#8230;<\/p>\n","protected":false},"author":298,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[10],"tags":[],"class_list":["post-827789","post","type-post","status-publish","format-standard","hentry","category-cronaca"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/posts\/827789","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/users\/298"}],"replies":[{"embeddable":true,"href":"https:\/\/nugnes.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=827789"}],"version-history":[{"count":1,"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/posts\/827789\/revisions"}],"predecessor-version":[{"id":827790,"href":"https:\/\/nugnes.com\/index.php?rest_route=\/wp\/v2\/posts\/827789\/revisions\/827790"}],"wp:attachment":[{"href":"https:\/\/nugnes.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=827789"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/nugnes.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=827789"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/nugnes.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=827789"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}