Arriva ChatGPT Salute, cosa cambia nella comunicazione della salute? Ne parliamo con Chiara Sgarbossa

Arriva ChatGPT Salute, cosa cambia nella comunicazione della salute? Ne parliamo con Chiara Sgarbossa

L’annuncio dell’arrivo della funzione Salute di ChatGPT segna un momento importante sia nel mondo dell’AI sia nella comunicazione della salute. OpenAI ha presentato ‘Salute’ come un’esperienza che integra in modo sicuro le informazioni sanitarie con l’intelligenza di ChatGPT, “per aiutare gli utenti a sentirsi più informati, preparati e sicuri nella gestione della propria salute”. Si tratta di una nuova stagione dell’AI, che viene applicata a dati sensibili, integrando dati sanitari personali e sistemi clinici: infatti, a pochi giorni da OpenAI, Anthropic ha presentato Claude for Healthcare.

PharmaRetail ha chiesto a Chiara Sgarbossa (nella foto), Direttrice dell’Osservatorio Sanità Digitale del Politecnico di Milano, quale impatto avranno questi strumenti sui pazienti e sulla comunicazione della salute.

 

ChatGPT ha lanciato ‘Salute’: quali sono le caratteristiche di questa nuova possibilità dell’AI?

ChatGPT Salute è una nuova funzionalità di ChatGPT, una sezione separata rispetto alle altre conversazioni che un utente può avere con il proprio profilo. Ad oggi è disponibile solo per un gruppo di utenti iniziali che sono stati coinvolti per testare e sperimentare questa funzionalità per poi estenderla a un maggior numero di utenti. In questo momento non è disponibile in Europa e in Italia e non è ancora stato annunciato alcun piano ufficiale di rilascio nel mercato europeo. In Europa le normative sono molto diverse rispetto agli USA, quindi non è scontato che una soluzione offerta negli Stati Uniti poi possa essere utilizzata anche in Europa. Ovviamente l’obiettivo di questa nuova funzionalità non è quello di sostituire medici e professionisti sanitari, ma piuttosto di supportare i cittadini nella comprensione dei temi riguardanti la salute, aiutandoli ad orientarsi nel sistema salute e fornendo indicazioni generali sul benessere e sullo stile di vita. ChatGPT Salute non è stato progettato per fornire indicazioni, raccomandazioni mediche o diagnosi. Il suo intento dichiarato è quello di aiutare l’utente a prepararsi a visite mediche o a ricevere suggerimenti su alimentazione, attività fisica e stile di vita. Secondo quanto dichiarato da OpenAI, la funzionalità è stata sviluppata nell’arco di due anni con la collaborazione di oltre 260 medici attivi in 60 Paesi e in decine di specialità per comprendere cosa renda una risposta su tematiche di salute utile o potenzialmente dannosa. Questo gruppo ha fornito feedback sui risultati del modello oltre 600.000 volte, coprendo 30 aree di analisi. Lo scopo è stato quello di basare le risposte sulla conoscenza e l’esperienza di professionisti sanitari. Il modello che alimenta ChatGPT Salute è stato valutato secondo standard clinici tramite HealthBench⁠, un framework di valutazione sviluppato con il contributo di una rete di medici in attività, per garantire la qualità delle risposte.

 

I pazienti usano attualmente l’AI per le domande sulla salute?
Secondo OpenAI, ogni settimana oltre 230 milioni di persone nel mondo pongono domande su salute e benessere su ChatGPT, a conferma di come l’AI generativa sia già entrata, di fatto, nelle abitudini di accesso alle informazioni sanitarie dei cittadini. I dati dell’Osservatorio Sanità Digitale del Politecnico di Milano evidenziano che l’11% dei cittadini italiani, e quindi non solo pazienti, ha già utilizzato strumenti di AI generativa in ambito salute, soprattutto per cercare informazioni su problemi di salute e malattie (nel 47% dei casi) e su farmaci e terapie (39%). I principali motivi all’utilizzo sono la rapidità di accesso alle informazioni (50%) e la facilità d’uso (44%).

 

Quale impatto avrà nel mondo della comunicazione della salute: dal rapporto medico paziente, alla comunicazione aziendale?

Sebbene ChatGPT Salute non sia progettato per fornire diagnosi o raccomandazioni mediche, il suo utilizzo potrebbe avere impatti negativi sulla comunicazione tra medico e paziente. Le risposte ottenute attraverso ChatGPT sono infatti immediate e appaiono personalizzate, più di quanto già avveniva con il cosiddetto “Dottor Google”. I pazienti che ricorrono a ChatGPT Salute potrebbero arrivare a mettere in discussione le indicazioni del medico, ritenendo che l’AI offra risposte più aggiornate o affidabili. Questo potrebbe indebolire la credibilità dei medici e generare diffidenza da parte del paziente. È importante ricordare che ChatGPT non conosce la storia clinica né le caratteristiche individuali del paziente; perciò, le indicazioni che fornisce non possono essere considerate né complete né realmente personalizzate e talvolta possono risultare errate.  Le indicazioni del medico devono dunque rimanere il riferimento principale e insostituibile per le decisioni di salute. È fondamentale promuovere un’educazione all’uso corretto e critico dell’AI generativa, che per sua natura fornisce risposte verosimili, ma non necessariamente vere. Allo stesso tempo, gli attori che si occupano di offrire informazioni sulla salute, come ad esempio le aziende sanitarie o le Istituzioni, potrebbero sfruttare le potenzialità di questi strumenti, come chatbot basati su AI, per rendere più facile l’accesso a informazioni validate e certificate, integrandoli nei loro siti Web o canali ufficiali. In questo modo, l’AI può diventare uno strumento di supporto utile e sicuro alla comunicazione sanitaria, invece che un elemento di disorientamento.

 

Come verrà gestito il trattamento di dati sensibili?

Da quanto dichiarato da OpenAI sono state introdotte misure per consentire una maggiore protezione dei dati, rispetto a quanto avviene con la versione tradizionale di ChatGPT. La funzione Salute ha uno spazio dedicato all’interno di ChatGPT, in cui conversazioni, app collegate e file vengono archiviati separatamente dalle altre chat e utilizza memorie separate, garantendo che il contesto sanitario rimanga confinato all’interno dello spazio. Le conversazioni e i file su ChatGPT sono crittografati ed è possibile rafforzare ulteriormente i controlli di accesso con una autenticazione a più fattori.

 

Come verranno utilizzati i dati che i pazienti condividono nelle chat con l’AI?

OpenAI ha chiarito che i dati inseriti in ChatGPT Salute non saranno utilizzati per il training dell’intelligenza artificiale, ma solo per elaborare le risposte alle richieste degli utenti. Resta comunque fondamentale tenere alta l’attenzione sui temi della privacy e della gestione dei dati personali, in particolare di quelli sanitari, che rappresentano informazioni altamente sensibili.  In Europa la protezione dei dati è disciplinata in modo molto più rigoroso rispetto ad altri contesti internazionali, come gli Stati Uniti. Quando si prenderà in considerazione l’utilizzo di strumenti di intelligenza artificiale di questo tipo anche nel mercato europeo, sarà necessario valutarne attentamente la conformità alle normative vigenti – in particolare al regolamento sulla protezione dei dati (GDPR) e all’AI Act, che stabilisce principi e regole per un uso sicuro e trasparente dell’intelligenza artificiale.

 

I medici e gli operatori sanitari utilizzano qualche forma di AI generativa?

Oggi i medici già utilizzano l’intelligenza artificiale generativa: secondo i nostri ultimi dati, il 26% degli specialisti e il 46% dei medici di famiglia dichiara di farne uso, ma oltre il 90% di questi dichiara di utilizzare piattaforme generaliste, come ChatGPT, Gemini, Copilot). Le aree di utilizzo più rilevanti per il futuro sono quelle legate alla ricerca di informazioni scientifiche, la generazione di documenti di sintesi della letteratura, o per produrre documentazione amministrativa. Solo una minoranza immagina un impiego dell’AI generativa anche a supporto della diagnosi. È però fondamentale che anche i medici utilizzino strumenti progettati in modo specifico per il settore sanitario e non piattaforme generaliste. Tra questi possiamo ad esempio citare Med-PaLM, un chatbot medico proposto da Google e basato su un large language model (LLM) in grado di fornire risposte su tematiche cliniche e scientifiche. Anche questi sistemi, tuttavia, non sono esenti da errori: forniscono la risposta più probabile, ma non necessariamente quella corretta. Sebbene i modelli siano addestrati su basi di dati scientificamente solide, possono comunque generare imprecisioni. Rimane dunque fondamentale il ruolo del medico nel valutare criticamente le risposte dell’AI e nel garantirne un impiego responsabile a supporto del proprio lavoro.

(Visited 4 times, 4 visits today)

Potrebbe interessarti anche: