ChatGPT Health: cos’è e cosa cambia per il settore salute - Noetica

Compatibilité
Sauvegarder(0)
partager

Avreste mai immaginato di chiedere una mano all’intelligenza artificiale per leggere le vostre cartelle cliniche, comprenderle e rendere le informazioni più accessibili? Fino a qualche anno fa sarebbe stato sicuramente impensabile (a meno che non si stesse guardando un film di Christopher Nolan).

Eppure, sono già tante le persone che utilizzano questi strumenti per ricevere informazioni sulla propria salute. Secondo l’Osservatorio Sanità Digitale, infatti, già l’11% dei cittadini ricerca informazioni su malattie, farmaci e terapie tramite l’AI. Un modo per avere risposte accessibili in tempi rapidi. In fondo era la stessa cosa che già in molti facevano con Google: ora è cambiato solo lo strumento!

Oggi siamo circondati da informazioni, tra pdf, documenti cartacei, app fitness, smartwatch, programmi per il sonno e chi più ne ha più ne metta. L’habitat ideale per chi vuole essere sempre aggiornato sul proprio stato di salute. Per tante persone, però, tutto ciò assomiglia più ad un labirinto.

Ed è proprio qui che entra in gioco OpenAI. L’azienda americana, infatti, ha lanciato da poche settimane, negli Stati Uniti, ChatGPT Health. In questo articolo andremo a vedere di cosa si tratta, quali sono i limiti e quali, invece, le opportunità per la comunicazione sanitaria e per il settore salute più in generale.

ChatGPT Health: cos’è e perchè merita la nostra attenzione

ChatGPT Health è uno spazio integrato nella piattaforma, dedicato al benessere personale e nato per aiutare gli utenti a orientarsi tra dati, referti e informazioni sanitarie, affiancandoli nella fase di elaborazione e interpretazione dei documenti ufficiali. Questo strumento – ancora in fase di test negli USA – consente agli utenti di caricare i propri documenti sanitari e collegare alcune tra le principali app in ambito salute per rendere il chatbot un collaboratore quotidiano specializzato.

Si tratta, quindi, di un ulteriore tentativo di trasformare la piattaforma in un assistente personale, capace di aiutare le persone a raggiungere i propri obiettivi in ogni ambito della vita. Per riuscire in questo intento OpenAI ha collaborato, per oltre 2 anni, con 260 medici di 60 Paesi nel mondo e ha definito la metodologia con cui offrire risposte attendibili, evitando contenuti fuorvianti o inaffidabili.

Ma attenzione: l’obiettivo di ChatGPT Health resta quello di affiancare le persone nella comprensione del proprio stato di salute senza sostituirsi al rapporto clinico con il medico e senza fornire diagnosi e terapie.

Perché allora merita la nostra attenzione? Perché si inserisce in un momento preciso del percorso di cura: quello in cui il paziente cerca di capire. Prima della diagnosi, prima della scelta della struttura o del professionista, prima ancora del confronto diretto con il medico. È in questa fase che si formano aspettative, convinzioni e livelli di consapevolezza che influenzano profondamente il rapporto con il sistema sanitario.

Strumenti come ChatGPT Health contribuiscono a ridefinire il modo in cui le persone accedono alle informazioni, interpretano i dati clinici e costruiscono il proprio ruolo all’interno del percorso di salute. Un cambiamento che non riguarda solo i pazienti, ma anche aziende, strutture sanitarie e professionisti chiamati a confrontarsi con utenti sempre più informati, esigenti e partecipi.

E se l’AI sbaglia? Dubbi (leciti) sull’attendibilità delle informazioni

Per molti utenti può essere difficile capire dove terminano le informazioni generali e iniziano le raccomandazioni mediche. Ma soprattutto, preoccupa il rischio che qualche utente possa basarsi su consigli parziali o errati, che tralasciano elementi essenziali come, ad esempio, effetti collaterali o allergie.

Oltre alle possibili inesattezze, non va dimenticato anche che, quando si parla di AI generativa, la qualità della risposta dipende per la maggior parte dalla qualità della domanda. Se, quindi, un paziente pone la questione in maniera sbagliata, il rischio di ricevere indicazioni imprecise o fuorvianti cresce proporzionalmente.

Con ChatGPT Health, quindi, si corre lo stesso pericolo che altri giganti mondiali (come Google, ad esempio) hanno già avuto modo di toccare con mano. Vediamo più nel dettaglio a cosa ci stiamo riferendo…

Il caso di Google: AI Overview e salute

È notizia di qualche settimana fa che, contrariamente a quanto sta facendo OpenAI con ChatGPT Health, Google sta compiendo un grosso passo indietro sul tema salute.

Ad accendere i riflettori sulla questione è stato The Guardian che, con il contributo di un team di esperti, ha reso note una serie di presunte inesattezze cliniche derivanti dal modello di intelligenza artificiale di Google (AI Overview). Una mossa che ha portato alla rimozione di alcune ricerche mediche errate dai suoi (ormai inflazionati) sommari in evidenza.

Da poche settimane, quindi, Google non risponde più ad alcune domande in ambito medico e salutistico. Il grande tema su cui ci si è soffermati nel corso di questa “inchiesta” è stato l’assenza di un contesto reale. I modelli di intelligenza artificale generativa, infatti, forniscono valori generali e indicativi, senza considerare elementi essenziali come l’età, il sesso o patologie preesistenti che possono, ovviamente, cambiare i parametri di riferimento.

Nel caso specifico, è stato constatato che l’AI Overview di Google non sarebbe in grado di tener conto di queste differenze, portando a risposte generiche e potenzialmente pericolose per la salute degli utenti.

Un’altra conferma di come, ad oggi, i modelli linguistici di grandi dimensioni debbano ancora fare i conti con il rischio di restituire informazioni sbagliate. Un tema che già è all’ordine del giorno, ma che in un contesto come quello sanitario assume un peso molto più rilevante.

Privacy e dati sensibili: le promesse di OpenAI sotto osservazione

Un altro nodo cruciale da considerare è quello relativo alla privacy, problema su cui si è dibattuto più volte nel panorama AI, soprattutto in ambito europeo.

In questo senso, OpenAI ha assicurato che ChatGPT Health utilizzerà sistemi avanzati di sicurezza. Lo strumento, infatti, è stato costruito per tenere separate le informazioni mediche dal resto delle attività del chatbot. È stato esplicitato, inoltre, che le conversazioni, così come i file condivisi nella “chat”, non verranno utilizzati per addestrare i modelli di base di ChatGPT.

Queste sono solo alcune delle rassicurazioni fornite dal colosso americano: OpenAI ha anche specificato che i partner terzi dovranno rispettare requisiti rigorosi e superare verifiche di sicurezza specifiche, che per gli utenti sarà possibile richiedere l’eliminazione dei propri dati dai sistemi entro 30 giorni e che, per sfruttare alcune funzionalità, servirà un consenso esplicito, revocabile in qualsiasi momento dalle impostazioni.

Tutto questo per dire che sul tema privacy ChatGPT Health sta provando a dare le opportune garanzie. Sarà poi il tempo a dire quanto saranno attendibili.

Quindi, cosa dobbiamo aspettarci da ChatGPT Health?

Al momento, ChatGPT Health è in fase di sperimentazione negli USA. Il nuovo chatbot, per arrivare in Europa (e, quindi, anche in Italia), dovrà sottostare a rigide normative in tema di trattamento dei dati e di dispositivi medici (per l’appunto).

A noi, in attesa di poter testare lo strumento, non resta che iniziare a domandarsi quale sarà l’impatto nel settore salute e sulla comunicazione. Noetica, infatti, è un’agenzia specializzata in marketing sanitario. Grazie all’esperienza acquisita negli anni e alla collaborazione con lo Studio Legale Delli Ponti, specializzato in diritto sanitario, supportiamo aziende e professionisti del settore health tra cui cliniche private, realtà socio-assistenziali e le principali assicurazioni italiane. Ed è indubbio che l’avvento di ChatGPT Health potrebbe cambiare sensibilmente il nostro approccio nel settore.

Immagine di anteprima by Pexels

Coordonnées
Matteo Fantoni