ChatGPT Salute è il nuovo spazio che OpenAI sta preparando per portare ordine in uno dei territori più delicati e affollati del web: quello delle informazioni sanitarie.
Da anni, in realtà, l’intelligenza artificiale è già entrata nelle abitudini quotidiane delle persone quando si parla di salute: sono molti gli utenti che pongono domande su sintomi, valori delle analisi, farmaci prescritti e corretti stili di vita.
OpenAI stima che oltre 230 milioni di persone ogni settimana utilizzino ChatGPT proprio per questo tipo di richieste: un uso di massa che finora si muoveva in una sorta di “zona grigia”. Secondo i creatori della piattaforma, l’hub nasce per dare una forma strutturata a questo fenomeno.
Ma, come sempre accade quando si parla di intelligenza artificiale, esistono rischi e dubbi etici. Ecco un approfondimento.
Uno spazio separato per la salute (che non farà diagnosi)
La novità più rilevante non è tanto il fatto che si possa parlare di salute con un’AI – cosa che già avviene – ma il contesto in cui avviene questo dialogo: ChatGPT Salute opererà in un’area distinta rispetto al chatbot generalista, con un’interfaccia dedicata e memorie separate.
In pratica, le conversazioni su referti, terapie o sintomi non si mescolano con il resto delle chat e le informazioni sanitarie rimarranno protette e isolate. Un principio semplice, ma fondamentale, se si considera la natura estremamente sensibile dei dati coinvolti.
All’interno di questo spazio, l’utente può caricare documenti come analisi del sangue, referti, lettere di dimissione, e – su base volontaria – collegare cartelle cliniche elettroniche e app di benessere come Apple Salute, MyFitnessPal o altre piattaforme di monitoraggio.
Su un punto, però, OpenAI insiste più di altri: ChatGPT Salute non è un medico. Non formula diagnosi, non prescrive terapie, non prende decisioni cliniche. Il suo ruolo è diverso: aiutare a comprendere le informazioni, spiegare termini complessi, fornire contesto, preparare domande sensate da portare al proprio medico.
L’obiettivo dichiarato è migliorare la qualità del dialogo medico-paziente, non sostituirlo. Una posizione che risponde anche alle preoccupazioni sollevate da molti professionisti sanitari, timorosi che strumenti di questo tipo possano favorire l’autodiagnosi o la diffusione di informazioni scorrette.
Potrebbe interessarti anche:
- 10 semplici abitudini quotidiane che migliorano la tua salute
- Attività fisica, sì, ma non dimentichiamoci di quanto sia importante dormire
- Ma è vero che il cioccolato fondente può rallentare l’invecchiamento?
Infatti, quando le risposte toccano temi delicati, il sistema incoraggerà esplicitamente il confronto con un medico in carne e ossa.
ChatGPT Salute è stato annunciato ufficialmente a gennaio ed è attualmente disponibile solo per un numero limitato di utenti. L’accesso avviene tramite lista d’attesa e l’estensione a tutti sarà graduale, su web e iOS.
Il progetto è ancora in fase di sperimentazione, e molte delle sue evoluzioni dipenderanno dai feedback raccolti in queste prime settimane.
Privacy e sicurezza: i nodi più delicati
L’hub è il risultato di due anni di sviluppo e della collaborazione con oltre 260 medici, attivi in 60 Paesi e in decine di specialità diverse.
Durante questo periodo, i professionisti hanno fornito più di 600 mila feedback, contribuendo a definire cosa renda una risposta utile, quando invece possa diventare fuorviante o potenzialmente pericolosa. Questo lavoro ha plasmato non solo il contenuto delle risposte, ma anche i limiti entro cui l’AI può muoversi.
Quando si parla di dati sanitari, però, la tecnologia smette di essere solo una questione tecnica ed entra in gioco la fiducia: in questo contesto, OpenAI promette livelli di protezione superiori rispetto a ChatGPT “tradizionale”.
Le conversazioni e i file sono crittografati, conservati in ambienti isolati e, secondo quanto dichiarato, non vengono utilizzati per addestrare i modelli di base. L’utente mantiene inoltre il controllo delle connessioni: app e cartelle cliniche possono essere scollegate in qualsiasi momento.
Resta, fine, una questione aperta, soprattutto in Europa: le normative sulla protezione dei dati sanitari sono particolarmente stringenti. Non a caso, almeno nella fase iniziale, le funzionalità più avanzate risultano disponibili soprattutto negli Stati Uniti, mentre il rilascio europeo procederà con maggiore cautela.
Affidare informazioni mediche dettagliate a una piattaforma privata statunitense resta, per molti, un passaggio tutt’altro che scontato.
Abbiamo già parlato, all’interno di questo contenuto, di come la piattaforma abbia aggiornato le proprie politiche di utilizzo – sottolineando come l’intelligenza artificiale non possa essere impiegata per fornire consigli che richiedano l’intervento di professionisti qualificati, come medici, avvocati o consulenti finanziari.
Usare ChatGPT per informarsi sulla salute, in molti casi, può facilitare la ricerca di risposte rapide, spiegazioni accessibili o un primo orientamento quando il medico non è disponibile. Il nodo etico, però, sta nel confine: l’AI può chiarire, ma non prendersi carico della decisione.
Rimane, poi, anche il dubbio sull’aspetto umano: il consulto con una intelligenza artificiale rischia, alla lunga, di far mancare quel senso di accoglienza e tranquillità che può, invece, far provare un professionista della salute – in grado di rassicurare il paziente attraverso un parere umano.
Il rischio, dunque, non è tanto l’errore tecnico, quanto lo spostamento della fiducia dal professionista a uno strumento che lavora per probabilità, non per responsabilità.
Per questo l’uso eticamente corretto passa da trasparenza, limiti espliciti e centralità del medico. L’intelligenza artificiale può accompagnare, mai sostituire.
Fonti: