ChatGPT Salute: cosa cambia ora che l’intelligenza artificiale entra nella sanità

Mattia Zamboni | Autore e divulgatore esperto in salute, nutrizione e psicologia applicata al benessere quotidiano
A cura di Mattia Zamboni
Autore e divulgatore esperto in salute, nutrizione e psicologia applicata al benessere quotidiano

Data articolo – 12 Gennaio, 2026

Un ragazzo che sta usando ChatGPT dal computer

ChatGPT Salute è il nuovo spazio che OpenAI sta preparando per portare ordine in uno dei territori più delicati e affollati del web: quello delle informazioni sanitarie.

Da anni, in realtà, l’intelligenza artificiale è già entrata nelle abitudini quotidiane delle persone quando si parla di salute: sono molti gli utenti che pongono domande su sintomi, valori delle analisi, farmaci prescritti e corretti stili di vita. 

OpenAI stima che oltre 230 milioni di persone ogni settimana utilizzino ChatGPT proprio per questo tipo di richieste: un uso di massa che finora si muoveva in una sorta di “zona grigia”. Secondo i creatori della piattaforma, l’hub nasce per dare una forma strutturata a questo fenomeno.

Ma, come sempre accade quando si parla di intelligenza artificiale, esistono rischi e dubbi etici. Ecco un approfondimento.

Uno spazio separato per la salute (che non farà diagnosi)

La novità più rilevante non è tanto il fatto che si possa parlare di salute con un’AI – cosa che già avviene – ma il contesto in cui avviene questo dialogo: ChatGPT Salute opererà in un’area distinta rispetto al chatbot generalista, con un’interfaccia dedicata e memorie separate.

In pratica, le conversazioni su referti, terapie o sintomi non si mescolano con il resto delle chat e le informazioni sanitarie rimarranno protette e isolate. Un principio semplice, ma fondamentale, se si considera la natura estremamente sensibile dei dati coinvolti.

All’interno di questo spazio, l’utente può caricare documenti come analisi del sangue, referti, lettere di dimissione, e – su base volontaria – collegare cartelle cliniche elettroniche e app di benessere come Apple Salute, MyFitnessPal o altre piattaforme di monitoraggio.

Su un punto, però, OpenAI insiste più di altri: ChatGPT Salute non è un medico. Non formula diagnosi, non prescrive terapie, non prende decisioni cliniche. Il suo ruolo è diverso: aiutare a comprendere le informazioni, spiegare termini complessi, fornire contesto, preparare domande sensate da portare al proprio medico.

L’obiettivo dichiarato è migliorare la qualità del dialogo medico-paziente, non sostituirlo. Una posizione che risponde anche alle preoccupazioni sollevate da molti professionisti sanitari, timorosi che strumenti di questo tipo possano favorire l’autodiagnosi o la diffusione di informazioni scorrette.


Potrebbe interessarti anche:


Infatti, quando le risposte toccano temi delicati, il sistema incoraggerà esplicitamente il confronto con un medico in carne e ossa.

ChatGPT Salute è stato annunciato ufficialmente a gennaio ed è attualmente disponibile solo per un numero limitato di utenti. L’accesso avviene tramite lista d’attesa e l’estensione a tutti sarà graduale, su web e iOS.

Il progetto è ancora in fase di sperimentazione, e molte delle sue evoluzioni dipenderanno dai feedback raccolti in queste prime settimane.

Privacy e sicurezza: i nodi più delicati

L’hub è il risultato di due anni di sviluppo e della collaborazione con oltre 260 medici, attivi in 60 Paesi e in decine di specialità diverse.

Durante questo periodo, i professionisti hanno fornito più di 600 mila feedback, contribuendo a definire cosa renda una risposta utile, quando invece possa diventare fuorviante o potenzialmente pericolosa. Questo lavoro ha plasmato non solo il contenuto delle risposte, ma anche i limiti entro cui l’AI può muoversi.

Quando si parla di dati sanitari, però, la tecnologia smette di essere solo una questione tecnica ed entra in gioco la fiducia: in questo contesto, OpenAI promette livelli di protezione superiori rispetto a ChatGPT “tradizionale”.

Le conversazioni e i file sono crittografati, conservati in ambienti isolati e, secondo quanto dichiarato, non vengono utilizzati per addestrare i modelli di base. L’utente mantiene inoltre il controllo delle connessioni: app e cartelle cliniche possono essere scollegate in qualsiasi momento.

Resta, fine, una questione aperta, soprattutto in Europa: le normative sulla protezione dei dati sanitari sono particolarmente stringenti. Non a caso, almeno nella fase iniziale, le funzionalità più avanzate risultano disponibili soprattutto negli Stati Uniti, mentre il rilascio europeo procederà con maggiore cautela.

Affidare informazioni mediche dettagliate a una piattaforma privata statunitense resta, per molti, un passaggio tutt’altro che scontato.Un cellulare con la schermata di ChatGPT

Abbiamo già parlato, all’interno di questo contenuto, di come la piattaforma abbia aggiornato le proprie politiche di utilizzo – sottolineando come l’intelligenza artificiale non possa essere impiegata per fornire consigli che richiedano l’intervento di professionisti qualificati, come medici, avvocati o consulenti finanziari.

Usare ChatGPT per informarsi sulla salute, in molti casi, può facilitare la ricerca di risposte rapide, spiegazioni accessibili o un primo orientamento quando il medico non è disponibile. Il nodo etico, però, sta nel confine: l’AI può chiarire, ma non prendersi carico della decisione.

Rimane, poi, anche il dubbio sull’aspetto umano: il consulto con una intelligenza artificiale rischia, alla lunga, di far mancare quel senso di accoglienza e tranquillità che può, invece, far provare un professionista della salute – in grado di rassicurare il paziente attraverso un parere umano.

Il rischio, dunque, non è tanto l’errore tecnico, quanto lo spostamento della fiducia dal professionista a uno strumento che lavora per probabilità, non per responsabilità.

Per questo l’uso eticamente corretto passa da trasparenza, limiti espliciti e centralità del medico. L’intelligenza artificiale può accompagnare, mai sostituire.

Fonti:

  • OpenAITi presentiamo ChatGPT Salute
  • OpenAITi presentiamo OpenAI per il settore sanitario
Le informazioni proposte in questo sito non sono un consulto medico. In nessun caso, queste informazioni sostituiscono un consulto, una visita o una diagnosi formulata dal medico. Non si devono considerare le informazioni disponibili come suggerimenti per la formulazione di una diagnosi, la determinazione di un trattamento o l’assunzione o sospensione di un farmaco senza prima consultare un medico di medicina generale o uno specialista.