ChatGPT Health: Il futuro della medicina o la fine della privacy?
Il lancio di ChatGPT Health solleva preoccupazioni sulla privacy dei dati sanitari e sulla mercificazione dell’assistenza medica personalizzata
C’era una volta il segreto medico-paziente, quel vincolo sacro che garantiva che i dettagli sulle vostre emorroidi o sulle vostre ansie notturne rimanessero confinati tra le quattro mura di uno studio medico.
Oggi, 7 gennaio 2026, OpenAI ha deciso che quelle mura erano troppo strette e ha abbattuto la porta a calci.
Con il lancio di ChatGPT Health, l’azienda di Sam Altman non sta semplicemente offrendo un nuovo servizio: sta piantando una bandiera nel territorio più intimo e redditizio della nostra esistenza digitale.
La promessa è seducente, come sempre: un assistente onnisciente che collega i puntini tra i risultati delle vostre analisi del sangue, i dati del vostro Apple Watch e quella strana eruzione cutanea che vi preoccupa da giorni.
Ma dietro la patina di “aiuto alla navigazione sanitaria” si nasconde una fame di dati che farebbe impallidire i peggiori broker pubblicitari.
Siamo di fronte alla uberizzazione della medicina: massima convenienza per l’utente, responsabilità quasi nulla per la piattaforma e, naturalmente, un flusso torrenziale di informazioni biologiche che confluiscono nei server di una singola entità privata.
La domanda che nessuno sembra voler fare ad alta voce è: stiamo davvero affidando la nostra salute a un’entità che, fino a ieri, faticava a distinguere una citazione storica da un’allucinazione statistica?
E soprattutto, qual è il vero prezzo di questa comodità?
Il paradosso del “non-dottore”
La strategia comunicativa di OpenAI è un capolavoro di equilibrismo legale.
Da un lato, ci dicono che il sistema è abbastanza intelligente da analizzare cartelle cliniche complesse; dall’altro, si affrettano a specificare che ChatGPT Health “non è un dispositivo medico” e non fornisce diagnosi.
È il classico gioco delle tre carte della Silicon Valley: volete l’autorità del camice bianco senza il rischio legale della negligenza medica.
Per umanizzare questa mossa scacchistica, l’azienda ha schierato i pezzi grossi. Fidji Simo, CEO of Applications di OpenAI, ha raccontato un aneddoto personale strappalacrime durante la presentazione, spiegando come l’IA l’abbia aiutata a gestire una complicazione medica che i medici umani stavano trascurando.
Durante un’anteprima per la stampa, Fidji Simo, CEO delle applicazioni di OpenAI, ha introdotto ChatGPT Health condividendo una storia personale su come ChatGPT l’abbia aiutata dopo essere stata ricoverata per un calcolo renale l’anno scorso e aver sviluppato un’infezione. Uno specializzando le aveva prescritto un antibiotico standard, ma lei lo ha controllato rispetto alla sua storia medica su ChatGPT, che ha segnalato che il farmaco poteva riattivare una grave infezione potenzialmente letale di cui aveva sofferto anni prima.
— Fortune, riportando le parole di Fidji Simo
La narrazione è potente: l’IA come salvavita che corregge l’errore umano.
Tuttavia, questo aneddoto serve a mascherare una realtà industriale ben più fredda. OpenAI non sta entrando nella sanità per filantropia.
Lo fa perché i dati sanitari sono diventati un caso d’uso fondamentale per ChatGPT, un settore dove la domanda è inesauribile e la disperazione degli utenti garantisce un engagement altissimo.
Se milioni di persone interrogano l’oracolo digitale sui propri sintomi, l’azienda ha tutto l’interesse a trasformare quelle domande sporadiche in un monitoraggio continuo.
Ma se l’IA sbaglia e non segnala un’interazione letale, chi ne risponde?
Il “non-dottore” algoritmico non ha un’assicurazione, e i termini di servizio sono scritti apposta per lasciare l’utente solo con il suo destino.
Il grande imbuto dei dati sanitari
L’aspetto tecnicamente più inquietante di ChatGPT Health non è l’intelligenza artificiale in sé, ma l’infrastruttura di raccolta dati che le è stata costruita attorno.
Non stiamo parlando di copiare e incollare un PDF. Il sistema è progettato per integrarsi direttamente con le cartelle cliniche elettroniche, con app come Apple Health e MyFitnessPal, e con servizi di diagnostica avanzata come Function Health.
Per rendere possibile tutto ciò, OpenAI si appoggia a b.well, una piattaforma che funge da “idraulico” per connettere tubature di dati precedentemente separate. L’azienda giura che questi dati non verranno usati per addestrare i modelli futuri.
ChatGPT Health si basa sui solidi controlli di privacy, sicurezza e dati presenti in ChatGPT con protezioni aggiuntive e stratificate progettate specificamente per la salute, inclusa una crittografia appositamente realizzata e l’isolamento per mantenere le conversazioni sulla salute protette e compartimentate.
— Portavoce OpenAI, Comunicato Ufficiale
Suona rassicurante, vero? “Crittografia appositamente realizzata”.
Ma chi mastica un po’ di GDPR e normative sulla privacy sa che la sicurezza assoluta è una chimera.
Creare un database centralizzato che contiene la storia clinica, genetica e comportamentale di milioni di individui equivale a dipingere un bersaglio gigante sulla schiena dell’azienda per ogni hacker statale o criminale del pianeta.
Inoltre, c’è il problema del consenso.
Quando OpenAI lancia una funzione dedicata per connettere cartelle cliniche e app di benessere, l’utente medio clicca su “Accetta” spinto dall’ansia di capire perché ha quel dolore al fianco.
Non sta realmente valutando le implicazioni di affidare i propri dati biometrici a un’azienda americana che, ricordiamolo, ha cambiato la sua struttura da no-profit a capped-profit per massimizzare gli investimenti.
La promessa di non usare i dati oggi non vincola l’azienda domani, specialmente se i modelli di business dovessero cambiare o se l’azienda venisse acquisita o quotata.
La monetizzazione dell’ipocondria
C’è poi un aspetto economico e sociale che sfugge spesso all’analisi tecnica. ChatGPT Health si posiziona come un prodotto di lusso per l’utente “ottimizzato”. Integrandosi con servizi costosi come Function Health (che richiede centinaia di dollari l’anno per esami del sangue frequenti) o con l’ecosistema Apple, OpenAI sta puntando al segmento più ricco e ipocondriaco della popolazione.
Questo crea un divario pericoloso.
Da una parte, chi può permettersi di alimentare l’IA con dati di alta qualità riceverà consigli iper-personalizzati (sempre con l’asterisco “non è una diagnosi”). Dall’altra, la massa che si affiderà all’IA per evitare i costi o le attese del sistema sanitario pubblico, rischiando di ricevere allucinazioni plausibili al posto di cure reali.
L’ironia è palpabile: mentre il sistema sanitario globale collassa sotto il peso della burocrazia e della carenza di personale, la Silicon Valley propone come soluzione un altro strato di tecnologia proprietaria che si frappone tra il paziente e il medico.
E non è un caso isolato. b.well agisce come strato di connettività per collegare record medici e dati sanitari, facilitando la creazione di profili utente così dettagliati che le compagnie assicurative pagherebbero oro per averli.
Chi ci garantisce che, in un futuro distopico non troppo lontano, questi dati non influenzeranno i premi assicurativi?
Siamo di fronte alla mercificazione definitiva dell’ansia.
Ogni sintomo digitato nella chat è un punto dati, ogni rassicurazione fornita dall’IA è un rinforzo positivo che lega l’utente alla piattaforma.
Non stiamo solo “navigando il sistema sanitario”, come dice Simo; stiamo addestrando (anche se indirettamente, tramite l’interazione e il feedback loop) il sistema a renderci dipendenti dalla sua rassicurazione sintetica.
La tecnologia è indubbiamente impressionante. La capacità di incrociare in secondi dati che un medico impiegherebbe ore a leggere è rivoluzionaria.
Ma affidare le chiavi della nostra salute biologica a chi vive di software as a service richiede un atto di fede che forse, nel 2026, non dovremmo più essere disposti a concedere.
Se la privacy è morta, ChatGPT Health sta organizzando un funerale sfarzoso, e noi siamo tutti invitati a portare i nostri dati come omaggio floreale.