ChatGPT Health: OpenAI punta ai dati sanitari, un rischio per la privacy?

ChatGPT Health: OpenAI punta ai dati sanitari, un rischio per la privacy?

ChatGPT Health è stato lanciato come una rivoluzione per il benessere individuale, ma solleva interrogativi inquietanti sul controllo dei dati sanitari personali.

Siamo onesti: era solo questione di tempo.

Dopo aver imparato a scrivere poesie mediocri, a generare codice informatico e a riassumere email che nessuno aveva voglia di leggere, l’intelligenza artificiale di OpenAI ha deciso di indossare il camice bianco.

O meglio, ha deciso di chiedere le chiavi del vostro archivio medico personale.

Oggi, 7 gennaio 2026, l’azienda di Sam Altman ha lanciato ufficialmente “ChatGPT Health”, una mossa che viene venduta come una rivoluzione per il benessere individuale ma che, a uno sguardo più attento, assomiglia molto al più grande esperimento di raccolta dati sanitari della storia. La promessa è seducente, come sempre: un assistente onnisciente capace di dialogare con le vostre app di fitness, leggere i risultati delle analisi del sangue e darvi consigli su come vivere meglio.

Ma dietro la patina di efficienza algoritmica, si nascondono le solite, inquietanti domande su chi detiene il controllo delle informazioni più intime della nostra esistenza.

Il sistema non si limita a rispondere a domande generiche su cosa fare in caso di febbre. OpenAI ha svelato ChatGPT Health come un’esperienza dedicata che permette di integrare cartelle cliniche e app come Apple Health e MyFitnessPal, trasformando il chatbot in un hub centralizzato della vostra biologia.

Ma se pensate che questo sia un servizio filantropico per aiutarvi a capire il vostro livello di colesterolo, forse state sottovalutando il modello di business della Silicon Valley.

Il dottore non vi riceve (ma il chatbot sì)

La narrazione ufficiale punta tutto sulle carenze del sistema sanitario tradizionale. È un argomento facile: chiunque abbia provato a prenotare una visita specialistica nel 2025 sa quanto sia frustrante.

OpenAI si inserisce in questa crepa sistemica presentandosi non come un sostituto, ma come un “supporto”. Tuttavia, la linea di demarcazione tra “supporto informativo” e “consulenza medica” è sottile come un foglio di carta velina, e l’azienda lo sa bene.

Fidji Simo, CEO of Applications di OpenAI, ha spiegato la logica dietro il lancio con parole che sembrano scritte apposta per rassicurare gli investitori e preoccupare i garanti della privacy:

Vedo ChatGPT Health come una risposta a problemi esistenti nello spazio sanitario, come i costi e le barriere all’accesso, medici oberati e una mancanza di continuità nelle cure.

— Fidji Simo, CEO of Applications presso OpenAI

L’idea è che l’AI colmi i vuoti lasciati dagli umani. Ma affidare la “continuità delle cure” a un modello linguistico, per quanto avanzato, introduce un rischio sistemico enorme.

Se l’algoritmo sbaglia, chi ne risponde?

I termini di servizio sono cristallini: OpenAI “non è intesa per l’uso nella diagnosi o nel trattamento”. In pratica: fidatevi di noi per caricare i vostri dati più sensibili, ma se la macchina vi consiglia tisane mentre avete un infarto, noi vi avevamo avvertito.

È la classica strategia del “muoversi velocemente e rompere le cose”, solo che stavolta le cose che si potrebbero rompere sono le persone.

E non è un caso che questa novità arrivi ora. La tecnologia sottostante è stata affinata per mesi, cercando di ridurre le “allucinazioni” che rendevano i modelli precedenti dei pessimi consiglieri medici. Il rilascio di GPT-5 lo scorso agosto, diventato il modello predefinito, aveva già mostrato capacità di ragionamento superiori, fondamentali per non scambiare un’emicrania per un tumore raro, o viceversa.

Eppure, la precisione tecnica non risolve il problema etico di fondo: stiamo addestrando un’azienda privata a conoscere il nostro corpo meglio del nostro medico di base.

La privacy è un optional (o quasi)

C’è un dettaglio geografico che non dovrebbe sfuggire a nessuno: al momento del lancio, ChatGPT Health non è disponibile nello Spazio Economico Europeo, in Svizzera o nel Regno Unito.

Perché? La risposta è semplice e si chiama GDPR.

Le normative europee sulla protezione dei dati sono l’unico argine rimasto contro l’aspirazione delle Big Tech di trasformare ogni battito cardiaco in un data point monetizzabile. Negli Stati Uniti, dove le maglie della privacy sono più larghe, gli utenti possono già caricare i risultati dei test di laboratorio e lasciare che l’AI analizzi i trend.

L’azienda assicura che ci sono “livelli di privacy” appositi, crittografia e isolamento dei dati. Ma la storia recente ci insegna che “anonimizzato” e “sicuro” sono concetti relativi quando si parla di intelligenza artificiale. I dati sanitari non sono come la cronologia delle ricerche su Google; una volta compromessi, non si può cambiare il proprio DNA o la propria storia clinica come si cambia una password.

Inoltre, bisogna chiedersi: qual è il fine ultimo?

OpenAI non è una ONLUS.

L’integrazione con le assicurazioni sanitarie è uno scenario distopico ma plausibile. Immaginate un futuro in cui il vostro premio assicurativo viene calcolato in base alle conversazioni che avete avuto con il vostro chatbot sulla vostra dieta o sulla vostra ansia.

Fidji Simo ha tentato di smorzare i toni su una possibile “corsa agli armamenti” con Google e altri competitor, suggerendo che questa mossa fosse pianificata da tempo e non una reazione impulsiva al mercato:

[ChatGPT Health] in realtà si trova al di fuori del “Codice Rosso”. Lavoriamo sulla salute da molto tempo… sappiamo che questo è un caso d’uso fondamentale di ChatGPT, sapevamo di voler rendere questo caso d’uso ancora migliore.

— Fidji Simo, CEO of Applications presso OpenAI

Questa dichiarazione, riportata in un contesto in cui OpenAI cerca di diventare un hub per i dati sanitari personali, conferma che la salute non è un progetto laterale, ma il core use case. Hanno identificato il bisogno (la paura della malattia e la complessità della burocrazia medica) e hanno costruito il prodotto perfetto per sfruttarlo.

L’illusione del controllo

L’aspetto più insidioso di ChatGPT Health è l’illusione di empowerment che offre. Ci viene detto che grazie a questo strumento potremo “prendere un ruolo più attivo” nella gestione della nostra salute. Possiamo chiedere spiegazioni sui benefici di un’assicurazione, prepararci per una visita, capire i grafici incomprensibili delle analisi del sangue.

Sembra fantastico.

Ma c’è una differenza sostanziale tra l’essere informati e l’essere profilati. Quando chiediamo a ChatGPT di analizzare la nostra dieta in relazione ai nostri valori ematici, stiamo fornendo a un’entità commerciale un quadro psicofisico di noi stessi che nemmeno i servizi segreti possiedono. E mentre noi otteniamo un riassunto ben scritto e rassicurante, l’azienda ottiene la materia prima per addestrare la prossima generazione di modelli, che saranno ancora più bravi a prevedere — e influenzare — i nostri comportamenti.

Siamo di fronte al paradosso della comodità tecnologica: scambiamo la nostra privacy biometrica per la pigrizia di non dover leggere tre pagine di referto medico o per evitare dieci minuti di attesa al telefono con il dottore.

È un baratto equo? Forse per qualcuno sì.

Ma nel momento in cui normalizziamo il fatto che un’azienda privata americana sia il custode dei nostri segreti biologici, abbiamo varcato una soglia da cui è difficile tornare indietro. La domanda che dovremmo porci non è se l’AI sia abbastanza intelligente da fare il medico, ma se noi siamo abbastanza ingenui da permetterle di possedere la nostra cartella clinica in cambio di una pacca sulla spalla digitale.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie