Salute e AI: Apple Watch, OpenAI e la corsa ai dati biometrici

Salute e AI: Apple Watch, OpenAI e la corsa ai dati biometrici

L’intelligenza artificiale promette di interpretare i nostri dati biometrici, ma il rischio di diagnosi errate solleva interrogativi sulla sua reale affidabilità

È stato un mese di gennaio frenetico per chi segue l’incrocio tra medicina e silicio, e se avete un Apple Watch al polso, la questione vi riguarda da molto vicino.

Immaginate di avere un assistente che non si limita a dirvi che tempo fa, ma che guarda i grafici del vostro battito cardiaco, analizza la qualità del vostro sonno e vi suggerisce perché vi sentite stanchi il martedì mattina.

Fino a ieri era fantascienza o promessa di marketing; da questo mese, con le mosse quasi simultanee di OpenAI e Anthropic, è diventata una realtà accessibile (per ora negli Stati Uniti), che cerca di trasformare il caos dei nostri dati biometrici in consigli praticabili.

Tuttavia, c’è una linea sottile tra l’avere un “copilota per la salute” e affidarsi a un sistema che potrebbe scambiare una corsa mattutina per un’aritmia cardiaca.

La tecnologia corre veloce, forse più veloce della nostra capacità di comprenderne i limiti reali, e quello che stiamo vedendo è solo il primo round di una battaglia per la conquista della risorsa più intima che possediamo: i nostri parametri vitali.

Il dottore è (virtualmente) in ascolto

L’idea alla base è seducente nella sua semplicità: prendiamo i gigabyte di dati che i nostri dispositivi indossabili raccolgono silenziosamente e diamoli in pasto a un’intelligenza artificiale capace di “ragionare”.

Non stiamo più parlando di semplici chatbot che rispondono a domande generiche su cosa fare in caso di influenza. La nuova frontiera è l’integrazione diretta. OpenAI ha aperto le danze a inizio gennaio con ChatGPT Health, permettendo al sistema di leggere direttamente i dati di Apple Health.

La risposta non si è fatta attendere: pochi giorni dopo, Anthropic ha lanciato “Claude for Healthcare”, mirando allo stesso obiettivo ma puntando tutto sulla carta della privacy e della precisione analitica.

L’impatto potenziale è enorme se consideriamo che oltre 230 milioni di persone si rivolgono settimanalmente a ChatGPT per questioni legate alla salute.

L’obiettivo dichiarato non è sostituire il medico, ma “aumentare” il paziente, fornendogli gli strumenti per capire meglio il proprio corpo prima ancora di entrare in ambulatorio. Sulla carta, è la democratizzazione della medicina preventiva: un’IA che digerisce report complessi e vi dice in parole povere se quel valore di VO2 Max è preoccupante o se è normale per la vostra età.

Ma c’è un “ma” grande quanto una casa, ed è qui che l’entusiasmo tecnologico deve fare i conti con la dura realtà dei fatti.

L’illusione della competenza medica

Nonostante le interfacce rassicuranti e il tono professionale, questi modelli linguistici rimangono, nel loro nucleo, dei predittori di testo estremamente sofisticati, non dei fisiologi.

Il rischio non è che l’IA non risponda, ma che risponda con una sicurezza disarmante dicendo cose completamente sbagliate.

Un’indagine condotta dal Washington Post ha messo a nudo proprio questa vulnerabilità: alimentando i sistemi con dieci anni di dati reali provenienti da un Apple Watch, i risultati sono stati a tratti allarmanti. In un caso specifico, l’intelligenza artificiale ha valutato la salute cardiovascolare dell’utente con un voto disastroso, suggerendo gravi problemi, laddove un medico in carne ed ossa vedeva un quadro clinico perfettamente normale.

Test indipendenti hanno rivelato che né ChatGPT né la controparte di Claude riescono a interpretare correttamente i dati di tracciamento, fornendo risposte incoerenti che variano da una sessione all’altra.

Il problema è strutturale: l’IA cerca pattern narrativi anche dove ci sono solo numeri e rumore statistico, rischiando di trasformare un errore di misurazione del sensore in una diagnosi da incubo.

Come sottolineato da chi ha messo sotto torchio questi sistemi:

Né ChatGPT Health, né il suo equivalente su Claude… sono in grado di interpretare correttamente i dati di monitoraggio della salute.

— Geoffrey A. Fowler, Washington Post

Questo ci porta a chiederci: se l’accuratezza è ancora così ballerina, qual è la vera strategia dietro questa corsa all’integrazione sanitaria?

La corsa all’oro dei dati biometrici

La mossa di Anthropic e OpenAI non riguarda solo l’oggi, ma il posizionamento per il prossimo decennio.

I dati sanitari sono “appiccicosi”: una volta che un utente inizia a caricare la propria storia clinica su una piattaforma, il costo di uscita (in termini di tempo e fatica) diventa altissimo. È per questo che Anthropic sta cercando di differenziarsi non tanto sulle funzionalità, quanto sulla sicurezza, un tema critico quando si parla di cartelle cliniche.

L’azienda insiste sulla conformità HIPAA (lo standard USA per la privacy sanitaria) e promette che i dati non verranno usati per addestrare i modelli futuri.

La visione è quella di un assistente amministrativo perfetto: Claude promette di riassumere la storia clinica e preparare domande mirate per le consultazioni mediche, alleggerendo il carico cognitivo del paziente. Invece di arrivare dal dottore con una scatola di scarpe piena di referti o un’app piena di grafici incomprensibili, l’IA dovrebbe agire da traduttore universale.

La posizione ufficiale delle aziende, tuttavia, rimane un esercizio di equilibrismo legale:

Anthropic insiste sul fatto che queste integrazioni sono «progettate per essere private»: L’utente sceglie precisamente cosa condividere – L’attivazione richiede un consenso esplicito – L’accesso può essere revocato in qualsiasi momento – Nessun dato sanitario viene utilizzato per addestrare i modelli di IA.

— Anthropic, Nota ufficiale sul lancio

Siamo di fronte a un paradosso tecnologico affascinante e pericoloso.

Da un lato, abbiamo strumenti con il potenziale di salvare vite identificando trend invisibili all’occhio umano; dall’altro, abbiamo sistemi che oggi possono scatenare ipocondria ingiustificata basandosi su un’interpretazione errata di un battito cardiaco.

Le aziende si tutelano con disclaimer grandi quanto cartelloni pubblicitari che recitano “Non usare per diagnosi”, ma sanno benissimo che è esattamente quello che l’utente farà appena premuto invio.

La domanda non è se l’IA entrerà nei nostri ospedali, ma se saremo abbastanza critici da usarla come uno strumento di supporto e non come un oracolo infallibile.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie