Ia diagnostica: wall street festeggia la nostra salute malferma

Ia diagnostica: wall street festeggia la nostra salute malferma

L’entusiasmo di Wall Street per l’IA diagnostica solleva interrogativi inquietanti sulla privacy dei pazienti e sul futuro della medicina, con il rischio di una privatizzazione della conoscenza medica.

C’è qualcosa di profondamente inquietante nell’entusiasmo con cui Wall Street festeggia la nostra salute malferma.

Mentre gli ospedali annaspano tra carenza di personale e liste d’attesa infinite, il settore tecnologico ha trovato la sua nuova gallina dalle uova d’oro: l’intelligenza artificiale applicata alla diagnostica.

Non stiamo parlando di filantropia digitale o di un’improvvisa vocazione ippocratica della Silicon Valley.

Stiamo parlando di numeri, e i numeri raccontano una storia molto diversa da quella dei comunicati stampa patinati che promettono di “salvare vite”.

Oggi, 26 gennaio 2026, i dati ci dicono che il mercato dell’IA diagnostica vale già 2,39 miliardi di dollari. Una cifra che potrebbe sembrare modesta se paragonata ai bilanci delle Big Tech, ma che nasconde un tasso di crescita aggressivo.

Le proiezioni più recenti indicano un mercato globale dell’IA diagnostica destinato a toccare i 7,91 miliardi di dollari entro il 2040, spinto da un tasso di crescita annuale composto (CAGR) quasi del 9%.

Tradotto dal linguaggio finanziario a quello reale: le aziende scommettono pesantemente sul fatto che ci ammaleremo sempre di più, che i medici saranno sempre di meno e che, alla fine, affideremo la lettura delle nostre risonanze magnetiche a un algoritmo proprietario, pagando profumatamente per il privilegio.

Ma se il business corre veloce, le tutele per chi fornisce la “materia prima” – ovvero noi pazienti e i nostri dati biometrici – sembrano essere rimaste al palo.

Il miraggio della “scatola nera” medica

La narrazione dominante è seducente: l’IA, grazie al Deep Learning e all’elaborazione del linguaggio naturale (NLP), vede ciò che l’occhio umano non coglie.

Analizza terabyte di immagini radiologiche, incrocia dati genomici e cartelle cliniche elettroniche per offrire diagnosi precoci di cancro, malattie cardiache o retinopatia diabetica. Tutto bellissimo, sulla carta.

La realtà, però, è che stiamo delegando decisioni critiche a “scatole nere” il cui funzionamento interno è spesso oscuro persino ai loro creatori.

Il problema non è se la tecnologia funzioni. Sappiamo che funziona: dal 2017, quando la FDA ha approvato il primo strumento diagnostico basato sull’IA, fino ai successi di AlphaFold nella biologia predittiva, la capacità di calcolo ha dimostrato di poter superare l’uomo nel riconoscimento di pattern complessi.

Il problema è l’opacità. Quando un algoritmo decide che un paziente è “a rischio”, su quali basi lo fa?

E soprattutto, se l’algoritmo sbaglia – o peggio, se l’algoritmo discrimina in base a dataset di addestramento viziati – di chi è la colpa?

Il GDPR europeo, con i suoi articoli sui processi decisionali automatizzati, dovrebbe teoricamente proteggerci, garantendo il diritto a una spiegazione. Ma come si fa a spiegare una decisione presa da una rete neurale che opera su milioni di parametri non lineari?

L’industria risponde con l’etichetta dell’Explainable AI (XAI), promettendo trasparenza. Eppure, la spinta commerciale sembra andare nella direzione opposta: brevettare l’algoritmo, chiudere il codice e vendere il risultato finale come oracolo indiscutibile. La fiducia clinica, sbandierata come obiettivo primario, rischia di diventare un atto di fede cieca verso il fornitore del software.

Tutto questo si innesta su un trend che era già evidente quando si parlava di una valutazione di mercato di 1,33 miliardi di dollari nel 2024, cifra che ha segnato l’inizio della vera e propria corsa all’oro dei dati sanitari.

La privacy come danno collaterale

L’altro grande elefante nella stanza è la privacy. Per addestrare questi mostri di efficienza servono dati. Tanti dati. I nostri dati.

Le aziende tech si sono fatte furbe: sanno che non possono semplicemente aspirare le cartelle cliniche senza scatenare l’ira dei garanti della privacy. Quindi, ecco la soluzione magica: il Federated Learning.

Ci dicono che l’IA impara localmente, in ogni ospedale, senza che i dati sensibili lascino mai la struttura. L’algoritmo centrale si aggiorna, ma i dati restano “al sicuro”.

È rassicurante, vero?

Peccato che sia una mezza verità. Anche senza trasferire i dati grezzi, i modelli addestrati possono conservare tracce sufficienti per permettere, in certi contesti, la re-identificazione o l’inferenza di dati sensibili.

Inoltre, chi controlla l’architettura di questo apprendimento federato? Quasi sempre le stesse multinazionali che vivono di profilazione.

C’è un conflitto di interessi strutturale enorme: le stesse entità che ci forniscono gli strumenti per la diagnosi sono spesso legate a doppio filo con chi ha interesse a conoscere il nostro stato di salute futuro, come le compagnie assicurative o i grandi gruppi farmaceutici.

L’analitica predittiva non serve solo a curare meglio; serve a calcolare il rischio. E in un mondo guidato dai dati, un paziente ad alto rischio è un cliente costoso da evitare o un target da spremere.

L’outsourcing della diagnosi

La carenza di radiologi e patologi è reale, nessuno lo nega. La pandemia di COVID-19 ha accelerato l’adozione di queste tecnologie per necessità di sopravvivenza del sistema.

Ma stiamo scivolando verso un modello in cui l’ospedale diventa un semplice terminale di raccolta dati, mentre la vera “intelligenza” medica risiede nei server di Google, IBM o delle start-up emergenti che verranno inevitabilmente acquisite dai soliti noti.

Siamo di fronte a una privatizzazione strisciante della conoscenza medica.

Se nel 2040 il mercato varrà davvero quasi 8 miliardi di dollari, chi pagherà questo conto? I sistemi sanitari nazionali, e quindi noi contribuenti. Stiamo pagando per costruire l’infrastruttura che ci sorveglia biologicamente.

La promessa è la medicina personalizzata, il rischio è la medicina algoritmica disumanizzata, dove l’anomalia statistica conta più del sintomo riferito dal paziente.

Mentre leggiamo i report finanziari che celebrano il CAGR dell’8,91% come un trionfo dell’innovazione, dovremmo chiederci se stiamo costruendo strumenti per i medici o medici sintetici per gli azionisti.

La tecnologia diagnostica è potente e necessaria, ma lasciarla in mano alle sole logiche di mercato, senza una supervisione etica e normativa ferrea, è come affidare la gestione della propria cartella clinica a un broker di Wall Street.

Forse ci farà guadagnare tempo, ma a che prezzo per la nostra libertà?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie