Dietro l’apparente progresso di un software per la lettura rapida delle TAC si cela un sistema che potrebbe automatizzare la discriminazione e mettere a rischio la privacy dei pazienti.
Se c’è una parola che nel dicembre 2025 risuona con la frequenza di un martello pneumatico nelle orecchie di chi si occupa di tecnologia e diritti civili, quella parola è “triage”. Un termine medico, certo, preso in prestito dai campi di battaglia napoleonici, ma che oggi, nelle mani delle startup della Silicon Valley (o dei loro equivalenti sparsi per il globo), sta assumendo un significato ben più sinistro: la selezione algoritmica di chi merita attenzione immediata e di chi, invece, può aspettare in sala d’attesa.
O meglio, nel database.
Il caso di scuola di questa settimana ci arriva dritto dagli Stati Uniti, dove a2z Radiology ha appena incassato due vittorie che, sulla carta, sembrano il trionfo del progresso: un’autorizzazione della FDA (Food and Drug Administration) e un bonifico da 5 milioni di dollari da parte di investitori che, statene certi, non sono lì per la filantropia.
Ma andiamo con ordine, perché dietro l’annuncio trionfale di un software capace di leggere le TAC dell’addome e della pelvi in meno di un minuto, si nasconde il solito schema che baratta la complessità clinica con l’efficienza statistica.
L’azienda ha ottenuto il via libera per il suo sistema “a2z-Unified-Triage”. Sulla carta, è un assistente instancabile: analizza le immagini, cerca sette condizioni urgenti (tra cui emorragie e fratture) e, se le trova, sposta il paziente in cima alla lista del radiologo.
Tutto bellissimo, se non fosse che stiamo affidando la priorità di intervento in un pronto soccorso a una scatola nera statistica.
E come ci insegna la storia recente della tecnologia, quando si automatizza la priorità, si automatizza anche la discriminazione.
Il lasciapassare per l’algoritmo mutante
Quello che rende questa notizia degna di un’analisi approfondita non è tanto il fatto che un’IA sappia riconoscere una frattura — ci mancherebbe altro, siamo nel 2025 — quanto la modalità con cui la FDA ha dato il suo benestare. Siamo di fronte a un cambiamento di paradigma regolatorio che dovrebbe farci tremare i polsi, soprattutto se teniamo alla privacy e alla sicurezza dei dati sanitari.
Il dispositivo è stato approvato con quello che in gergo tecnico si chiama PCCP, ovvero Predetermined Change Control Plan. In parole povere? L’autorità regolatoria ha dato all’azienda il permesso di aggiornare l’algoritmo in futuro senza dover rifare tutta la trafila burocratica di approvazione, a patto che rimanga dentro certi “binari” predefiniti.
È un sogno per gli sviluppatori, un incubo per chi si occupa di audit. La FDA ha classificato il dispositivo come sicuro ed efficace per l’uso previsto, includendo un piano di controllo che consente future modifiche all’algoritmo.
Perché questo è problematico? Perché gli algoritmi di apprendimento automatico soffrono di data drift. Se i dati su cui l’IA impara cambiano (magari perché cambia la popolazione demografica dell’ospedale, o cambiano i macchinari per la TAC), l’IA può iniziare a sbagliare in modi imprevedibili.
Con un PCCP, l’azienda ha una “carta esci gratis di prigione” parziale: può modificare il motore della macchina mentre questa è in corsa in autostrada. E chi controlla che l’aggiornamento v1.2 non introduca un bias razziale o di genere che la v1.0 non aveva?
Il controllore siamo noi, i pazienti, che facciamo da beta-tester inconsapevoli.
David Zhang, CEO di a2z Radiology, ovviamente la vede diversamente. Per lui, questo è il momento in cui la tecnologia esce dai laboratori per entrare in corsia.
La nostra autorizzazione FDA per il sistema di triage CT addome-pelvi multi-condizione segna una tappa fondamentale per a2z Radiology, poiché ci consente di portare la tecnologia AI all’avanguardia direttamente nella pratica clinica per migliorare i flussi di lavoro diagnostici e i risultati per i pazienti.
— Dr. David Zhang, Co-fondatore e CEO di a2z Radiology
Notate l’uso della parola “flussi di lavoro”. In ogni comunicato stampa di queste aziende, il “paziente” arriva sempre dopo il “workflow”. L’obiettivo primario non è la cura, è la velocità. E in un sistema sanitario al collasso, la velocità è merce pregiata.
Ma la velocità ha un costo nascosto: la perdita del controllo umano sui dati. Se il radiologo si abitua a fidarsi ciecamente della macchina che gli dice “questo è urgente, questo no”, smetterà di guardare con attenzione i casi non segnalati.
È l’automazione della negligenza.
La questione si fa ancora più spinosa quando seguiamo i soldi. Perché un’azienda non raccoglie 5 milioni di dollari solo per aver creato un buon software. Li raccoglie perché promette scalabilità.
Chi paga il conto dell’efficienza?
Cinque milioni di dollari. Tanto vale, al momento, la promessa di velocizzare la lettura delle TAC. La startup di imaging a2z Radiology ha raccolto 5 milioni di dollari in finanziamenti ottenendo contemporaneamente la sua prima autorizzazione FDA.
Sembrano tanti, ma nel mondo del Venture Capital sono spiccioli, il che suggerisce che questa sia solo la fase iniziale di una strategia più aggressiva. Il modello di business di queste piattaforme si basa spesso sull’integrazione profonda nei sistemi ospedalieri (PACS). Una volta che il software è dentro, diventa quasi impossibile toglierlo. Diventa un’infrastruttura critica.
E qui sorge il problema della sovranità dei dati.
Quando un ospedale statunitense — e presto, statene certi, anche quelli europei, ammaliati dalla sirena dell’efficienza — adotta un sistema come a2z-Unified-Triage, cosa succede ai dati delle TAC? Vengono elaborati localmente o viaggiano verso server centralizzati per “migliorare il modello”?
Anche se i dati fossero anonimizzati (un termine che, come sappiamo, nell’era dei Big Data è più un desiderio che una realtà tecnica), l’addestramento continuo dell’IA richiede un flusso costante di nuovi casi.
Stiamo di fatto vendendo l’esperienza clinica collettiva a un ente privato che la impacchetta e ce la rivende sotto forma di abbonamento software.
È l’estrazione mineraria del XXI secolo: non si scava più carbone, si estraggono pattern patologici dai corpi dei malati.
Zhang è molto chiaro su come questi fondi verranno usati: per accelerare.
Raccogliere 5 milioni di dollari in finanziamenti insieme all’ottenimento dell’autorizzazione FDA posiziona saldamente a2z Radiology per accelerare lo sviluppo e l’implementazione di soluzioni AI che rispondono a bisogni critici in radiologia.
— Dr. David Zhang, Co-fondatore e CEO di a2z Radiology
“Rispondere ai bisogni critici” è un eufemismo per “coprire i buchi di personale”. I radiologi sono pochi, stanchi e costosi.
L’IA è sempre sveglia e costa una frazione.
Il conflitto di interessi è palese: l’ospedale ha tutto l’interesse economico a delegare sempre più decisioni alla macchina. Ma se la macchina sbaglia un triage e un paziente con un aneurisma viene lasciato in attesa perché l’algoritmo ha valutato male i pixel, di chi è la colpa? Del fornitore del software che ha una clausola di esclusione della responsabilità lunga come l’elenco telefonico, o del medico che “avrebbe dovuto supervisionare”?
Il miraggio della sicurezza totale
C’è un dettaglio tecnico che non va trascurato. Il sistema di a2z si vanta di essere “multi-condizione”. Non cerca solo una cosa, ne cerca sette contemporaneamente. L’azienda descrive il suo dispositivo come il primo sistema di triage multi-condizione in grado di segnalare e dare priorità a sette risultati urgenti da una singola soluzione AI.
Questo aumento della complessità aumenta esponenzialmente il rischio di falsi positivi e falsi negativi incrociati. Un algoritmo addestrato a vedere tutto rischia di diventare un maestro di niente, o peggio, di creare un senso di falsa sicurezza.
Se l’IA dice “tutto pulito” su sette condizioni gravi, quale radiologo avrà il coraggio (e il tempo) di contestare quella certezza matematica in meno di 60 secondi?
In Europa, con l’AI Act e il GDPR, ci piace pensare di essere protetti da queste derive. Richiediamo spiegabilità, richiediamo supervisione umana. Ma la pressione del mercato è globale. Se i sistemi sanitari americani dimostrano che con questi software si tagliano i costi del 30% e si riducono le liste d’attesa, quanto tempo passerà prima che le nostre ASL, cronicamente in rosso, decidano che la privacy è un lusso che non ci possiamo permettere?
La narrazione dominante è che queste tecnologie “aiutano i medici”. La realtà, molto più cruda, è che queste tecnologie stanno ridisegnando l’architettura della responsabilità medica. Il medico diventa un operatore di sistema, un validatore di output algoritmici.
E il paziente? Il paziente diventa un input.
Non c’è nulla di intrinsecamente malvagio nel voler diagnosticare un’emorragia cerebrale o addominale più velocemente. Il problema è l’infrastruttura opaca che stiamo costruendo attorno a questo desiderio. Stiamo costruendo scatole nere giuridiche e tecniche, dove i dati entrano e le decisioni di vita o di morte escono, senza che nessuno sappia davvero cosa succede nel mezzo.
L’approvazione della FDA con il piano di modifica predeterminato (PCCP) è il vero vaso di Pandora. Stiamo accettando l’idea che un dispositivo medico possa essere “fluido”, in costante mutamento. In un mondo ideale, questo significherebbe un miglioramento costante. Nel mondo reale, dove le aziende devono massimizzare i profitti per ripagare quei 5 milioni di dollari (e i successivi), significa che l’algoritmo verrà ottimizzato per ciò che è più redditizio, non necessariamente per ciò che è più sicuro.
La domanda che dovremmo porci non è se l’IA sia brava a leggere una TAC. La domanda è: siamo disposti ad accettare che la tutela della nostra salute diventi un segreto industriale, protetto da copyright e gestito da server remoti, in nome di un’efficienza che arricchisce gli investitori e deresponsabilizza i medici?
Forse, la prossima volta che farete una TAC, non dovreste preoccuparvi solo delle radiazioni, ma di chi sta guardando, e soprattutto, di come sta guardando.

