OpenEvidence: la startup da 12 miliardi che spaventa i garanti della privacy
OpenEvidence raggiunge una valutazione di 12 miliardi di dollari e si propone come intermediario tra medici e diagnosi, sollevando interrogativi sulla privacy dei pazienti
C’è una cifra che sta rimbalzando da questa mattina sui terminali di Wall Street e che dovrebbe preoccupare chiunque abbia a cuore la riservatezza del proprio fascicolo sanitario, molto più di quanto entusiasmi gli investitori della Silicon Valley.
Dodici miliardi di dollari.
È questa la valutazione raggiunta oggi da OpenEvidence, una startup che fino a ieri sembrava l’ennesima promessa dell’intelligenza artificiale e che oggi si candida a diventare l’intermediario definitivo tra il vostro medico e la vostra diagnosi.
Non siamo di fronte alla solita euforia per un chatbot generalista che scrive poesie o codice scadente. Qui la posta in gioco è la salute pubblica e, soprattutto, il modo in cui le decisioni cliniche vengono influenzate.
Proprio oggi, la società ha chiuso un nuovo round di finanziamento da 250 milioni di dollari, portando la sua valutazione complessiva a un livello che supera la capitalizzazione di molti giganti ospedalieri.
Ma se pensate che questa montagna di denaro serva solo a migliorare la precisione delle risposte mediche, state guardando il dito e non la luna.
O meglio, non state guardando chi paga il conto.
Perché OpenEvidence per i medici è gratis. E nel capitalismo della sorveglianza, sappiamo bene che quando il servizio è gratuito, la merce è qualcos’altro.
In questo caso, la “merce” sono i pattern decisionali di quasi mezzo milione di medici americani e, indirettamente, i dati dei loro pazienti.
Il prezzo del “gratis” in corsia
L’ascesa di OpenEvidence è stata fulminea e silenziosa. Mentre il mondo discuteva delle allucinazioni di ChatGPT, Daniel Nadler — fondatore dell’azienda — costruiva un recinto dorato.
A differenza dei modelli linguistici addestrati sull’intero scibile di internet, OpenEvidence si nutre esclusivamente di letteratura peer-reviewed.
Niente Reddit, solo il New England Journal of Medicine e simili. Sulla carta, un servizio ineccepibile.
La narrazione ufficiale è seducente: in un mondo dove la conoscenza medica raddoppia ogni manciata di mesi, nessun umano può stare al passo. L’IA diventa quindi un assistente indispensabile, quasi un collega più esperto e meno stanco.
“Non credo che passi giorno in cui non lo usi”
— Susan Wolver, Internista presso Virginia Commonwealth University
La dottoressa Wolver non è sola. La promessa di efficienza ha convinto oltre 430.000 medici statunitensi a utilizzare la piattaforma, una penetrazione di mercato del 40% che farebbe invidia a qualsiasi rappresentante farmaceutico.
Ed è proprio qui che il discorso si fa scivoloso. Se il medico usa lo strumento per confermare una diagnosi o controllare un dosaggio, chi garantisce che l’algoritmo sia neutro?
Il modello di business dichiarato è la pubblicità. Ma non immaginatevi i banner fastidiosi che vedete sui siti di news.
Qui parliamo di posizionamenti strategici pagati dalle case farmaceutiche e dai produttori di dispositivi medici, visualizzati esattamente nel momento in cui il medico sta prendendo una decisione clinica.
È il sogno proibito del marketing farmaceutico: sussurrare all’orecchio del dottore proprio mentre ha la penna sul ricettario.
Un oracolo da 12 miliardi
La domanda che nessuno sembra farsi con abbastanza insistenza è: come fa un motore di ricerca per medici a valere 12 miliardi di dollari se non vende nulla ai suoi utenti principali?
La risposta risiede nella capacità di profilazione.
OpenEvidence non è solo uno strumento di consultazione; è il più grande collettore di intenzioni cliniche in tempo reale mai esistito.
Ogni volta che un medico interroga il sistema, rivela una lacuna, un dubbio, o la presenza di una specifica patologia nella sua area geografica. Aggregando questi dati, si ottiene una mappa predittiva della salute pubblica di valore inestimabile.
Certo, l’azienda giura di rispettare la privacy e di anonimizzare tutto. Ma abbiamo sentito questa storia troppe volte.
In Europa, il GDPR impone paletti stretti sul trattamento dei dati sanitari, che sono considerati “dati sensibili” per eccellenza. Negli Stati Uniti, la normativa HIPAA è robusta ma frammentata, e le zone grigie abbondano.
Se un medico inserisce una serie di sintomi molto specifici, anche senza nome e cognome, quanto è difficile re-identificare il paziente incrociando i dati con altre banche dati commerciali?
E anche se la privacy del paziente fosse salva, quella del medico non lo è. Le aziende farmaceutiche pagherebbero oro per sapere quale medico è indeciso tra il Farmaco A e il Farmaco B.
“L’idea che si offrisse di dirmi i limiti del mio lavoro e che io fossi d’accordo con lui mi è sembrata fantastica”
— Susan Wolver, Internista presso Virginia Commonwealth University
L’entusiasmo della dottoressa Wolver è comprensibile dal punto di vista operativo, ma rivela una fiducia quasi cieca nella macchina.
OpenEvidence si dichiara “non diagnostico” per evitare le forche caudine della FDA, posizionandosi come semplice “supporto decisionale”. È un trucco semantico vecchio come la Silicon Valley: se non sono un dispositivo medico, non ho bisogno delle certificazioni di sicurezza più stringenti.
Eppure, se 430.000 medici lo usano quotidianamente, de facto sta facendo diagnosi.
La privacy è il paziente dimenticato
Il vero rischio nascosto non è solo che l’IA sbagli. Il rischio è che l’IA abbia ragione, ma per i motivi sbagliati.
Con un volume di traffico che genera ormai 15 milioni di consultazioni cliniche ogni mese, la piattaforma è diventata il veicolo pubblicitario perfetto e, potenzialmente, il più grande strumento di sorveglianza sanitaria privata.
John Doerr, il leggendario investitore di Kleiner Perkins che ha scommesso sull’azienda, ha definito OpenEvidence “il Google per la sanità”. Il paragone dovrebbe farci rabbrividire, non applaudire.
Google ha costruito un impero tracciando ogni nostro desiderio per venderci scarpe e vacanze. Applicare lo stesso modello alla medicina significa trasformare la cura in una transazione ottimizzata dagli algoritmi, dove la “risposta migliore” potrebbe, in modo impercettibile, allinearsi con “la risposta più redditizia” per gli inserzionisti.
Inoltre, c’è il problema della dipendenza tecnologica. Se un’intera generazione di medici si abitua a delegare la sintesi della letteratura a un algoritmo proprietario, cosa succede quando quell’algoritmo cambia i suoi pesi?
O quando l’azienda decide che certe riviste scientifiche non sono più prioritarie nell’indice?
Non avremmo modo di saperlo, perché il funzionamento interno è, come sempre, un segreto industriale.
L’Europa, con il suo AI Act, potrebbe porre un freno a questo modello se OpenEvidence tentasse un’espansione aggressiva nel vecchio continente, classificandolo quasi certamente come sistema ad “alto rischio”.
Ma i confini digitali sono porosi. La ricerca medica è globale, e un tool che diventa lo standard de facto negli USA influenzerà inevitabilmente le pratiche cliniche anche da noi.
Siamo pronti ad accettare che il terzo incomodo tra medico e paziente sia un algoritmo finanziato da chi produce i farmaci che ci verranno prescritti?
La valutazione da 12 miliardi suggerisce che il mercato ha già deciso che la risposta è sì.
Resta da vedere se i pazienti e i regolatori saranno d’accordo a farsi curare da un sistema che, per quanto intelligente, risponde prima di tutto ai suoi azionisti.