Apple e l'oracolo digitale: il ridimensionamento di Project Mulberry e il muro della realtà

Apple e l’oracolo digitale: il ridimensionamento di Project Mulberry e il muro della realtà

Il sogno di un oracolo digitale per la salute, “Project Mulberry”, si è infranto contro le sfide della privacy, della responsabilità legale e della concorrenza del mercato.

C’è una sottile, ma fondamentale differenza tra vendere un orologio che conta i passi e vendere un oracolo digitale che pretende di dirti come vivere la tua vita.

Apple, a quanto pare, ha appena sbattuto violentemente contro questo muro invisibile.

Per anni ci hanno raccontato che il futuro della medicina sarebbe stato predittivo, personalizzato e, soprattutto, automatizzato.

“Project Mulberry”, il nome in codice di quello che doveva essere il servizio di coaching sanitario definitivo basato sull’intelligenza artificiale, doveva essere la punta di diamante di questa rivoluzione.

Eppure, le notizie che filtrano da Cupertino in queste ore raccontano una storia diversa: quella di una ritirata strategica, o forse, di una presa di coscienza tardiva.

Non è un mistero che la Silicon Valley abbia un complesso di Dio quando si tratta di salute. L’idea è sempre la stessa: dateci i vostri dati biometrici – battito, sonno, ossigeno, umore – e noi vi restituiremo la formula dell’immortalità (o almeno di una vecchiaia in forma).

Tuttavia, Bloomberg ha riferito che Apple sta ridimensionando significativamente i piani per il suo coach sanitario basato sull’intelligenza artificiale, trasformando quello che doveva essere un servizio in abbonamento onnicomprensivo in una serie di funzionalità frammentate da integrare nell’app Salute esistente.

Perché questo passo indietro?

Ufficialmente, si parla di competitività. Ufficiosamente, il castello di carte delle promesse AI sta iniziando a tremare sotto il peso della privacy e della responsabilità legale.

Il miraggio del coach infallibile

Immaginate un’intelligenza artificiale che ha accesso non solo a quanti passi avete fatto, ma alla vostra cartella clinica, alle vostre abitudini alimentari e persino al vostro stato mentale.

Il progetto Mulberry, noto internamente anche come “Health+”, mirava proprio a questo: utilizzare i Large Language Models (LLM) per analizzare questa montagna di dati sensibili e fornire raccomandazioni proattive.

Doveva essere il vostro nutrizionista, il vostro cardiologo e il vostro psicologo, tutto in un unico abbonamento mensile.

Ma c’è un problema strutturale che le brochure patinate del marketing tendono a omettere: le allucinazioni dell’AI.

Se ChatGPT sbaglia una ricetta di cucina, buttate via la cena. Se un’AI sanitaria sbaglia un consiglio su un’aritmia o sulla gestione del diabete, le conseguenze sono ben diverse. L’entusiasmo iniziale per l’AI generativa si sta scontrando con la realtà normativa e tecnica.

Apple, che ha sempre fatto della privacy il suo cavallo di battaglia (spesso più come slogan che come dogma inviolabile), si trova in una posizione scomoda.

Come si fa a garantire che un algoritmo “scatola nera” non suggerisca pratiche dannose? E soprattutto, come si gestisce il trattamento di dati così sensibili in conformità con il GDPR in Europa, che vieta decisioni automatizzate significative senza intervento umano?

La decisione di smembrare il progetto non è solo tecnica, è una questione di gestione del rischio. Spostare il focus da un “coach” che ti dice cosa fare a semplici “feature” che ti mostrano dei grafici scarica la responsabilità dall’azienda all’utente.

È la classica mossa di chi lancia il sasso e nasconde la mano: ti do gli strumenti, ma se li usi male, non è colpa del mio algoritmo.

La guerra dei servizi e il fattore umano

Dietro le quinte di Apple Park, però, non si parla solo di etica o di accuratezza medica.

Si parla, come sempre, di soldi e di potere interno.

Il ridimensionamento del progetto coincide con un cambio della guardia significativo. Con il ritiro del COO Jeff Williams, storico sostenitore delle iniziative sanitarie, la palla è passata a Eddy Cue, il capo dei servizi.

Cue è un uomo di numeri, colui che deve garantire che la linea di bilancio “Servizi” continui a crescere a doppia cifra per compensare le vendite hardware stagnanti.

La prospettiva di Cue è brutalmente pragmatica.

Non gli interessa se l’AI può “curare” l’umanità; gli interessa se l’AI può vendere abbonamenti.

E qui sorge il problema: la concorrenza non sta a guardare. Aziende come Oura e Whoop hanno costruito ecosistemi verticali molto specifici, che offrono già oggi quello che Apple prometteva per domani, spesso con una precisione e una actionability dei dati superiore.

Apple deve muoversi più velocemente e competere in modo più efficace nel settore della salute, poiché rivali come Oura Health, Whoop, Samsung e Strava offrono funzionalità considerate più avvincenti e utili.

— Eddy Cue, Responsabile dei Servizi presso Apple

Questa ammissione è rara per un’azienda abituata a definirsi leader indiscussa. Cue ha guardato il progetto Mulberry e ha capito che non era abbastanza sticky (appiccicoso) per giustificare un nuovo canone mensile agli occhi degli utenti.

La verità è che Eddy Cue ritiene che i rivali offrano funzionalità considerate più avvincenti e utili rispetto a quanto Apple aveva in cantiere, decretando di fatto la morte del progetto come entità autonoma.

Ma c’è un’altra lettura, più inquietante.

Apple sta lentamente realizzando che monetizzare la salute è molto più difficile che monetizzare la musica o le serie TV. Quando trasformi il benessere in un servizio in abbonamento, crei un conflitto di interessi: l’azienda guadagna se tu continui a sentirti “bisognoso” di monitoraggio, non se guarisci o stai bene.

I dati sono il vero petrolio (e il vero rischio)

Torniamo alla questione cruciale: la privacy.

Per far funzionare un sistema come quello immaginato in origine per Mulberry, Apple avrebbe dovuto creare un profilo utente così dettagliato da far impallidire i data broker tradizionali. Anche con l’elaborazione on-device (sul dispositivo) promessa da Apple Intelligence, i metadati e i pattern comportamentali devono essere addestrati.

Chi controlla questi modelli? Su quali dati medici sono stati “sintonizzati”?

La creazione di uno studio a Oakland per produrre contenuti video con esperti e la raccolta di dati da medici reali suggerisce che Apple voleva diventare un editore sanitario.

Ma un editore è responsabile di ciò che pubblica.

In un’era in cui l’AI può inventare fatti dal nulla, il rischio reputazionale è immenso. Inoltre, integrare queste funzioni in iOS 26 avrebbe significato sottoporre il software a controlli normativi molto più stringenti, forse classificandolo come dispositivo medico (“Software as a Medical Device” o SaMD) presso la FDA americana o secondo il regolamento MDR in Europa.

Ridurre tutto a singole funzionalità nell’app Salute permette ad Apple di rimanere nella zona grigia del “benessere” (wellness), evitando le forche caudine della regolamentazione medica vera e propria.

È un gioco di prestigio: ti vendo la sensazione di essere curato, senza le responsabilità legali della cura.

Resta da chiedersi cosa succederà ora ai dati che Apple ha già raccolto o pianificava di raccogliere. La promessa di privacy-first regge finché non scontra con la necessità di addestrare algoritmi sempre più affamati.

Se il progetto Mulberry è stato smembrato, i suoi pezzi – dall’analisi dell’andatura alla gestione del recupero – finiranno comunque nei nostri iPhone. La differenza è che non avremo un “coach” virtuale a cui dare la colpa, ma saremo noi, soli con i nostri grafici colorati, a dover interpretare segnali che forse nemmeno l’algoritmo capisce davvero.

Siamo sicuri di voler affidare la nostra salute a chi, fino a ieri, era preoccupato principalmente di venderci un nuovo cavetto di ricarica proprietario?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie