Apple si affida a google: la resa di siri nell’era dell’ai generativa
Apple ammette i limiti della sua AI e si affida a Google, segnando la fine dell’autarchia digitale e aprendo nuovi scenari di privacy e interoperabilità
C’è un silenzio assordante che circonda Cupertino in questo gennaio 2026, ed è ironico che riguardi proprio l’assistente vocale che avrebbe dovuto, secondo le promesse, non stare mai zitto.
La recente uscita di scena di John Giannandrea, fino a dicembre a capo della divisione AI di Apple, non è stata la classica “pensione dorata” che i comunicati stampa vorrebbero farci credere. È stata piuttosto l’ammissione tecnica di un limite architetturale: Apple ha capito di non poter vincere la corsa ai Large Language Model (LLM) giocando da sola, con il proprio hardware e le proprie regole chiuse.
La narrazione ufficiale ci parla di una transizione ordinata verso Craig Federighi, il volto rassicurante del software Apple. Tuttavia, per chi guarda al codice e non al marketing, lo scenario è ben diverso.
Siamo di fronte a un cambio di paradigma ingegneristico.
Per anni, la strategia di machine learning di Apple si è basata su modelli piccoli, locali, eseguiti on-device grazie alla potenza delle NPU (Neural Processing Unit) dei chip Apple Silicon. Una scelta elegante, efficiente e rispettosa della privacy.
Ma nel mondo post-ChatGPT, l’eleganza non basta più: serve la forza bruta. E Apple, sorprendentemente, si è trovata a corto di potenza di fuoco.
Tim Cook ha ufficializzato questo cambio di rotta durante l’annuncio della riorganizzazione della leadership AI, confermando il passaggio di consegne in un momento in cui l’azienda deve recuperare terreno prezioso.
Federighi, che ottiene maggiori responsabilità sull’AI con la nomina di Subramanya, ha supervisionato gli sforzi di Apple per portare “una Siri più personalizzata agli utenti il prossimo anno”, secondo quanto dichiarato dall’azienda.
— Tim Cook, CEO di Apple
Questa “personalizzazione” citata da Cook nasconde però una realtà tecnica complessa: i modelli interni di Apple, noti informalmente come “Ajax” o simili iterazioni, non hanno raggiunto i benchmark necessari per competere con GPT-4 o Claude 3.
Il ritardo non è dovuto alla mancanza di talento, ma a una divergenza strutturale. Mentre Google e OpenAI costruivano data center grandi come città per l’addestramento (training) dei modelli, Apple ottimizzava l’inferenza locale.
Quando il mercato ha richiesto modelli fondativi da centinaia di miliardi di parametri, l’infrastruttura di Cupertino si è rivelata inadeguata per scalare a quella velocità.
È qui che entra in gioco il pragmatismo spietato di Craig Federighi.
Il collo di bottiglia dell’infrastruttura
Federighi è un ingegnere del software, non un ricercatore puro come Giannandrea. La sua priorità è spedire codice che funziona, non pubblicare paper accademici.
Preso atto che i modelli interni non erano pronti per la prima serata — tanto da costringere al rinvio del grande aggiornamento di Siri alla fine del 2026 — ha optato per la soluzione che ogni sviluppatore conosce bene quando il backend proprietario non regge: l’outsourcing tramite API.
La svolta è arrivata quando Apple ha confermato i piani per integrare i modelli Gemini di Google all’interno delle proprie piattaforme, una mossa che tecnicamente trasforma Siri in un “dispatcher”.
Invece di processare ogni richiesta complessa attraverso il Private Cloud Compute (l’architettura server proprietaria di Apple basata su chip Apple Silicon), il sistema ora valuterà la complessità della query.
Se è banale, resta sul dispositivo; se è complessa, viene instradata ai server di Google.
Dal punto di vista dell’ingegneria dei sistemi, questa è una sconfitta per l’approccio “full stack” di Apple. Significa ammettere che per i prossimi anni il cervello più intelligente dentro un iPhone non sarà made in Apple, ma sarà un inquilino in affitto proveniente da Mountain View.
Tuttavia, l’eleganza tecnica sta nell’implementazione: Federighi sta costruendo un livello di astrazione che rende il modello sottostante intercambiabile. Oggi è Gemini, domani potrebbe essere un modello open source come Llama o Mistral, o (se mai ci riusciranno) un modello proprietario finalmente maturo.
Ma questa flessibilità ha un prezzo, e non parlo di dollari.
Un cambio di filosofia: dal silicio al servizio
La decisione di ritardare l’aggiornamento critico di Siri e di affidarsi a partner esterni non è stata presa alla leggera. È una risposta diretta a quanto accaduto nel 2022, quando il rilascio di ChatGPT ha costretto l’azienda a riconsiderare l’intera strategia, spostando il focus dalla comprensione locale dei comandi alla generazione di contenuti su larga scala.
Il vecchio Siri era un esecutore di script; il nuovo deve essere un motore di ragionamento.
Il problema tecnico che Apple sta affrontando ora è la latenza e la coerenza del contesto. Integrare un modello esterno significa gestire chiamate di rete che non sono sotto il tuo diretto controllo.
Per un’azienda ossessionata dall’integrazione verticale hardware-software, dipendere dalla latenza dei server di Google per rispondere a una domanda su un’email salvata localmente è un’eresia tecnica.
Eppure, è l’unica via percorribile per non restare indietro di un decennio.
Queste mosse ai vertici aiuteranno Apple a continuare a spingere i confini del possibile. Con i contributi di Giannandrea come fondazione, la supervisione estesa di Federighi e la profonda competenza di Subramanya a guidare la prossima generazione di tecnologie AI, Apple è pronta ad accelerare il suo lavoro nel fornire esperienze intelligenti, fidate e profondamente personali.
— Esecutivo Apple (comunicato stampa)
La “fondazione” lasciata da Giannandrea è solida sul lato privacy e on-device, ma le fondamenta non fanno un grattacielo. L’arrivo di Amar Subramanya nel team di Federighi segnala la volontà di colmare il gap sull’infrastruttura di training, ma ci vorranno anni.
Nel frattempo, Apple si trova nella scomoda posizione di essere un’interfaccia di lusso per l’intelligenza altrui.
C’è un aspetto ancora più sottile in questa vicenda. L’approccio open source e la trasparenza tecnica che vediamo altrove (si pensi a Meta con Llama o alle community su Hugging Face) sono antitetici alla cultura di Apple.
Tuttavia, integrando modelli terzi, Apple dovrà necessariamente aprirsi a standard di interoperabilità che prima ignorava. Non possono più permettersi di scrivere tutto il codice da zero in Swift o Objective-C se il motore core è una black box fornita da Google.
Il debito tecnico e la scommessa sulla privacy
La vera sfida tecnica per Federighi nel 2026 non sarà tanto l’integrazione delle API, quanto la gestione della “sanitizzazione” dei dati. Per mantenere la promessa della privacy, Apple deve agire come un firewall intelligente: offuscare i dati personali prima che lascino il dispositivo e raggiungano i server di Google, e ricostruire il contesto dopo che la risposta è tornata.
È un’architettura a “doppio cieco” estremamente complessa da implementare senza distruggere l’utilità dell’AI stessa.
Se Apple riuscirà a creare questo layer intermedio in modo efficace, avrà trasformato una debolezza infrastrutturale in un punto di forza: la privacy come servizio, non come prodotto collaterale.
Ma se il sistema risulterà lento, o se le allucinazioni dei modelli di Google inquinano l’esperienza utente “magica” di Apple, la colpa ricadrà interamente sulla nuova gestione.
In definitiva, stiamo assistendo alla fine dell’autarchia digitale di Apple. L’azienda che voleva possedere “le tecnologie primarie” dietro i suoi prodotti si ritrova ora a noleggiare la tecnologia più importante del decennio.
La domanda che ogni sviluppatore dovrebbe porsi non è se Siri diventerà finalmente intelligente, ma se un’intelligenza in affitto potrà mai essere veramente integrata nel sistema operativo.
O se rimarrà per sempre un corpo estraneo trapiantato nel cuore di iOS.