Apple si arrende: Siri userà l’intelligenza artificiale di Google
L’azienda di Cupertino costretta a integrare Gemini di Google nel cuore di iOS 26.4, ammettendo un ritardo nello sviluppo dell’intelligenza artificiale proprietaria
È successo quello che in molti, nel sottobosco dello sviluppo software, sospettavano da mesi ma che a Cupertino nessuno voleva ammettere ad alta voce.
Il “giardino recintato” di Apple ha aperto un varco, e non uno piccolo: è un’autostrada a quattro corsie per Mountain View.
La notizia che sta scuotendo la Silicon Valley oggi, 25 gennaio 2026, non è tanto l’aggiornamento di un assistente vocale, quanto l’ammissione implicita di una sconfitta ingegneristica interna.
Apple, l’azienda che ha fatto dell’integrazione verticale (dal silicio al software) il suo dogma, ha dovuto bussare alla porta di Google per dare un cervello funzionante a Siri.
Non stiamo parlando di una semplice partnership commerciale per le ricerche web, come quella che garantisce a Google il default su Safari da anni. Qui siamo di fronte a un’integrazione profonda a livello di sistema operativo.
Per chi scrive codice, la differenza è abissale: Apple non sta solo usando un’API esterna, sta sostituendo il cuore logico della sua interfaccia utente principale con un modello addestrato dai suoi rivali.
Apple ha pianificato una revisione completa di Siri attraverso il progetto “Campos” nelle prossime versioni di iOS, una mossa che rivela l’urgenza di colmare un gap tecnologico diventato imbarazzante.
Ma per capire la portata di questo evento, dobbiamo guardare sotto il cofano di iOS 26.4.
Il cervello di Google nel corpo di Apple
Fino a ieri, Siri operava essenzialmente come un gigantesco albero decisionale rule-based, arricchito da un po’ di machine learning locale per il riconoscimento vocale. Se chiedevi “X”, il sistema cercava nel suo database pre-programmato la risposta “Y”.
Era deterministico, sicuro, ma incredibilmente rigido. L’arrivo dei Large Language Models (LLM) ha reso questa architettura obsoleta quasi istantaneamente.
Il problema di Apple è che i suoi tentativi interni di costruire un modello fondazionale proprietario (il cosiddetto “Ajax”) non hanno raggiunto le metriche di latenza e accuratezza necessarie per il deploy su scala globale.
La soluzione tecnica adottata è un ibrido affascinante e rischioso. Con il rilascio di iOS 26.4 previsto per la primavera, l’architettura di Siri verrà divisa in due: l’elaborazione leggera rimarrà on-device (sul dispositivo), sfruttando i Neural Engine dei chip Apple Silicon per garantire privacy e velocità sulle task banali.
Tuttavia, per qualsiasi richiesta che richieda ragionamento complesso o generazione di testo, la richiesta verrà instradata verso i server. E qui sta la novità: non più (solo) verso i data center di Apple, ma verso le istanze di Gemini.
Questo cambia radicalmente il flusso dei dati. Questa decisione segna un cambiamento cruciale per Apple che esternalizza le capacità di base dell’IA a un rivale.
Tecnicamente, significa che il prompt dell’utente, pur se anonimizzato e processato attraverso quello che Apple chiama “Private Cloud Compute”, viene infine elaborato dai tensori di Google.
È un compromesso ingegneristico notevole: Apple mantiene il controllo del “middleware” di privacy, ma l’intelligenza bruta, l’inferenza vera e propria, è “Made in Google”.
Campos: Oltre la voce
La vera rivoluzione, però, non è solo nel backend, ma in come interagiremo con la macchina.
Il progetto “Campos”, che vedrà la luce probabilmente con iOS 27 nell’autunno del 2026, segna la morte di Siri come semplice assistente vocale e la sua rinascita come agente chatbot multimodale.
Chi sviluppa interfacce sa che la voce è un canale a bassa larghezza di banda: è lenta, imprecisa e pubblica. Una chat, al contrario, permette densità informativa e iterazione.
Campos non si limiterà a rispondere. Grazie alla multimodalità di Gemini, sarà in grado di “vedere” ciò che c’è sullo schermo.
Immaginate di avere un PDF tecnico aperto sul vostro iPad: potrete chiedere a Campos di “riassumere i tre punti chiave del paragrafo visualizzato” o di “estrarre la tabella a pagina 4 in un file Excel”.
Questo richiede un livello di integrazione tra il modello AI e il framework di accessibilità di iOS che va ben oltre le capacità attuali. Non è più Natural Language Processing (NLP) puro; è comprensione contestuale del sistema operativo.
Tuttavia, c’è un dettaglio implementativo che fa storcere il naso ai puristi della sicurezza.
Per far funzionare tutto ciò con la reattività necessaria, Apple sta discutendo l’utilizzo dei server di Google e delle loro TPU (Tensor Processing Units). Sebbene Apple insista sulla crittografia end-to-end, il fatto che i dati, anche se effimeri, debbano attraversare l’infrastruttura hardware di un’azienda il cui business model è basato sulla profilazione, crea una tensione irrisolta tra la promessa di privacy di Apple e la realtà tecnica dell’implementazione.
La resa dei conti architetturale
Perché Apple si è ridotta a questo?
La risposta è nel ritardo accumulato sull’infrastruttura di training. Addestrare un modello come Gemini richiede cluster di GPU (o TPU) immensi, un consumo energetico da piccola nazione e anni di ottimizzazione dei dati.
Apple, focalizzata sull’efficienza dell’hardware consumer, ha sottovalutato la voracità computazionale dell’IA generativa lato server. Il mercato non ha perdonato questa svista.
La capitalizzazione di borsa racconta la storia di un sorpasso basato sull’innovazione pura nel settore AI. Alphabet ha recentemente superato la capitalizzazione di mercato di Apple posizionandosi come seconda azienda più grande, proprio dietro a Nvidia.
Questo dato finanziario è la manifestazione tangibile di una realtà tecnica: chi possiede il modello più performante detta le regole. Apple sta comprando tempo, “affittando” l’intelligenza di Google per non perdere rilevanza mentre cerca disperatamente di ristrutturare i suoi laboratori interni.
Questa mossa ci porta a una conclusione scomoda. L’eleganza di un sistema operativo non basta più se il sistema non è “intelligente” in modo generativo.
Apple sta diventando, per la prima volta nella sua storia recente, un aggregatore di tecnologie altrui per una funzione core del suo prodotto.
Se “Campos” sarà un successo, gli utenti applaudiranno la magia ritrovata di Siri.
Ma per noi tecnici, rimarrà il retrogusto amaro di vedere l’azienda che ha inventato lo smartphone moderno ridotta a costruire una bellissima interfaccia utente sopra il database di qualcun altro.
La domanda non è se funzionerà — Gemini funziona eccome — ma cosa succederà quando Apple vorrà, inevitabilmente, staccare la spina da Google.
Sarà ancora in grado di farlo, o l’integrazione sarà diventata così profonda da rendere il parassita vitale per l’ospite?