Apple si arrende: Siri diventa un chatbot AI per non perdere il controllo

Apple si arrende: Siri diventa un chatbot AI per non perdere il controllo

L’evoluzione di Siri in chatbot solleva interrogativi sulla privacy e sul controllo dei dati degli utenti, segnando un cambiamento radicale nella strategia di Apple

Se c’è una cosa che la Silicon Valley sa fare meglio di chiunque altro, è rimangiarsi le proprie promesse etiche non appena il mercato inizia a scommettere contro di loro.

Fino a ieri, l’approccio di Apple all’intelligenza artificiale era venduto come misurato, quasi artigianale: strumenti integrati, invisibili, che “lavorano per te” senza doverci chiacchierare come se fossero esseri senzienti.

Oggi, 22 gennaio 2026, quella narrazione sembra essere finita nel cestino, insieme ai vecchi cavi Lightning.

La notizia che sta rimbalzando dagli uffici di Cupertino non è solo un aggiornamento software; è un’ammissione di paura.

Sembra infatti che Apple preveda di rinnovare Siri trasformando l’assistente digitale nel primo chatbot di intelligenza artificiale dell’azienda, una mossa che segna l’ingresso tardivo ma aggressivo del produttore di iPhone in una corsa agli armamenti generativi finora dominata da OpenAI e Google.

Il progetto, nome in codice “Campos”, non è una semplice mano di vernice su un assistente vocale che, diciamocelo, fatica ancora a capire quando gli chiediamo di accendere le luci in salotto.

Si tratta di una ristrutturazione radicale che mira a rimpiazzare l’interfaccia attuale con un sistema capace di conversazioni complesse, inserito in profondità nel sistema operativo.

Ma se pensate che questo sia fatto per la vostra comodità, vi sbagliate di grosso: è una mossa disperata per non perdere il controllo sull’unica cosa che conta davvero, l’interfaccia tra l’utente e i suoi dati.

La conversione di Cupertino: da assistente a oracolo

L’ironia della sorte è palpabile se si guarda indietro alle dichiarazioni della dirigenza Apple. Per anni, Craig Federighi e soci hanno storto il naso difronte all’idea di un chatbot onnisciente, preferendo un approccio funzionale. “Non volevo che Siri fosse un chatbot”, dicevano.

E oggi?

Oggi devono correre ai ripari perché il pubblico ha deciso che parlare con una macchina che allucina risposte creative è più divertente di una che imposta timer affidabili.

Non volevo che Siri fosse un chatbot.

— Craig Federighi, Senior Vice President of Software Engineering presso Apple

Questa inversione a U non è solo imbarazzante, è sintomatica di come le Big Tech non guidino l’innovazione, ma vengano trascinate dalla corrente del capitale.

In passato, Federighi aveva sottolineato come la visione dell’azienda per l’AI dovesse essere integrata e a portata di mano, uno strumento silenzioso piuttosto che un interlocutore logorroico. Tuttavia, il successo travolgente di ChatGPT ha reso quella filosofia insostenibile agli occhi degli investitori.

Il risultato?

Apple sta costruendo esattamente ciò che aveva giurato di evitare, ma con un packaging diverso: lo chiameranno probabilmente “evoluzione naturale”, ma la verità è che stanno cercando di evitare che l’iPhone diventi un semplice guscio vuoto per le app di Sam Altman.

E qui casca l’asino, o meglio, la privacy.

Il dilemma della privacy on-device

La nuova Siri promette di utilizzare modelli linguistici di grandi dimensioni (LLM) direttamente sul dispositivo, sfruttando la potenza dei chip Apple Silicon. Sulla carta, questo è il mantra della “Privacy by Design”: i dati non lasciano il telefono, quindi sono al sicuro.

Ma è davvero così semplice?

Quando un sistema operativo inizia a “ragionare” sui vostri dati personali — email, messaggi, note sanitarie, posizione — per generare risposte complesse, stiamo creando un profilo comportamentale di una profondità spaventosa direttamente nelle nostre tasche.

Il problema non è solo dove vengono elaborati i dati, ma come. Un modello generativo non è un database; è una scatola nera probabilistica.

Se Siri inizia a inferire le vostre abitudini o, peggio, a fare deduzioni errate sulla vostra salute o sulle vostre finanze basandosi su frammenti di dati sparsi tra le app, chi ne risponde?

Il GDPR in Europa è chiaro sull’uso dei dati per decisioni automatizzate, ma le sfumature tecniche di questi modelli rendono l’applicazione della norma un incubo. Già nel 2024, Apple aveva mostrato un’anteprima di una Siri potenziata con capacità di comprensione del contesto come parte della suite Apple Intelligence, ma le implicazioni di un chatbot pienamente conversazionale e “proattivo” sono di un altro ordine di grandezza.

Se il modello “allucina” — termine tecnico per dire che si inventa le cose — e vi suggerisce un’azione dannosa basata su una lettura errata dei vostri dati biometrici, la scusa del “calcolo on-device” non reggerà.

Inoltre, l’Electronic Frontier Foundation ha già sollevato dubbi: più rendiamo questi assistenti “intelligenti”, più dati devono ingerire.

Il confine tra “utile” e “invadente” non è mai stato così sottile, e Apple sta camminando su un filo rasoio sopra una fossa di potenziali violazioni della privacy.

La guerra per la nostra attenzione (e i nostri dati)

Non illudiamoci: questa mossa non serve a migliorare la nostra vita, serve a proteggere il modello di business di Apple.

Se gli utenti iniziano a usare ChatGPT o Claude come interfaccia primaria per il web e i servizi, l’iPhone diventa un pezzo di vetro inutile e l’App Store perde la sua centralità (e le sue commissioni).

Integrare un chatbot avanzato a livello di sistema operativo è l’unico modo per Apple di mantenere il “lock-in”, chiudendo gli utenti in un giardino recintato che ora ha anche i muri imbottiti di intelligenza artificiale.

Apple prevede di rinnovare Siri entro la fine di quest’anno trasformando l’assistente digitale nel primo chatbot di intelligenza artificiale dell’azienda, spingendo il produttore di iPhone in una gara di IA generativa dominata da OpenAI e Google.

— Mark Gurman, Giornalista presso Bloomberg

Ma c’è un rischio sistemico.

Centralizzare l’accesso alle informazioni attraverso un unico intermediario AI controllato da una singola azienda crea un collo di bottiglia informativo senza precedenti.

Chi decide quali fonti Siri considererà autorevoli? Chi controlla i bias del modello? Se Siri diventa la lente attraverso cui 1,5 miliardi di utenti vedono il mondo, la neutralità della piattaforma — già discutibile oggi — diventa un ricordo del passato.

Siamo pronti ad affidare la nostra interazione digitale a un assistente che finge di essere umano, gestito da un’azienda che finge di tenere alla nostra privacy solo finché questo non intacca i suoi margini di profitto?

La trasformazione di Siri in chatbot non è un passo avanti verso il futuro; è un disperato tentativo di non diventare il passato.

E come sempre, il prezzo del biglietto per questo spettacolo lo pagheremo con i nostri dati.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie