Google legge nel pensiero: l’ai personalizzata spia mail e foto
Google lancia “Personal Intelligence” e, dietro la promessa di risposte personalizzate, si apre un dibattito sulla sorveglianza dei dati degli utenti
Se avete mai avuto la sensazione che Google vi leggesse nel pensiero, preparatevi: da oggi vuole leggervi anche le mail, guardare le vostre foto delle vacanze e spulciare la cronologia di YouTube, tutto per rispondervi “meglio” quando cercate qualcosa su internet.
Il confine tra la ricerca sul web e l’intrusione nella vita privata si è ufficialmente dissolto il 22 gennaio, con il lancio della “Personal Intelligence” all’interno della AI Mode di Google Search.
Per anni ci hanno detto che i nostri dati servivano solo a mostrarci pubblicità mirate. Ora, Mountain View ci chiede di pagare un abbonamento mensile per il privilegio di far analizzare la nostra vita digitale dalla sua intelligenza artificiale, Gemini 3i.
La promessa è seducente: chiedete a Google “Organizzami un weekend a Roma” e lui, invece di darvi link generici di TripAdvisor, controllerà le vostre email per vedere i voli prenotati, scannerizzerà le vostre foto per capire che odiate i musei affollati e vi suggerirà un itinerario basato sui video di food blogger che avete guardato su YouTube la sera prima.
È il sogno di un assistente perfetto o l’incubo della sorveglianza totale venduto come servizio premium?
La risposta dipende da quanto vi fidate dell’azienda che ha fatto della profilazione utente il business più redditizio della storia. Ma per capire cosa sta succedendo davvero, dobbiamo guardare oltre il marketing luccicante e seguire i soldi (e i dati).
Il prezzo della “comodità”
La nuova funzione non è per tutti, almeno non ancora. È un club esclusivo per gli utenti americani disposti a sborsare tra i 20 e i 30 dollari al mese per i piani AI Pro o AI Ultra.
Google sta essenzialmente monetizzando due volte: prima raccoglie i vostri dati attraverso servizi “gratuiti” come Gmail e Photos, e ora vi fa pagare per riassemblarli in risposte coerenti.
Il meccanismo tecnico alla base di tutto ciò si chiama RAG (Retrieval-Augmented Generation). In termini poveri, l’AI non “impara” dai vostri dati nel senso che non li usa per addestrare il modello globale (o almeno così giurano gli ingegneri), ma li “pesca” in tempo reale per costruire la risposta.
Immaginate un bibliotecario che, ogni volta che fate una domanda, corre nel vostro archivio personale, legge il vostro diario segreto e poi torna con una risposta che tiene conto di ciò che ha letto.
Comodo? Senza dubbio.
Inquietante? Decisamente.
Pochi giorni fa, Google ha introdotto la Personal Intelligence nell’app Gemini come primo passo di questa integrazione, collegando per la prima volta in modo esplicito i silos di dati che compongono l’ecosistema dell’azienda.
Fino a ieri, la vostra ricerca su Google e la vostra email di conferma dell’hotel vivevano in stanze separate della casa di Google. Ora, l’azienda ha abbattuto i muri, creando un open space dove l’informazione circola liberamente.
E se pensate che questo avvenga senza rischi, non state prestando abbastanza attenzione.
Un campo minato per la privacy
La parola magica che Google ripete come un mantra è “opt-in”. Nessuno vi obbligherà ad attivare questa funzione; dovrete sceglierlo voi.
Tuttavia, chiunque abbia un minimo di esperienza con le Big Tech sa come funzionano questi consensi: interfacce progettate per rendere il “Sì” l’opzione più facile, notifiche costanti che vi ricordano quanto la vostra esperienza sia “limitata” senza l’accesso ai dati personali, e quella sottile pressione psicologica che vi fa sentire tecnologicamente obsoleti se non cedete le chiavi della vostra vita digitale.
Ma c’è un motivo se questa novità arriva prima negli Stati Uniti e non in Europa. Il GDPR (Regolamento Generale sulla Protezione dei Dati) rappresenta uno scoglio formidabile per questo tipo di integrazione trasversale. In Europa, il principio di “limitazione delle finalità” impedisce di usare i dati raccolti per uno scopo (es. inviare email) per un altro scopo totalmente diverso (es. alimentare un chatbot di ricerca) senza basi giuridiche solidissime.
Le preoccupazioni non sono solo teoriche. I difensori della privacy stanno già chiedendo audit indipendenti per verificare la gestione dei dati dichiarata dall’azienda, temendo che l’integrazione tra Gmail, Foto e Ricerca possa creare profili utente di una precisione spaventosa, vulnerabili non solo a data breach, ma anche a richieste governative.
Se l’AI di Google sa tutto di voi per aiutarvi, significa che quelle informazioni sono strutturate, accessibili e centralizzate come mai prima d’ora.
Google, dal canto suo, cerca di rassicurare tutti puntando sulla trasparenza dei controlli. In una dichiarazione standard rilasciata alla stampa durante il lancio, l’azienda ha ribadito la sua posizione:
Diamo priorità alla privacy dell’utente attraverso una partecipazione volontaria (opt-in), controlli robusti e l’elaborazione sul dispositivo dove possibile.
— Google, Note di rilascio ufficiali
“Dove possibile” è la clausola che dovrebbe farvi alzare un sopracciglio. I modelli come Gemini 3i richiedono una potenza di calcolo che il vostro smartphone, per quanto costoso, non possiede. Gran parte di questa magia avviene nel cloud, sui server di Google.
E ogni volta che i dati lasciano il vostro dispositivo, la superficie di attacco si allarga.
L’illusione del controllo e il lock-in perfetto
C’è poi un aspetto di concorrenza sleale che passa spesso inosservato. Integrando così profondamente i suoi servizi, Google sta costruendo il lock-in definitivo.
Se l’AI di ricerca funziona magnificamente solo perché legge la vostra Gmail e vede le vostre Google Photos, quale motivo avrete mai per passare a un provider di posta sicuro come ProtonMail o a un archivio foto diverso?
Usare un servizio concorrente significherebbe rendere la vostra “Intelligenza Personale” improvvisamente stupida.
Stiamo assistendo alla creazione di una gabbia dorata estremamente confortevole. L’obiettivo non è solo fornirvi risposte migliori, ma rendere impossibile l’abbandono dell’ecosistema Google senza subire un trauma digitale.
È una strategia di business geniale: rendere il prodotto (voi e i vostri dati) dipendente dal servizio (l’AI) che si nutre del prodotto stesso.
Inoltre, resta il problema delle “allucinazioni”. Le AI generano errori con una sicurezza disarmante. Cosa succede quando Gemini interpreta male una vecchia email legale o confonde una foto medica per qualcos’altro, fornendo consigli basati su premesse false?
Se cercate “posso mangiare questo?” e l’AI vi dice di sì perché ha letto male le vostre ultime analisi del sangue archiviate in Drive, di chi è la responsabilità?
Siamo di fronte a un bivio tecnologico. Da una parte, la promessa di un computer che ci capisce come un vecchio amico; dall’altra, la realtà di una multinazionale che sta stringendo il cappio attorno alle nostre identità digitali.
La “Personal Intelligence” potrebbe essere l’innovazione dell’anno, ma il costo reale non sono i 20 dollari mensili. È la definitiva rinuncia all’idea che ci sia una parte della nostra vita online che non appartiene a Google.
Siamo pronti a barattare l’ultimo scampolo di privacy per non dover cercare manualmente il codice di prenotazione di un volo?
La storia recente suggerisce di sì, ma non dite che non vi avevamo avvertito.