Google ha collegato le tue app per l’assistente AI
Google Gemini collega Gmail, Photos e altre app per personalizzare l'AI, ma l'accesso a dati sensibili solleva critiche sulla privacy e consenso informato.
La funzione, che analizza email e foto, è ora disponibile anche per gli utenti gratuiti e solleva dubbi sul consenso
Cosa accade quando un’intelligenza artificiale promette di conoscerti meglio di te stesso, ma per farlo deve frugare nelle tue email e nelle tue foto private? È questa la contraddizione al centro dell’ultima mossa di Google, annunciata a marzo 2026 e ora in piena espansione. Secondo l’annuncio ufficiale di Google dedicato a Personal Intelligence, il nuovo sistema “consente di collegare in modo sicuro le app Google — come Gmail, Google Photos e altre — per fornire risposte unicamente rilevanti per te”. Suona bene, quasi ovvio. Ma c’è qualcosa che non torna, e vale la pena scavare.
Il Paradosso della Connessione Personale
La promessa è semplice: Gemini, l’assistente AI di Google, diventa più utile perché accede a ciò che già sai, che già fai, che già scrivi. Hai ricevuto una email con i dettagli di un volo? Gemini lo sa. Hai caricato le foto delle vacanze? Gemini le ha viste. Il sistema collega Gmail, Photos, YouTube e Search “con un solo tocco”, stando a quanto Google ha comunicato già a gennaio 2026. Il concetto è quello di un assistente che non ti chiede di spiegarti ogni volta da capo, perché ha già il contesto. In teoria, una comodità notevole.
In pratica, però, questa personalizzazione funziona solo per gli account Google personali — non per gli utenti aziendali, enterprise o educativi di Workspace. Una distinzione tecnica che, letta con attenzione, dice molto: Google ha scelto di partire dagli utenti privati, quelli con minori protezioni contrattuali, quelli meno attrezzati per leggere le clausole fini. Chi ci guadagna, e chi si assume il rischio? La risposta non è simmetrica.
Dietro le Quinte: Architettura e Vulnerabilità
Per capire i veri rischi, bisogna tornare indietro di qualche mese. A gennaio 2026, attraverso la pagina ufficiale di Gemini dedicata a Personal Intelligence, Google ha descritto la propria architettura tecnica come una soluzione al cosiddetto “problema del contesto”: come fare in modo che un’AI abbia abbastanza informazioni su di te per rispondere in modo davvero utile, senza doverti chiedere ogni volta di fornirle? La risposta è stata: collega tutto. Gmail, Photos, YouTube, Search. Un unico flusso di dati personali che alimenta il modello.
Google sostiene che il sistema è stato progettato con “trasparenza, scelta e controllo al centro”: gli utenti possono attivare o disattivare le connessioni in qualsiasi momento. Opt-in, dunque. Non obbligatorio. Ma “opt-in” non significa “sicuro”, e la distinzione conta. Il database degli incidenti AI dell’OECD ha registrato, questo mese, come il caso Gemini nel registro OECD degli incidenti AI descriva chiaramente la situazione: “Gemini AI di Google scansiona ora le foto e le email personali degli utenti per generare contenuti personalizzati”, e la funzione “accede a dati sensibili da Google Photos e Gmail, suscitando critiche per processi di consenso vaghi e potenziali violazioni dei diritti”. Non è un’opinione minoritaria: è una valutazione pubblica di un organismo internazionale.
Qui si apre la questione più delicata. Quando Google dice che l’utente “sceglie se e quando connettere le app”, sta assumendo che quella scelta avvenga in modo informato. Ma quante persone leggono davvero cosa comporta abilitare l’accesso di Gemini alle proprie email? Quante sanno che un modello AI analizzerà il contenuto delle loro foto? Il consenso vago, denunciato dall’OECD, non è un dettaglio tecnico: è il cuore del problema. In Europa, il GDPR richiede che il consenso sia specifico, informato e inequivocabile. È difficile sostenere che un toggle nelle impostazioni soddisfi questi criteri quando l’utente medio non ha una chiara comprensione di cosa sta autorizzando.
L’Espansione Silenziosa e il Vuoto Normativo
Mentre il dibattito sulla privacy rimane aperto, la tecnologia avanza. Personal Intelligence è disponibile negli Stati Uniti per AI Mode in Search, e — fatto forse ancora più significativo — si sta espandendo dagli utenti a pagamento a quelli gratuiti. Questo passaggio non è un dettaglio. Quando un servizio era riservato agli abbonati, si poteva almeno ipotizzare che chi pagava avesse accettato consapevolmente condizioni più stringenti. Estenderlo agli utenti gratuiti significa portarlo a decine di milioni di persone che non hanno necessariamente letto termini aggiuntivi, che non hanno necessariamente capito cosa cambia.
Perché proprio ora? La domanda va posta. Google si trova in un momento in cui la concorrenza nel settore AI si è intensificata, e la personalizzazione profonda è una delle poche leve che un’azienda con un archivio dati enorme come il suo può sfruttare in modo differenziale rispetto ai concorrenti. Il tempismo dell’espansione agli utenti gratuiti — allargare la base, velocemente, prima che i regolatori si muovano — è una strategia che abbiamo già visto in altri contesti tecnologici. E sappiamo com’è andata.
Google ha costruito uno strumento che connette ogni aspetto della vita digitale di miliardi di persone. La domanda su chi controllerà questi dati, su quali basi legali vengono trattati e con quali garanzie reali per gli utenti rimane senza risposta chiara. La comodità ha un prezzo. Sapere qual è, esattamente, è il minimo che dovremmo pretendere.