Google personal intelligence: un cavallo di troia per la privacy?

Google personal intelligence: un cavallo di troia per la privacy?

Con “Personal Intelligence” Google apre le porte ai nostri dati più intimi, promettendo comodità ma sollevando dubbi sulla privacy e sul controllo delle informazioni personali.

C’è un vecchio adagio nel mondo della sicurezza informatica che dice: se qualcuno ti offre le chiavi di casa sua, assicurati che non stia prendendo le misure per cambiare la serratura mentre sei dentro.

Google, con una puntualità quasi inquietante, ha deciso di inaugurare il 2026 aprendo non solo le porte, ma spalancando gli armadi della nostra vita digitale.

Da ieri, per chi utilizza la “AI Mode” nella ricerca, il confine tra ciò che chiediamo al motore di ricerca e ciò che abbiamo privatamente archiviato nelle nostre email e nelle nostre foto è diventato improvvisamente, e pericolosamente, permeabile.

La chiamano “Personal Intelligence”, un nome rassicurante e patinato per descrivere quella che è, a tutti gli effetti, la più grande operazione di data-mining contestuale mai tentata su scala consumer.

L’idea venduta è quella della massima comodità: perché digitare “meteo Chicago” se Google sa già, leggendo la tua conferma di volo su Gmail, che andrai lì la prossima settimana?

Sembra magia, ma dietro il trucco c’è un’infrastruttura vorace che necessita di accedere ai dati più intimi per funzionare.

Josh Woodward ha presentato la funzione Personal Intelligence come un aggiornamento opzionale per il suo modello Gemini, promettendo un’integrazione fluida ma controllata. Eppure, la storia ci insegna che “opzionale” è spesso solo il preludio di “inevitabile”.

Il maggiordomo che sa troppo

Il funzionamento tecnico si basa su Gemini 3, l’ultimo modello di intelligenza artificiale di Mountain View, capace di pescare informazioni (“grounding”) da Gmail, Google Foto, YouTube e dalla cronologia delle ricerche per fornire risposte su misura.

Immaginate di chiedere “trovami un cappotto”: l’AI non vi mostrerà i trend del momento, ma cercherà tra le vostre foto per capire il vostro stile e incrocerà i dati con i vostri biglietti aerei per sapere se vi serve un piumino per l’Alaska o un trench per Londra.

Google si è affrettata a mettere le mani avanti sulla questione privacy, anticipando le ovvie critiche di chi vede in questa mossa un rischio enorme. Josh Woodward, Vice President di Google Labs, ha voluto precisare la posizione dell’azienda riguardo l’utilizzo dei dati personali:

Google non addestra i suoi sistemi sulle caselle di posta personali di Gmail o sulle librerie di Google Foto degli utenti. I sistemi capiscono solo come localizzare quelle informazioni quando viene richiesto.

— Josh Woodward, Vice President di Google Labs, Gemini e AI Studio

Questa distinzione è sottile, quasi chirurgica, e merita di essere dissezionata.

Dire che l’AI “non si addestra” (training) sui dati significa che le vostre email non vengono usate per insegnare al modello come parlare o ragionare in generale. Tuttavia, il modello accede e processa quei dati in tempo reale per generare la risposta (inferenza).

Per l’utente finale, preoccupato che una sua mail riservata possa finire nel calderone dell’algoritmo, la differenza tecnica è minima se il risultato è che un software sta comunque leggendo la corrispondenza per suggerire un acquisto.

Ed è qui che l’ironia della sorte si fa pungente: per proteggere la nostra privacy, ci viene chiesto di fidarci ciecamente dell’architettura che ha costruito il più grande impero pubblicitario della storia.

La connessione tra Gmail e Google Foto rimane una funzionalità strettamente attivabile su richiesta dell’utente, il che teoricamente ci mette al riparo da intrusioni non volute.

Ma quanto tempo passerà prima che l’interfaccia diventi così dipendente da questi dati che rifiutare l’accesso renderà il servizio obsoleto o frustrante?

È la classica tecnica del “cavallo di Troia” della comodità: ti regalo un assistente onnisciente, basta che tu mi dia il permesso di rovistare nei tuoi cassetti.

La trappola della comodità assoluta

L’obiettivo di Google non è (solo) aiutarci a organizzare le vacanze. È costruire un fossato difensivo, un “moat”, intorno al proprio business.

Con l’ascesa di competitor come OpenAI e Perplexity, che offrono risposte dirette senza il carico pubblicitario tradizionale, Google rischiava di diventare un dinosauro.

Ma c’è una cosa che ChatGPT non ha: le vostre email dal 2015 a oggi e l’archivio delle foto delle vostre vacanze. Integrando questi dati nella ricerca, Google rende il suo prodotto unico e impossibile da replicare per la concorrenza.

Robby Stein, VP of Product per Google Search, ha illustrato uno scenario d’uso che svela perfettamente la logica commerciale dietro l’operazione:

La Personal Intelligence può essere particolarmente utile anche per lo shopping, perché la Modalità AI considera il tipo di articoli che acquisti e dove fai compere. Se hai bisogno di un nuovo cappotto per il tuo prossimo viaggio, la Modalità AI potrebbe tenere conto automaticamente dei marchi che preferisci, così come della conferma del volo in Gmail per identificare la destinazione e il periodo (Chicago a marzo). Riceverai suggerimenti per cappotti antivento e versatili adatti al meteo e al tuo look preferito. È come un personal shopper che conosce già il tuo itinerario e lo stile che cerchi.

— Robby Stein, VP of Product, Google Search

Analizziamo questo scenario con il cinismo necessario. Il “personal shopper” non è un amico che vi consiglia; è un algoritmo progettato per massimizzare la conversione.

Incrociando il vostro potere di spesa (dedotto dai brand che acquistate) con i vostri spostamenti futuri, Google può vendere spazi pubblicitari a un prezzo premium mai visto prima.

Non è più “pubblicità mirata”, è “pubblicità predittiva contestuale”.

Se sanno che andate a Chicago e vi piace il lusso, non vedrete mai l’offerta del discount. La vostra bolla si restringe, guidata dalla mano invisibile dell’algoritmo che ottimizza il vostro portafoglio per gli inserzionisti.

Ma c’è un altro aspetto inquietante. Se l’AI sbaglia — e le AI sbagliano, basti pensare alle allucinazioni recenti — cosa succede?

Se il sistema interpreta male una mail legale o una diagnosi medica presente in una foto e vi fornisce un consiglio errato basato su quel malinteso, di chi è la responsabilità?

Google si lava le mani con i disclaimer, ma l’utente si trova a navigare in un mare di informazioni dove la fonte non è più una pagina web verificabile, ma un frullato dei propri dati privati rielaborati da una macchina probabilistica.

Un incubo normativo o un vantaggio competitivo?

Non è un caso che questa novità arrivi con limitazioni geografiche ben precise.

L’azienda ha confermato che l’accesso è attualmente riservato agli abbonati AI Pro e Ultra residenti negli Stati Uniti, lasciando per ora fuori l’Europa.

Bruxelles e il GDPR rappresentano un ostacolo non indifferente per questo tipo di integrazione dati. In Europa, il principio di “limitazione delle finalità” impedisce che i dati raccolti per uno scopo (inviare email) siano usati liberamente per un altro (addestrare o alimentare un assistente alla ricerca) senza un consenso esplicito, granulare e informato.

L’approccio “opt-in” di Google è chiaramente pensato per aggirare preventivamente queste critiche, ma resta il nodo della trasparenza.

Quando un utente clicca su “Connetti Gmail”, ha davvero capito che ogni singola ricerca futura potrebbe interrogare il database della sua vita privata? O pensa semplicemente di attivare una funzione per trovare più velocemente un allegato?

La differenza è abissale.

Inoltre, escludere gli account Workspace (aziendali) e Education dal lancio iniziale è una mossa tattica. Google sa che le aziende non permetterebbero mai che i segreti industriali contenuti nelle email venissero processati da un’AI consumer, anche senza “training” diretto.

Questo doppio standard — protezione rigorosa per le aziende, “fidati di noi” per i consumatori privati — la dice lunga su chi sia il vero prodotto in questa equazione.

Siamo di fronte a un bivio tecnologico. Da una parte, la promessa di un’assistenza digitale che anticipa i nostri bisogni, liberandoci dalla fatica della ricerca manuale. Dall’altra, la cessione definitiva dell’ultimo bastione della nostra privacy digitale: il contesto.

Fino a ieri, Google sapeva cosa cercavamo e cosa scrivevamo, ma le due cose erano separate da compartimenti stagni, almeno nell’interfaccia utente. Oggi quei compartimenti sono stati abbattuti in nome dell’intelligenza artificiale.

Resta da chiedersi se, per avere un assistente che sa quale cappotto ci serve per Chicago, siamo disposti a dargli il permesso di leggere tutto ciò che abbiamo scritto prima di partire.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie