Google paga 68 milioni di dollari per la class action sulla privacy di Assistant
Google accetta di pagare 68 milioni di dollari per chiudere la class action sulla privacy di Assistant, una cifra che solleva interrogativi sull’effettivo costo della violazione della privacy nell’era dell’intelligenza artificiale.
C’è un momento preciso, nel silenzio del salotto di casa, in cui la tecnologia smette di essere un servizio e diventa un’intrusione.
Tecnicamente parlando, avviene quando il buffer locale del microfono del vostro smart speaker decide erroneamente che un colpo di tosse o una frase pronunciata in TV assomigliano troppo alla frequenza d’onda di “Hey Google”.
In quel millisecondo, l’audio smette di essere sovrascritto nella RAM del dispositivo e inizia a viaggiare verso i server di Mountain View.
È proprio su questi millisecondi di “falsi positivi” che si gioca la partita legale che si sta chiudendo in queste ore a San Jose. Dopo anni di battaglie legali, Google ha accettato di pagare 68 milioni di dollari per chiudere la class action sulla privacy di Assistant, evitando così l’imprevedibilità di un processo con giuria.
La cifra potrebbe sembrare imponente a un osservatore distratto, ma per chi mastica architetture cloud e business model basati sui dati, appare più come una tassa di transito che come una vera ammenda.
La questione tecnica al centro della disputa non è banale. I dispositivi come i Google Home o i Nest operano in uno stato di always-on listening.
Per funzionare, devono ascoltare.
Sempre.
Il processore dedicato (solitamente un DSP a basso consumo) analizza il flusso audio in tempo reale cercando la “hot word”. Quando la rileva, attiva la CPU principale e apre il canale verso il cloud per l’elaborazione del linguaggio naturale (NLP).
Il problema, noto agli ingegneri come “false accept”, si verifica quando l’algoritmo probabilistico sbaglia.
E quando sbaglia, registra conversazioni private senza consenso, usandole potenzialmente per addestrare ulteriormente i modelli o, come sostenuto dall’accusa, per profilazione pubblicitaria.
L’inganno del “false Accept”
Per anni, la difesa delle Big Tech si è basata sul concetto di “errore tecnico inevitabile”. Tuttavia, la causa In re Google Assistant Privacy Litigation ha scoperchiato un vaso di Pandora che va oltre il semplice bug software.
I querelanti hanno dimostrato che queste registrazioni non erano incidenti isolati scartati dal sistema, ma venivano spesso conservate e analizzate.
La causa copre un periodo temporale che va dal maggio 2016 al dicembre 2022, un’era geologica in termini informatici, durante la quale milioni di dispositivi hanno potenzialmente agito come orecchie indesiderate nelle case degli utenti.
Dal punto di vista dello sviluppatore, c’è una certa ipocrisia di fondo nell’industria.
Sappiamo tutti che per ridurre il Word Error Rate (WER) di un assistente vocale serve una quantità pantagruelica di dati reali. L’audio “sporco”, quello con rumori di fondo, accenti strani e frasi mozzate, è oro colato per il training delle reti neurali.
Le registrazioni derivanti dai “falsi positivi” sono, cinicamente parlando, un dataset di addestramento eccezionale proprio perché non “recitato”.
Il settlement di 68 milioni riguarda chiunque abbia posseduto un dispositivo Google (Pixel, Home, Nest) e interagito con Assistant in quel periodo. Ma il vero nodo non è il risarcimento, che si tradurrà in pochi dollari per utente, quanto l’ammissione implicita che il sistema non è ermetico come promesso.
La distinzione tra “ascolto locale per la hot word” e “registrazione cloud” è sempre stata la linea di difesa della privacy.
Se quella linea si rivela porosa, l’intero patto di fiducia crolla.
Eppure, Google non è sola in questo pantano architetturale.
Il prezzo della privacy (e il costo del training)
L’industria si muove in gregge.
Non è un caso che, poco prima di questo accordo, Apple abbia dovuto sborsare 95 milioni di dollari per accuse praticamente identiche legate a Siri.
Le dinamiche sono speculari: attivazioni involontarie, registrazioni inviate ai server, revisione umana (spesso appaltata a terzi) per “migliorare la qualità del servizio”. È un modello di business che ha privilegiato la velocità di iterazione dell’AI rispetto alla segregazione dei dati utente.
Le reazioni a questo accordo, datato 26 gennaio 2026, evidenziano una frattura tra la percezione legale e la realtà tecnica.
Enti come l’Electronic Privacy Information Center (EPIC) e Consumer Reports non hanno torto nel definire queste cifre irrisorie rispetto al fatturato di Alphabet.
Se la sanzione per aver violato la privacy è inferiore al costo che si sarebbe sostenuto per acquisire legalmente quegli stessi dati di training, allora non stiamo parlando di una punizione, ma di una voce di spesa operativa.
C’è poi un dettaglio tecnico che spesso sfugge ai non addetti ai lavori: la persistenza dei dati. Anche se l’utente disabilita certe funzioni, i log storici e i modelli già addestrati su quei dati rimangono.
La “pulizia” retroattiva di un modello di machine learning è un’operazione tecnicamente complessa e costosa, spesso impossibile senza degradare le prestazioni dell’AI stessa.
Ci troviamo quindi nella paradossale situazione in cui l’algoritmo che ci risponde oggi è “intelligente” anche grazie alle violazioni di privacy di ieri, ormai condonate con un bonifico.
Una toppa giuridica su una falla architetturale
Guardando al futuro, la tecnologia sta cercando di risolvere il problema spostando l’intelligenza dal cloud all’edge.
I nuovi processori NPU (Neural Processing Unit) nei dispositivi moderni permettono di elaborare gran parte delle richieste direttamente sul dispositivo, senza inviare audio ai server. È una soluzione più elegante, più sicura e tecnicamente superiore.
Tuttavia, il parco macchine installato – quei milioni di vecchi Google Home Mini e Nest Hub ancora attivi nelle case – rimane vincolato alla vecchia architettura cloud-centric, vulnerabile ai falsi positivi e alla fame di dati dei server centrali.
Questo accordo chiude un capitolo legale, ma lascia aperta una questione ingegneristica ed etica fondamentale.
Abbiamo riempito le nostre case di sensori connessi gestiti da aziende il cui core business è l’estrazione di valore dai dati. La promessa era la comodità in cambio di un po’ di profilazione consapevole.
La realtà emersa da queste cause è che il confine del “consapevole” è stato spostato unilateralmente dalle aziende, sfruttando l’opacità del codice proprietario.
Mentre i giudici approvano i rimborsi e gli avvocati incassano le parcelle, i microfoni restano accesi. La luce LED che indica la registrazione si accende solo dopo che l’algoritmo ha deciso di attivarsi, non prima.
E in un mondo dove il software è legge, la vera domanda è:
Ci fidiamo ancora di chi scrive quel codice?