Google Glass: Sergey Brin Ammette l’Errore di Arroganza e le Lezioni sulla Privacy
La confessione di Sergey Brin sui Google Glass riapre il dibattito tra privacy e tecnologia, mentre si affaccia una nuova era di dispositivi indossabili con IA
Ci sono momenti nella storia della tecnologia che fungono da spartiacque, non tanto per il successo del prodotto, quanto per le lezioni brutali che impartiscono ai loro creatori.
Per anni, abbiamo guardato ai Google Glass del 2013 come a un esperimento audace, forse troppo in anticipo sui tempi, fallito perché il mondo “non era pronto”. Ma oggi, a distanza di oltre un decennio, la narrazione cambia radicalmente.
Non è stato il mondo a non essere pronto. È stata l’arroganza della Silicon Valley a commettere un errore di calcolo fondamentale.
La recente confessione di Sergey Brin, co-fondatore di Google, durante un incontro con gli studenti di Stanford, non è solo un “mea culpa”: è una finestra rarissima sulla psicologia dei giganti tech. Brin ha ammesso candidamente di aver peccato di hubris, quella tracotanza che spesso accompagna i geni visionari, credendo di poter replicare la magia di Apple senza averne la disciplina.
È affascinante, e al tempo stesso disarmante, sentire uno degli uomini più potenti del mondo ammettere di aver costruito un prodotto basandosi su un’illusione personale piuttosto che su una strategia industriale solida.
Questa ammissione riapre una ferita mai del tutto rimarginata nel rapporto tra big tech e privacy, costringendoci a rileggere il fallimento dei Glass non come un incidente di percorso, ma come un campanello d’allarme che risuona ancora oggi, nel pieno della nuova corsa all’hardware integrato con l’intelligenza artificiale.
Il miraggio della perfezione hardware
Il cuore della questione risiede in un malinteso di fondo su cosa significhi creare un prodotto di consumo.
Nel 2013, Google era l’indiscusso re del software: lanciava “beta” imperfette, raccoglieva dati, migliorava e iterava. È il metodo scientifico applicato al codice. Ma quando si passa agli atomi, alla plastica e al vetro che le persone devono indossare sul proprio viso, le regole cambiano drasticamente.
Brin ha rivelato che la fretta di commercializzare i Glass derivava dal desiderio di emulare il carisma e l’impatto di Steve Jobs, ignorando però il processo maniacale che Jobs imponeva ai suoi team. Apple non rilasciava prototipi sperando che gli utenti capissero come usarli; rilasciava prodotti finiti che insegnavano agli utenti come usarli.
“Ho commesso l’errore di pensare di essere il prossimo Steve Jobs e di poter creare questo oggetto. Ta da.”
— Sergey Brin, Co-fondatore di Google
Questa mentalità ha portato al lancio di un dispositivo che era, a tutti gli effetti, un cantiere aperto venduto a 1.500 dollari.
Invece di perfezionare l’esperienza utente in segreto, Sergey Brin ha ammesso pubblicamente di aver lanciato il prodotto troppo presto, travolto da una valanga di aspettative che lui stesso aveva contribuito a creare.
Il risultato è stato un disastro di design: un oggetto che prometteva il futuro ma offriva una batteria limitata e un’interfaccia goffa. Ma il problema tecnico era secondario rispetto a quello sociale.
L’errore di Brin non è stato solo ingegneristico, ma antropologico. Ha dimenticato che la tecnologia indossabile non è un server in un data center: è un segnale sociale.
E il segnale che i Glass inviavano non era “sono innovativo”, ma “ti sto osservando”.
Quando la tecnologia corre più veloce della società
L’aspetto più critico di questa vicenda, che oggi assume tinte ancora più fosche, riguarda la privacy. I Google Glass non erano solo occhiali; erano una videocamera da 5 megapixel sempre accesa, posizionata ad altezza occhi, pronta a catturare il mondo senza alcun indicatore luminoso evidente.
Il termine “Glasshole”, coniato per descrivere gli utenti che indossavano il dispositivo in contesti inappropriati, non era semplice bullismo digitale. Era la manifestazione di un disagio collettivo profondo.
Per la prima volta, la sorveglianza non era appannaggio dello Stato o delle telecamere a circuito chiuso, ma diventava peer-to-peer, decentralizzata e imprevedibile.
Le preoccupazioni non erano infondate. Già all’epoca, organizzazioni per i diritti civili avevano alzato la voce.
L’Electronic Frontier Foundation aveva avvertito dei rischi di una sorveglianza pervasiva, sottolineando come la normalizzazione di tali dispositivi potesse erodere per sempre l’aspettativa di anonimato negli spazi pubblici.
Il contrasto tra l’entusiasmo di Brin e la realtà normativa era stridente. Mentre a Mountain View si sognava un futuro di informazioni in sovrimpressione, in Europa e negli Stati Uniti i legislatori iniziavano a chiedersi come le leggi esistenti potessero arginare una raccolta dati così invasiva.
Non si trattava solo di scattare una foto di nascosto; si trattava di processare, potenzialmente, i volti e le abitudini di chiunque entrasse nel campo visivo dell’utente, spesso a sua insaputa.
La lezione che Brin sembra aver imparato solo a posteriori è che l’innovazione non avviene nel vuoto.
Se forzi l’adozione di una tecnologia che rompe il contratto sociale non scritto — quello secondo cui non vengo registrato mentre bevo un caffè al bar — la società reagirà rigettando il trapianto.
Lezione appresa o storia che si ripete?
È facile guardare indietro e sorridere dell’ingenuità di quel periodo, ma l’analisi di oggi deve essere proiettata al futuro. Siamo alla fine del 2025 e i dispositivi indossabili sono tornati prepotentemente di moda, spinti questa volta non solo dalla miniaturizzazione dell’hardware, ma dall’integrazione con modelli di intelligenza artificiale generativa sempre più potenti.
La confessione di Brin arriva in un momento cruciale. Le Big Tech stanno nuovamente cercando di mettere telecamere e microfoni sui nostri volti.
La differenza è che oggi la tecnologia è più discreta, meno “cyborg” e più simile a un accessorio di moda. Ma i rischi fondamentali rimangono, se non amplificati.
All’epoca del lancio dei Glass, la politica si mosse con una rapidità insolita. Un gruppo bipartisan del Congresso USA aveva sollevato interrogativi sulla gestione dei dati, chiedendo garanzie che Google non riuscì a fornire in modo convincente.
Quella pressione contribuì a far ritirare il prodotto dal mercato consumer nel 2015. Oggi, con la regolamentazione sull’AI ancora in divenire, il rischio è che le aziende commettano lo stesso errore: innamorarsi della fattibilità tecnica ignorando l’impatto etico.
L’entusiasmo per la tecnologia è il motore del progresso, e nessuno vuole fermare l’innovazione. Tuttavia, l’ammissione di Brin ci ricorda che anche le menti più brillanti possono essere accecate dal proprio ego.
Voler essere “il prossimo Steve Jobs” non significa solo avere visione, significa avere l’umiltà di capire cosa le persone desiderano realmente e, soprattutto, cosa sono disposte a tollerare.
Resta quindi una domanda aperta, che va oltre la nostalgia per un gadget fallito: siamo sicuri che le attuali iterazioni di smart glasses abbiano davvero risolto il problema della privacy, o l’hanno semplicemente reso invisibile, nascondendolo dietro montature di design e assistenti vocali amichevoli?