Openai si ricorda tutto: chatgpt diventa una minaccia per la privacy?
Con la nuova AI di OpenAI ogni conversazione verrà archiviata e incrociata, costruendo un profilo utente dettagliato e sollevando preoccupazioni sulla privacy.
C’è una promessa seducente che la Silicon Valley ci ripete ormai da un decennio come un mantra ipnotico: la tecnologia ci conoscerà meglio di quanto conosciamo noi stessi.
Oggi, 16 gennaio 2026, OpenAI sembra aver deciso di trasformare quella promessa in una minaccia concreta, o quantomeno in un incubo per chiunque abbia a cuore il concetto di privacy. L’azienda guidata da Sam Altman ha svelato l’ultimo aggiornamento della sua intelligenza artificiale: una memoria “totale”, capace di scansionare, archiviare e incrociare ogni singola conversazione avuta in passato per costruire un profilo dell’utente sempre più dettagliato.
Se fino a ieri ChatGPT fingeva di dimenticare chi eravamo alla fine di ogni sessione, o si limitava a salvare goffamente qualche preferenza isolata, oggi getta la maschera.
Non siamo più di fronte a uno strumento che risponde a domande; siamo di fronte a un compagno che prende appunti.
E non smette mai di farlo.
L’entusiasmo con cui viene presentata questa novità è inversamente proporzionale alla cautela con cui dovremmo accoglierla.
Questa è una funzionalità sorprendentemente ottima, a mio avviso, e indica qualcosa di cui siamo entusiasti: sistemi di IA che imparano a conoscerti nel corso della tua vita e diventano estremamente utili e personalizzati.
— Sam Altman, CEO di OpenAI
“Imparano a conoscerti nel corso della tua vita”. Una frase che dovrebbe far correre un brivido lungo la schiena di qualsiasi garante della protezione dei dati, ma che nel quartier generale di San Francisco viene celebrata come l’alba di una nuova era.
La narrazione ufficiale è rassicurante, quasi domestica: ci dicono che serve per ricordare le ricette preferite o la scheda della palestra. Ma è davvero credibile che un’azienda valutata centinaia di miliardi di dollari stia costruendo l’infrastruttura di sorveglianza più sofisticata della storia solo per ricordarci quanto sale mettere nella pasta?
La memoria perfetta (che non dimentica mai)
Tecnicamente, il salto in avanti è notevole. Non si tratta più di una memoria selettiva, dove l’utente deve esplicitamente chiedere di ricordare qualcosa.
Il nuovo sistema è proattivo.
OpenAI ha annunciato che la memoria di ChatGPT potrà ora fare riferimento a tutte le chat passate per fornire risposte contestualizzate, pescando informazioni da conversazioni che l’utente stesso potrebbe aver dimenticato. Immaginate di aver menzionato un’allergia alimentare tre mesi fa in una chat di prova, o di aver confidato una preoccupazione lavorativa l’anno scorso. Tutto quel contesto ora riemerge, automaticamente, per “aiutarvi”.
È la fine della compartimentazione.
Fino a ieri, potevamo illuderci che ogni chat fosse un silos isolato. Potevamo usare ChatGPT per lavoro, poi per svago, poi per questioni mediche, sicuri che i flussi non si sarebbero mai incrociati. Quella barriera è caduta. L’IA ora unisce i puntini.
E mentre gli ingegneri festeggiano la fine della ridondanza — non dovremo più ripeterci, che sollievo — noi stiamo cedendo l’ultimo pezzo di controllo che avevamo: l’oblio.
ChatGPT è ora più affidabile nel trovare e ricordare dettagli dalle tue chat passate, come ricette o allenamenti. Provatelo e fateci sapere cosa ne pensate.
— Samir, Dipendente OpenAI
La banalità degli esempi citati — ricette e allenamenti — è uno specchietto per le allodole. Nessuno costruisce un cervello digitale onnisciente per gestire la lista della spesa. Il vero valore di questa “memoria affidabile” risiede nella profilazione psicometrica dell’utente.
Conoscere il tono della nostra voce scritta, le nostre ansie ricorrenti, i nostri orari di attività e le nostre inclinazioni politiche permette di creare un gemello digitale di valore inestimabile.
Ma c’è un dettaglio che OpenAI sussurra appena, e che invece dovrebbe essere urlato.
Il prezzo della vostra intimità
Questa rivoluzione della memoria non è per tutti, e non è ovunque. C’è una frattura geografica e censuaria che rivela la vera natura del prodotto. Innanzitutto, l’accesso è riservato a chi paga.
Il servizio è immediatamente disponibile per gli abbonati al livello Pro da 200 dollari al mese, una cifra che chiarisce subito il target: professionisti, aziende, power user che sono disposti a barattare la privacy per l’efficienza.
La memoria, insomma, è un lusso. O meglio: essere sorvegliati in modo efficiente è un servizio premium.
Ma il vero campanello d’allarme suona guardando la mappa. Questa funzionalità non è disponibile nell’Unione Europea, nel Regno Unito o in Svizzera.
Perché? Per via delle leggi sulla privacy, GDPR in testa.
Se una funzionalità è incompatibile con le normative che tutelano i diritti fondamentali dei cittadini europei, forse il problema non è la burocrazia di Bruxelles, ma l’invasività della tecnologia californiana.
Il fatto che OpenAI non riesca — o non voglia — rendere questa memoria conforme al GDPR è la prova del nove. Significa che i principi di “minimizzazione dei dati”, “limitazione delle finalità” e “diritto all’oblio” sono strutturalmente antitetici al modello di business che stanno spingendo. In Europa siamo protetti (per ora) dalla nostra “arretratezza” normativa; nel resto del mondo, gli utenti stanno allegramente addestrando il modello che li profilerà a vita, pagando pure un abbonamento per il privilegio di farlo.
Un assistente o un sorvegliante?
C’è poi un aspetto di dipendenza psicologica che viene sottovalutato. Nel momento in cui deleghiamo all’IA il compito di ricordare chi siamo e cosa abbiamo fatto, creiamo un vincolo indissolubile.
È il cosiddetto vendor lock-in portato all’estremo: non è più solo difficile cambiare sistema operativo perché si perdono le app, diventa impossibile cambiare IA perché si perde la propria “memoria esterna”. Se ChatGPT sa tutto di me, passare a un concorrente come Claude o Gemini significherebbe ricominciare da zero, come un amnesico digitale.
OpenAI lo sa bene.
La memoria non serve solo a migliorare le risposte; serve a costruire un fossato invalicabile attorno al cliente. Più informazioni gli diamo, più diventa costoso (cognitivamente ed emotivamente) andarsene. E mentre un dipendente di OpenAI ha descritto la nuova funzione come un modo più affidabile per ritrovare dettagli, la realtà è che stiamo costruendo le sbarre della nostra gabbia dorata.
Resta aperta la questione della sicurezza. Un database che contiene non solo dati anagrafici, ma la sintesi ragionata di anni di conversazioni private, è il bersaglio più succulento che un hacker possa immaginare.
Centralizzare la memoria di milioni di utenti in un unico punto è un azzardo sistemico. Se quel database venisse compromesso, non verrebbero rubate solo password o numeri di carte di credito, ma pensieri, dubbi, strategie aziendali e segreti inconfessabili.
Siamo disposti a correre questo rischio per non dover ripetere a un chatbot che siamo vegetariani?
La comodità è sempre stata il cavallo di Troia della sorveglianza, ma questa volta il cavallo conosce il nostro passato meglio di noi.