Anthropic conserva le chat degli utenti per cinque anni

Anthropic conserva le chat degli utenti per cinque anni

Anthropic ha aggiornato i termini estendendo la conservazione delle chat da 30 giorni a 5 anni per gli utenti consumer, creando una disparità con le aziende protette.

Il nuovo regolamento riguarda gli utenti consumer, mentre i clienti aziendali restano protetti da termini separati.

A quasi un anno dall’aggiornamento, la domanda rimane senza risposta soddisfacente: perché Anthropic ha deciso che i dati degli utenti consumer meritano cinque anni di conservazione — e possono essere usati per addestrare i modelli — mentre i dati delle aziende rimangono al sicuro, intoccabili, protetti da termini separati? Stando a l’annuncio ufficiale di Anthropic, il 28 agosto 2025 la società ha aggiornato i Termini di Servizio e l’Informativa sulla Privacy per i propri utenti consumer. Un cambiamento che, nella sua formulazione tecnica e nelle sue implicazioni concrete, racconta qualcosa di preciso su come le aziende AI stanno ridefinendo il confine tra servizio e risorsa.

Il cambio di rotta: dai 30 giorni ai 5 anni

Fino ad agosto 2025, Anthropic aveva un approccio relativamente conservativo: periodo di conservazione dei dati di 30 giorni e nessun utilizzo delle chat dei consumatori per l’addestramento dei modelli. Un impegno che la società aveva assunto pubblicamente e che ora, di fatto, viene rovesciato — almeno per chi non sceglie attivamente di non partecipare. Con il nuovo aggiornamento, Anthropic estende la conservazione a cinque anni per tutti gli utenti che consentono l’uso dei propri dati per l’addestramento. Un salto da 30 giorni a cinque anni non è un ritocco marginale: è un cambio di prospettiva radicale su cosa significhi “trattare” i dati di un utente. Gli utenti esistenti hanno avuto tempo fino all’8 ottobre 2025 per accettare i termini aggiornati e decidere la propria posizione. Chi ha scelto di non acconsentire continua con il vecchio regime da 30 giorni. Ma quanti utenti hanno letto quella comunicazione? Quanti hanno capito cosa stava cambiando?

Le nuove condizioni si applicano agli utenti dei piani Claude Free, Pro e Max, incluso l’utilizzo di Claude Code da account associati a questi piani. Restano esclusi — ed è qui che comincia a emergere la struttura del problema — i servizi sotto i Termini Commerciali: Claude for Work, Claude for Government, Claude for Education e l’uso via API, anche attraverso piattaforme di terze parti come Amazon Bedrock e Google Cloud Vertex AI. In pratica: se sei un individuo che usa Claude sul piano gratuito o a pagamento, sei dentro. Se sei un’azienda, sei fuori.

Una privacy a due velocità: consumatori vs. enterprise

Come ha osservato Shelly Palmer nell’analisi di agosto 2025, Anthropic ha costruito un sistema di privacy a due livelli in cui i clienti enterprise ottengono protezione mentre i consumatori diventano dati di addestramento. Non è una lettura malevola: è la descrizione letterale di come funziona la policy. E il punto non è solo ideologico. Le conseguenze pratiche sono concrete e, in certi contesti, potenzialmente illegali.

Secondo l’analisi di AMST Legal, chi usa un account Consumer di Claude per lavori che coinvolgono informazioni riservate — clienti, dossier, documenti sensibili — rischia che quei dati vengano conservati per cinque anni e utilizzati per l’addestramento dei modelli. Questo non è solo un problema di opportunità: potrebbe violare il segreto professionale e i requisiti del GDPR. Un avvocato che usa Claude Free per redigere una bozza, un medico che chiede un’analisi su un caso clinico, un consulente che carica documentazione aziendale: tutti questi utenti, se non hanno letto i nuovi termini con attenzione, si trovano in una zona di rischio che prima non esisteva.

La struttura binaria della policy — utenti consumer da un lato, enterprise dall’altro — non è una scelta neutrale. Come documenta la piattaforma OpenTools, questa segmentazione evidenzia una disparità crescente tra le protezioni offerte ai clienti aziendali rispetto agli utenti individuali. Le aziende pagano per avere garanzie contrattuali esplicite sulla propria privacy; i singoli utenti, spesso su piani gratuiti o a basso costo, diventano la materia prima con cui quei modelli vengono migliorati per servire meglio — guarda caso — le aziende stesse. È un ciclo che si chiude in modo piuttosto elegante, a seconda da quale lato lo si guardi.

Il mercato dell’AI e lo spettro del GDPR

Sarebbe comodo liquidare la questione come un problema specifico di Anthropic. Ma allargando lo sguardo, il quadro diventa più complesso — e meno rassicurante. Secondo la politica sulla privacy di OpenAI, la società prevede un utilizzo predefinito dei dati per l’addestramento dei modelli per gli individui al di fuori dell’Area Economica Europea, del Regno Unito e della Svizzera. Una distinzione geografica che non è casuale: è esattamente là dove opera il GDPR, il regolamento europeo che impone limiti stringenti al trattamento dei dati personali. Meta, dal canto suo, dichiara di usare informazioni da ricercatori e dataset da fonti pubblicamente disponibili, gruppi professionali e di beneficenza per condurre e supportare la ricerca — una formulazione vaga quanto basta per coprire un terreno molto ampio.

Il pattern che emerge non riguarda solo Anthropic: riguarda come l’intero settore stia costruendo modelli di business in cui gli utenti consumer — spesso i meno informati e i meno tutelati — diventano il combustibile per addestrare sistemi che poi vengono venduti, a prezzo molto più alto, alle imprese. Il GDPR, almeno in Europa, pone limiti precisi al consenso e alla conservazione dei dati. Ma la maggior parte degli utenti di Claude non è in Europa, e anche chi lo è si trova a navigare in un regime di opt-out che presuppone una consapevolezza che raramente esiste nella pratica.

Anthropic ha aperto una crepa nel dibattito sulla privacy nell’AI: fino a dove si spingeranno le aziende nel monetizzare i dati degli utenti, e quando interverranno i regolatori a colmare questo divario? Il sistema a due livelli — protezione per le aziende, dati aperti per i singoli — rischia di diventare lo standard di settore, normalizzato prima che qualcuno decida di contestarlo. La domanda non è se questo modello sia eticamente discutibile. La domanda è: chi ha interesse a cambiarlo?

🍪 Impostazioni Cookie