Chatbot AI: il patto faustiano con la privacy e i rischi aziendali
La prossima volta che chiederai a un chatbot di riassumere un verbale aziendale, di rivedere una bozza di contratto o di analizzare i sintomi di un malessere, fermati un attimo.
Quella che sembra una scorciatoia digitale per alleggerire il carico cognitivo potrebbe trasformarsi in una fuga di dati dalla porta principale.
La promessa di un assistente sempre disponibile, capace di rispondere a qualsiasi domanda, nasconde un patto faustiano con la privacy: in cambio dell’aiuto, le grandi aziende dell’intelligenza artificiale chiedono di poter usare le nostre conversazioni per affinare i loro modelli.
E mentre noi ci abituiamo a confidarci con ChatGPT, Gemini di Google o Perplexity, i loro avvisi legali sussurrano, in caratteri piccoli, un monito chiaro: non dire nulla che non vorresti fosse letto da occhi umani o che non intendi regalare per sempre al loro algoritmo.
L’allarme non arriva da attivisti paranoici, ma direttamente dai creatori di questi strumenti. Nella sezione dedicata alla privacy di Gemini Apps, Google è esplicita: «Ti preghiamo di non inserire informazioni riservate che non vorresti fossero viste da un revisore o che Google utilizzi per migliorare i suoi servizi, comprese le tecnologie di machine learning».
È una dichiarazione che, letta con attenzione, fa rabbrividire. Svela i due pilastri del funzionamento dietro le quinte: l’accesso umano e l’uso per l’addestramento.
Non si tratta di una possibilità remota, ma di una pratica strutturale. Per capire quanto sia pervasiva, basta guardare i tempi di conservazione: Gemini conserva le conversazioni revisionate da umani fino a tre anni, anche dopo che l’utente ha cancellato la propria attività dal pannello di controllo.
Un periodo che, nel mondo digitale, equivale a un’eternità.
Ti preghiamo di non inserire informazioni riservate che non vorresti fossero viste da un revisore o che Google utilizzi per migliorare i suoi servizi, comprese le tecnologie di machine learning.
— Google, Gemini Apps Privacy Hub
Questa non è un’eccezione, ma la regola in un settore che fonda il suo progresso sull’ingestione di dati. ChatGPT di OpenAI salva la cronologia delle chat indefinitamente per impostazione predefinita e utilizza i contenuti per l’addestramento, a meno che l’utente non attivi manualmente la funzione “Chat temporanea”.
Perplexity AI, il chatbot noto per le sue risposte con citazioni delle fonti, raccoglie per impostazione predefinita cronologia di ricerca web, indirizzi IP, informazioni sul dispositivo e dati di localizzazione, sempre con lo scopo dichiarato di “migliorare il modello”.
Il problema, come spiegano analisi di sicurezza specializzate, è che questa raccolta massiva crea un profilo digitale straordinariamente dettagliato e persistente, spesso privo di protezioni come la crittografia end-to-end, rendendo i dati vulnerabili in caso di violazione.
Il confine poroso tra comodità e rischio aziendale
La posta in gioco diventa astronomica quando questi strumenti escono dalla sfera del curiosare domestico ed entrano in ufficio. L’integrazione di Gemini nel pacchetto Google Workspace, ad esempio, è presentata come un potenziamento rivoluzionario della produttività.
Ma è proprio qui che il meccanismo si fa insidioso. Quando un dipendente interroga Gemini all’interno di Drive o Gmail, l’AI eredita automaticamente i permessi di accesso che quell’utente ha su file e cartelle condivise.
In un ambiente aziendale medio, dove le politiche di condivisione sono spesso troppo permissive per comodità, questo significa che una query apparentemente innocua potrebbe dare all’assistente AI accesso a documenti riservati di risorse umane, bilanci preliminari, strategie commerciali o accordi legali in fase di negoziazione.
L’AI non “capisce” la riservatezza; processa semplicemente il testo a cui ha accesso. Così, un frammento di un contratto confidenziale potrebbe finire, senza che nessuno se ne accorga, nel set di dati usato per affinare le risposte future del modello.
Analisi tecniche sui rischi di sicurezza di Gemini sottolineano come questo “contagio” dei permessi rappresenti una minaccia sottovalutata, che richiederebbe l’adozione di modelli a “zero fiducia” (zero-trust) e una classificazione rigorosa dei dati prima di qualsiasi integrazione con AI conversazionali.
Il consiglio pratico che emerge dagli esperti è brutale nella sua semplicità: se un documento è veramente sensibile, non dovrebbe nemmeno essere nello stesso cloud repository accessibile da un account collegato a un chatbot AI generativo.
Cosa non dire mai a un chatbot (anche se sembra comprensivo)
Allora, cosa dovremmo tenere per noi? La lista è più lunga di quanto si pensi e va ben oltre le password o i numeri di carta di credito.
Primo, i segreti commerciali e la proprietà intellettuale. Condividere bozze di brevetti, codice sorgente non pubblicato, roadmap di prodotto o strategie di mercato con un chatbot equivale a depositarli in una biblioteca pubblica digitale.
Secondo, le informazioni personali identificabili (PII) nostre e, soprattutto, degli altri.
Inserire dati anagrafici, indirizzi, numeri di telefono o dettagli medici di clienti o pazienti non solo viola il GDPR e normative simili, ma crea un registro indelebile di quella violazione.
Terzo, e forse più delicato, le comunicazioni privilegiate. Avvocati che usano questi strumenti per analizzare casi o abbozzare pareri rischiano di vedere svanire il segreto professionale.
Alcuni studi legali hanno già iniziato a sconsigliare l’uso di Gemini per lavori sensibili, proprio per evitare il rischio di “rinuncia involontaria al privilegio”.
Quarto, i contenuti emotivi altamente personali. Confessare paure, dettagli di relazioni intricate o crisi personali a un’entità che promette ascolto senza giudizio può essere terapeutico nell’immediato, ma crea una traccia digitale della nostra vulnerabilità, gestita da un algoritmo il cui scopo primario non è il nostro benessere.
Il paradosso è stridente: più l’AI diventa brava a simulare l’empatia e a offrire assistenza contestuale, più noi siamo tentati di abbassare la guardia e trattarla come un confidente.
I giganti tech, dal canto loro, si trovano in una posizione scomoda. Da un lato devono essere trasparenti sugli avvertimenti legali (e lo sono, anche se in pagine poco frequentate), dall’altro il loro intero business si basa sull’accumulo di dati per addestrare modelli sempre più potenti e competitivi.
L’opzione “disattiva la conservazione dati per il miglioramento del modello” esiste in quasi tutti i servizi, ma è spesso nascosta in menu secondari e, soprattutto, rappresenta un freno alla loro corsa all’intelligenza artificiale più raffinata.
La domanda finale, quindi, non è solo tecnica ma filosofica e commerciale.
Possiamo davvero costruire un’intelligenza artificiale generativa utile, contestuale e personalizzata senza che essa si nutra, in un modo o nell’altro, delle nostre conversazioni private?
E se la risposta è no, dove tracciamo la linea tra il dato che può essere sacrificato per il progresso collettivo e il dato che deve rimanere inviolabile, anche a costo di limitare le capacità dell’AI?
Per ora, l’unica protezione efficace siamo noi, e la nostra consapevolezza che ogni prompt inviato è, potenzialmente, una cartolina spedita in un futuro incerto.