OpenAI blinda ChatGPT: Lockdown Mode per professionisti contro esfiltrazione dati.
La nuova funzionalità, pensata per utenti ad alto rischio, arriva in un momento di forti pressioni normative e solleva interrogativi sulle reali intenzioni dell’azienda, soprattutto dopo lo scioglimento del team di allineamento etico
Da qualche giorno, ChatGPT ha una nuova modalità di sicurezza chiamata «Lockdown Mode». L’annuncio, pubblicato sul blog di OpenAI il 13 febbraio 2026, la descrive come un’impostazione opzionale per «utenti altamente consapevoli della sicurezza», come dirigenti o team di sicurezza, che necessitano di protezione extra contro minacce avanzate.
In sostanza, la modalità disabilita alcune funzionalità – come la navigazione web in tempo reale, limitandola a contenuti in cache – per ridurre il rischio che dati sensibili vengano sottratti tramite attacchi di «prompt injection». Accanto a questa, arrivano anche le etichette «Elevated Risk», che segnalano all’utente quando una conversazione sta toccando argomenti potenzialmente rischiosi.
Sulla carta, sembra un passo avanti per la privacy e la sicurezza.
Ma quando un’azienda che ha costruito il suo impero sull’accesso ai dati inizia a vendere strumenti per blindarli, è lecito porsi qualche domanda.
Soprattutto se, poche settimane prima, ha sciolto il suo team interno dedicato all’allineamento etico e alla sicurezza di lungo termine.
La Modalità Lockdown è progettata per quella piccola cerchia di utenti che, per il loro ruolo o le loro attività, potrebbero essere bersaglio di minacce digitali sofisticate. Costituisce uno strato di protezione aggiuntivo per scenari ad alto rischio.
La mossa arriva in un momento di pressioni regolatorie senza precedenti. L’UE, con l’AI Act che diventerà pienamente operativo ad agosto 2026, impone requisiti stringenti di trasparenza e gestione del rischio. La California ha approvato il «Transparency in Frontier AI Act». In questo contesto, presentare funzionalità di sicurezza avanzate non è solo una questione tecnica, ma un posizionamento strategico.
Dimostra ai regolatori – e ai clienti enterprise, sempre più nervosi riguardo alla fuoriuscita di dati – che OpenAI sta prendendo la cosa sul serio.
Tuttavia, il timing suscita perplessità.
Perché investire in un «lockdown» per pochi, mentre si allenta la sorveglianza interna sulla sicurezza di fondo? All’inizio di febbraio, come riportato da diverse testate, OpenAI ha infatti disciolto il suo «Mission Alignment Team», il gruppo dedicato a garantire che i modelli futuri rimanessero allineati con gli interessi umani.
I membri sono stati riassegnati e il capo team è diventato un «chief futurist». Una ristrutturazione che, agli occhi degli scettici, assomiglia più a un depotenziamento delle voci critiche interne che a una razionalizzazione.
Una sicurezza a due velocità
Analizzando i dettagli tecnici, emerge un quadro di sicurezza «a due livelli». Da un lato, la Lockdown Mode per l’utente premium (o ad altissimo rischio) che può permettersi di rinunciare a funzionalità come il browsing live. Dall’altro, una serie di controlli più ampi, ma automatizzati, per la massa degli utenti.
Tra questi spicca il sistema di «rilevamento dell’età»: se ChatGPT sospetta che un utente abbia meno di 18 anni, applica automaticamente filtri più restrittivi, blocca contenuti espliciti e può persino inviare alert di emergenza ai genitori se rileva segni di disagio acuto.
Questa paternalistica sorveglianza algoritmica solleva interrogativi non da poco.
Chi decide cosa costituisce un «rischio elevato»? Con quali falsi positivi? E, soprattutto, quali dati vengono analizzati per fare queste determinazioni?
OpenAI assicura che i modelli di classificazione funzionano in locale e che i dati sensibili non vengono conservati, ma la trasparenza sui criteri esatti e sui tassi di errore è, al momento, scarsa.
Il parallelo con la Lockdown Mode di Apple, introdotta nel 2022, è inevitabile ma anche fuorviante. Quella di Apple è una misura estrema e scomoda che disabilita funzioni a livello di sistema operativo per proteggere da spyware statali. Quella di OpenAI opera a un livello applicativo più alto e sembra mirata principalmente a prevenire un vettore d’attacco specifico: l’esfiltrazione di dati tramite prompt malevoli.
Una differenza cruciale.
Mentre Apple vende hardware e un ecosistema chiuso, il core business di OpenAI è l’elaborazione del linguaggio e dei dati degli utenti. Introdurre una modalità che limita intenzionalmente le capacità del prodotto è un atto di bilanciamento delicatissimo: da un lato si placa la paura dei clienti corporate, dall’altro non si può soffocare l’utilità che ha reso ChatGPT popolare.
È qui che entra in gioco il vero conflitto di interesse: più «sicuro» e «blindato» diventa il sistema, meno dati (potenzialmente preziosi per il training dei modelli futuri) fluiscono liberamente.
A chi giova realmente questo lockdown? All’utente o al modello di business di OpenAI, che nel frattempo sta testando messaggi «sponsorizzati» per gli utenti gratuiti?
Il vero obiettivo: conquistare le aziende (e i regolatori)
Il lancio di queste feature non avviene nel vuoto. Il mercato enterprise per l’AI generativa è la nuova frontiera della monetizzazione, e la posta in gioco sono contratti miliardari con aziende che pretendono garanzie ferree su sicurezza e residenza dei dati. OpenAI elenca già una decina di regioni per la «data residency», dall’Europa al Giappone. La Lockdown Mode è l’ultimo tassello di un discorso commerciale che recita: «Potete fidarvi di noi con i vostri segreti industriali».
Allo stesso tempo, è un argomento pronto per le audizioni in parlamento. Quando i legislatori chiederanno conto dei rischi, OpenAI potrà puntare al suo «modello di accesso verificato» e al «Frontier Risk Council».
Ma questa narrativa di sicurezza cozza con altre scelte recenti. Ad esempio, la decisione di testare pubblicità contestuali in ChatGPT per gli utenti free, un’operazione che per sua natura richiede un’analisi fine delle conversazioni per il targeting.
Come si concilia la sorveglianza per il profitto pubblicitario con la promessa di un ambiente blindato?
Stiamo ridefinendo le nostre policy di sicurezza per garantire che possiamo continuare a innovare in modo responsabile in un panorama competitivo in rapida evoluzione.
— Fonti interne anonime, citate in report sulla ristrutturazione dei team di sicurezza
La domanda finale è dunque una sola: questa nuova attenzione per la sicurezza è un autentico cambio di rotta culturale, o è un adattamento tattico per navigare le acque agitate della regolamentazione e della concorrenza?
I fatti recenti – lo smantellamento del team di allineamento, le pressioni per rilasciare funzionalità più velocemente, l’ingresso nel mercato pubblicitario – suggeriscono una tensione insanabile all’interno di OpenAI.
Da una parte, la necessità di essere percepiti come i paladini responsabili dell’IA; dall’altra, le esigenze commerciali di crescita, quota di mercato e monetizzazione.
In questo contesto, la Lockdown Mode assomiglia a una suite di sicurezza blindata offerta da una banca che, nello stesso momento, sta riducendo il personale addetto alla compliance. La protegge da alcuni rischi immediati e visibili, ma lascia intatte – e forse accresce – le vulnerabilità sistemiche.
Alla fine, l’utente che attiva quel pulsante sta davvero chiudendo a chiave i suoi dati, o sta semplicemente affidando a un unico guardiano – con interessi sempre più complessi e contraddittori – le chiavi di una stanza sempre più grande del suo mondo digitale?