OpenAI: Lockdown Mode e “Elevated Risk” aumentano trasparenza su ChatGPT
OpenAI introduce "Modalità Lockdown" e etichette "Rischio Elevato" per la sicurezza AI, inizialmente per clienti enterprise. La mossa solleva interrogativi sulla protezione di default e la commercializzazione della sicurezza.
Annunciate il 13 febbraio 2026, la “Modalità Lockdown” e le etichette “Rischio Elevato” sono strumenti opzionali pensati per proteggere un piccolo sottoinsieme di utenti da minacce avanzate, ma la loro introduzione solleva interrogativi sulla sicurezza intrinseca dei prodotti e sulla disparità di protezione offerta.
Il 13 febbraio 2026, OpenAI ha annunciato due nuove funzionalità di sicurezza per i suoi prodotti: la “Modalità Lockdown” e le etichette “Rischio Elevato”. Secondo l’azienda, si tratta di strumenti opzionali pensati per “un piccolo sottoinsieme di utenti attenti alla sicurezza”, come dirigenti o team di sicurezza di grandi organizzazioni, per proteggersi da minacce avanzate come gli attacchi di prompt injection.
A prima vista, sembra un passo responsabile, un rafforzamento delle difese in un panorama digitale sempre più ostile.
Ma quando una delle aziende più potenti dell’IA decide di creare una “modalità bunker” per i clienti più ricchi, è lecito porsi qualche domanda.
Stanno davvero mettendo al sicuro tutti, o stanno semplicemente ammettendo che i loro prodotti, quando interagiscono con il mondo reale, sono intrinsecamente insicuri?
E, soprattutto, chi paga il prezzo di questa sicurezza differenziata?
La Modalità Lockdown, disponibile per ora solo per i piani Enterprise, Edu, Healthcare e Teachers, è descritta come un’impostazione avanzata che “restringe il modo in cui ChatGPT può interagire con i sistemi esterni”. Nella pratica, significa disabilitare o limitare severamente alcune delle funzionalità più potenti e pubblicizzate di ChatGPT.
La navigazione web è limitata a contenuti memorizzati nella cache, impedendo richieste di rete in tempo reale.
Modalità come Deep Research e Agent Mode vengono spente.
ChatGPT non può scaricare file per analisi e, cosa significativa, non può includere immagini nelle risposte.
In sostanza, per garantire una “sicurezza deterministica”, OpenAI rinchiude l’intelligenza artificiale in una gabbia.
L’accesso alle app di terze parte rimane sotto il controllo degli amministratori, ma il messaggio è chiaro: per essere sicuro, il modello deve essere castrato.
La Modalità Lockdown è progettata per un piccolo insieme di utenti altamente attenti alla sicurezza… che richiedono una protezione aumentata contro minacce avanzate.
— OpenAI, annuncio ufficiale
Parallelamente, le nuove etichette “Rischio Elevato” compaiono su alcune funzionalità di ChatGPT, ChatGPT Atlas e Codex, in particolare quelle che implicano un accesso alla rete o ai dati. L’obiettivo dichiarato è fornire una guida più chiara prima che gli utenti abilitino funzionalità che potrebbero aumentare le preoccupazioni per la sicurezza.
OpenAI promette che queste etichette sono temporanee e saranno rimosse quando i progressi nella sicurezza mitigeranno sufficientemente i rischi.
Una promessa che suona più come un’ammissione: stiamo vendendovi strumenti che non siamo ancora in grado di rendere sicuri, quindi vi mettiamo un cartello “attenti al cane”.
Perché ora? La corsa ai ripari dopo una serie di incidenti
La mossa di OpenAI non nasce nel vuoto, ma sembra piuttosto una corsa ai ripari dopo una lunga serie di incidenti di sicurezza che hanno coinvolto i suoi prodotti. Solo nell’ultimo biennio, il panorama è stato costellato di vulnerabilità.
A ottobre 2024, oltre 225.000 credenziali OpenAI sono finite sul dark web, rubate da malware infostealer.
A dicembre 2025, estensioni Chrome malevole sono state scoperte mentre rubavano conversazioni da ChatGPT.
Ma il vero tallone d’Achille, quello che probabilmente ha accelerato lo sviluppo della Modalità Lockdown, è la piaga degli attacchi di prompt injection.
Questi attacchi, in cui terze parti malintenzionate iniettano comandi nascosti per manipolare l’IA, sono diventati sempre più sofisticati. Ricercatori hanno dimostrato come ingannare ChatGPT per rivelare informazioni private dalla cronologia delle chat, spesso attraverso iniezioni indirette.
ChatGPT Atlas, con la sua modalità di navigazione “agente”, ha aperto una superficie di attacco particolarmente pericolosa.
A ottobre 2025, ricercatori di sicurezza hanno avvertito che istruzioni maligne nascoste in testo invisibile o persino negli screenshot potevano essere lette ed eseguite dall’agente AI.
In un caso, una tecnica di “clipboard injection” permetteva di far eseguire comandi dannosi all’agente semplicemente copiando del testo da una pagina web.
L’iniezione di prompt rimane un “problema di sicurezza di frontiera, non risolto”.
— Dane Stuckey, Chief Information Security Officer di OpenAI, dicembre 2025
La dichiarazione del CISO di OpenAI a fine 2025 è illuminante: un ammissione rara, da parte di un’azienda leader, di fronte a un problema fondamentale.
Non sorprende quindi che, poche settimane dopo, annuncino una modalità che, di fatto, disabilita le funzionalità più esposte a questi attacchi.
È come se un costruttore di automobili, di fronte a problemi cronici ai freni, offrisse a pagamento una “modalità sicurezza” che limita la velocità massima a 30 km/h, invece di risolvere il difetto di progettazione.
Il doppio binario della sicurezza: premium per le aziende, rischio per tutti gli altri?
Qui emerge il primo, grande paradosso. La Modalità Lockdown è presentata come uno strumento per “utenti ad alto rischio”.
Ma chi definisce il rischio?
E perché solo i clienti enterprise possono accedervi?
OpenAI ha dichiarato che prevede di rendere disponibile la funzionalità ai consumatori nei prossimi mesi, ma la roadmap prioritaria è chiara: prima le aziende che pagano di più.
Questo crea un doppio binario nella sicurezza.
Da un lato, organizzazioni con budget consistenti possono acquistare una relativa tranquillità, rinunciando a parte della funzionalità del prodotto.
Dall’altro, l’utente medio, il ricercatore, il giornalista freelance o l’attivista che utilizzano piani standard o gratuiti, continuano a essere esposti agli stessi rischi intrinseci, con in più la consapevolezza che esiste una soluzione, ma non per loro.
È una logica che ricorda da vicino quella del mercato della sicurezza informatica tradizionale, dove le migliori protezioni hanno un prezzo.
Ma quando il prodotto in questione è un’intelligenza artificiale generativa che processa dati personali e sensibili, questa disparità solleva questioni etiche e, potenzialmente, legali.
Il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea, ad esempio, impone il principio di “privacy by design and by default”. I fornitori di servizi devono integrare le garanzie di protezione dei dati nella progettazione stessa del prodotto, non offrirle come optional a pagamento in un secondo momento.
La decisione di OpenAI di sviluppare una modalità sicurezza separata e inizialmente riservata a una cerchia ristretta potrebbe essere interpretata come un’ammissione che il design di default dei suoi prodotti non è sufficientemente sicuro per gestire i rischi che essi stessi introducono, specialmente quando l’attenzione per gli attacchi di prompt injection ha portato a una maggiore enfasi sull’educazione degli utenti e sulla trasparenza.
Cosa guadagna davvero OpenAI?
Al di là delle dichiarazioni sulla sicurezza, è inevitabile chiedersi quali siano i veri driver di business dietro questa mossa. Il settore dell’IA generativa per le imprese è diventato un campo di battaglia feroce.
Microsoft con Copilot, Google con Gemini, Anthropic con Claude: tutti competono per accaparrarsi contratti multimilionari.
In questo contesto, la capacità di offrire “sicurezza garantita” è un potente argomento di vendita.
La Modalità Lockdown non è solo uno strumento tecnico; è una feature di marketing per le vendite enterprise.
Consente a OpenAI di bussare alle porte di banche, studi legali e ospedali – settori iper-regolamentati e paranoidi sulla sicurezza – e dire: “Possiamo mettere il vostro ChatGPT in una scatola di vetro a prova di proiettile”.
Allo stesso tempo, le etichette “Rischio Elevato” fungono da scudo di responsabilità legale.
Segnalando esplicitamente che certe funzioni sono potenzialmente pericolose, OpenAI si protegge in caso di incidenti.
Trasferisce parte dell’onere della valutazione del rischio all’utente finale, pur continuando a vendere la funzionalità.
È una strategia astuta: si riconosce il problema per limitare la responsabilità, ma non lo si risolve alla radice, perché farlo significherebbe forse rinunciare a capacità che danno un vantaggio competitivo.
La domanda finale, quindi, non è se la Modalità Lockdown sia utile per alcuni utenti – probabilmente lo è.
La domanda è se siamo disposti ad accettare un futuro in cui la sicurezza dell’IA, una questione che riguarda la società nel suo insieme, viene frammentata e commercializzata come un bene di lusso.
OpenAI sta ammettendo che i suoi modelli, quando rilasciati nel mondo selvaggio di internet, sono vulnerabili.
Invece di risolvere queste vulnerabilità per tutti, sta costruendo bunker per pochi.
È questa la “intelligenza artificiale sicura e benefica per l’umanità” che ci era stata promessa, o è semplicemente un altro prodotto, con i suoi piani tariffari e le sue feature a pagamento, dove anche la protezione dei tuoi dati ha un prezzo?