OpenAI presenta GPT-5.3-Codex: da copilota a agente autonomo con rischi di cybersicurezza inediti

OpenAI presenta GPT-5.3-Codex: da copilota a agente autonomo con rischi di cybersicurezza inediti

Il modello, descritto come il più capace mai realizzato, introduce un livello di autonomia tale da spingere l’AI oltre il ruolo di copilota, ma la sua potenza genera anche rischi senza precedenti per la cybersicurezza, sollevando interrogativi sul futuro degli sviluppatori e della protezione dei sistemi.

C’è un momento preciso, nello sviluppo tecnologico, in cui uno strumento smette di essere un semplice utensile e inizia a sembrare un collaboratore.

Se avete passato la notte scorsa a testare le novità rilasciate da OpenAI, avrete probabilmente percepito quel brivido lungo la schiena che mescola eccitazione e una punta di vertigine.

Ieri, 5 febbraio 2026, l’azienda di San Francisco ha presentato ufficialmente GPT-5.3-Codex descrivendolo come il modello di coding più capace mai realizzato, ma limitarsi a parlare di “miglioramenti” sarebbe riduttivo.

Non siamo di fronte al solito aggiornamento incrementale che promette di scrivere codice Python un po’ più pulito o di confondersi meno con le parentesi graffe in JavaScript. Qui la partita si è spostata su un altro campo: l’autonomia.

Fino a ieri, noi programmatori eravamo i piloti e l’AI era il navigatore che ci suggeriva la strada. Con la versione 5.3, l’AI sta chiedendo gentilmente, ma con fermezza, di poter mettere le mani sul volante.

E a giudicare dai primi test, guida meglio di molti di noi.

La novità più tangibile è la velocità. Chi lavora con il codice sa che l’attesa della risposta di un modello rompe il “flow”, quello stato di grazia mentale necessario per risolvere problemi complessi.

OpenAI ha lavorato pesantemente sull’infrastruttura, rendendo il nuovo Codex il 25% più rapido rispetto al suo predecessore, la versione 5.2. Sembra un dettaglio tecnico, ma nell’uso quotidiano significa che l’AI tiene il passo del pensiero umano.

Tuttavia, la velocità è nulla senza controllo, ed è qui che la narrazione si fa interessante e, per certi versi, inquietante.

Non è più solo un copilota

Il termine che dovete segnarvi è “agentico”.

Se GPT-4 o i primi GPT-5 erano ottimi conversatori, GPT-5.3-Codex è un “agente”. La differenza è abissale: un conversatore ti spiega come riparare un rubinetto; un agente prende la cassetta degli attrezzi e lo ripara.

Nei benchmark tecnici come SWE-Bench Pro (che simula problemi di ingegneria del software reali) e Terminal-Bench 2.0, il nuovo modello non si limita a generare frammenti di codice. Naviga tra file multipli, usa il terminale, esegue comandi, interpreta gli errori di compilazione e si corregge da solo.

Questa capacità di auto-correzione è la vera “killer feature”.

Immaginate di dover aggiornare una vecchia libreria in un progetto enorme: invece di modificare venti file manualmente, ora potete chiedere al sistema di farlo, aspettare che i test falliscano, e guardare mentre l’AI analizza i log di errore e applica le fix necessarie, il tutto senza il vostro intervento diretto.

OpenAI ha rivelato un dettaglio affascinante: hanno usato versioni preliminari di questo stesso modello per fare il debug dei loro cluster di addestramento. In pratica, l’AI ha aiutato a costruire la sua versione successiva, accelerando i cicli di iterazione ingegneristica.

Insieme, questi risultati nel coding, nel frontend e nell’uso del computer e in compiti del mondo reale mostrano che GPT‑5.3-Codex non è solo migliore nei singoli compiti, ma segna un cambio di passo verso un agente unico e generalista.

— OpenAI, Annuncio Ufficiale

Tuttavia, dare a un’intelligenza artificiale la capacità di agire autonomamente su un sistema operativo, usare un terminale e “vedere” lo schermo come un umano apre una scatola di Pandora che non possiamo ignorare.

Se un agente può riparare una falla di sicurezza in millisecondi, può anche trovarla e sfruttarla con la stessa efficienza?

Il paradosso della sicurezza

Qui entriamo nella zona grigia che sta facendo discutere regolatori ed esperti di sicurezza in queste ore. L’entusiasmo per l’automazione si scontra frontalmente con la realtà della cybersecurity.

OpenAI non ha nascosto la polvere sotto il tappeto; anzi, ha messo in evidenza un dato allarmante. Secondo il loro “Preparedness Framework” – il sistema interno per valutare i rischi catastrofici – il CEO Sam Altman ha confermato rischi di cybersicurezza senza precedenti, classificando per la prima volta un modello come “ad alto rischio” in questo settore.

Cosa significa “alto rischio”?

Non che il modello sia cattivo, ma che è troppo bravo. È in grado di identificare vulnerabilità zero-day (quelle falle sconosciute agli stessi sviluppatori) e teoricamente potrebbe scrivere exploit complessi senza supervisione.

GPT-5.3-Codex è “il nostro primo modello che tocca il livello ‘alto’ per la cybersicurezza nel nostro framework di preparazione”

— Sam Altman, CEO di OpenAI

Questa classificazione ha conseguenze immediate per noi utenti. Non aspettatevi di poter scaricare il modello e farlo girare liberamente sui vostri server domani mattina.

OpenAI ha eretto barriere significative: l’accesso alle funzionalità più avanzate di cybersecurity è limitato a un programma pilota chiamato “Trusted Access for Cyber”.

È una mossa necessaria, ma che crea inevitabilmente una disparità: le grandi aziende e i partner governativi avranno accesso a strumenti di difesa (e offesa) digitale che restano preclusi ai piccoli sviluppatori o ai ricercatori indipendenti.

La documentazione tecnica rilasciata dal “Preparedness Team” è chiara: il modello è il primo a superare la soglia di rischio alto nel framework di preparazione, il che ha fatto scattare protocolli di sicurezza speciali.

Siamo di fronte al classico dilemma dual-use: lo stesso martello che costruisce la casa può sfondare il cranio del vicino.

Solo che questo martello si muove da solo e colpisce ventimila volte al secondo.

L’alba degli sviluppatori-manager

Tralasciando per un attimo gli scenari apocalittici, l’impatto pratico sul lavoro quotidiano sarà massiccio. Con GPT-5.3-Codex, il ruolo dello sviluppatore cambia pelle.

Non saremo più “scrittori di codice”, ma “architetti di sistemi” e “supervisori di agenti“.

La competenza richiesta non sarà più ricordarsi a memoria la sintassi di una funzione regex, ma saper descrivere un problema in modo così logico e strutturato che l’agente possa eseguirlo senza ambiguità.

La riduzione dei costi cognitivi per compiti complessi è evidente. Progetti che prima richiedevano un team di tre persone per due settimane potrebbero ora essere gestiti da un singolo senior developer in tre giorni.

Questo è fantastico per la produttività, ma solleva interrogativi sulla formazione delle nuove generazioni.

Se l’AI fa tutto il “lavoro sporco”, come impareranno i junior?

È come imparare a guidare su una Tesla con Autopilot sempre attivo: saprai mai davvero come reagire se il sistema si disattiva sul ghiaccio?

Siamo davanti a una tecnologia che ci libera dalla noia della sintassi per permetterci di concentrarci sulla logica pura. Ma c’è un prezzo da pagare: la fiducia.

Dobbiamo fidarci che l’agente non allucini una dipendenza software inesistente che introduce una backdoor nel nostro codice. Dobbiamo fidarci che i guardrail di OpenAI reggano contro chi vorrà usare questa potenza per attacchi informatici su scala globale.

La domanda che rimane sospesa nell’aria, mentre guardiamo il cursore muoversi da solo sullo schermo completando ticket a velocità sovrumana, non è più “cosa può fare questa AI?”, ma piuttosto: siamo pronti a gestire un collaboratore che, per la prima volta, potrebbe essere tecnicamente più competente di noi nel proteggere—o violare—i sistemi che abbiamo costruito?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie