Openai introduce il ‘mid-turn steering’ per codex: la fine dell’agente ai autonomo?
L’intelligenza artificiale per programmatori si evolve: OpenAI introduce lo “steering” in tempo reale per un controllo più preciso durante il coding
Chiunque abbia passato più di un’ora a fare pair programming con un agente AI nel 2025 conosce la frustrazione specifica di quel momento: l’agente parte per la tangente, iniziando a rifattorizzare un modulo che non doveva toccare, e l’unica opzione è premere Ctrl+C. Uccidere il processo, perdere il contesto, ricominciare da capo spiegando che no, non volevamo riscrivere l’intero layer di persistenza, ma solo correggere un bug.
È un’interruzione brutale del flusso, un attrito che trasforma l’assistente da “moltiplicatore di produttività” a “stagista distratto”.
Oggi, 16 gennaio 2026, OpenAI sembra aver finalmente capito che l’autonomia senza controllo è inutile. L’aggiornamento alla CLI di Codex, nascosto sotto il flag /experimental, introduce quello che in gergo tecnico chiamiamo “mid-turn steering”.
Non è una feature appariscente da comunicato stampa generalista, ma per chi scrive codice è la differenza tra urlare istruzioni a un sordo e conversare con un collega attento. In pratica, permette di iniettare nuovi prompt nel ciclo di ragionamento dell’agente mentre questo sta ancora eseguendo, senza dover arrestare il processo.
L’implementazione tecnica è elegante perché non si limita a un semplice accodamento di messaggi. Il sistema sfrutta finestre di intervento nei “thinking steps” dell’agente, permettendo al developer di correggere la rotta non appena vede l’output deviare, mantenendo però in memoria tutto il contesto accumulato fino a quel millisecondo.
È un cambiamento di paradigma che l’azienda quantifica riducendo del 90% i tempi di completamento per i nuovi task, un dato che se confermato sul campo sposterebbe l’ago della bilancia in modo significativo.
Il pilota prende il controllo senza spegnere il motore
Per capire perché questo è rilevante, bisogna guardare sotto il cofano. Fino a ieri, l’interazione con modelli come Codex o Claude Code era rigidamente transazionale: input umano, elaborazione macchina (black box), output macchina. Se l’output era sbagliato al 50%, il 100% del tempo di calcolo era sprecato.
Il “mid-turn steering” avvicina l’interazione a quello che Anthropic aveva teorizzato già nel 2024, quando pubblicò ricerche su come modificare gli stati interni del modello per orientarne l’output attraverso tecniche di dictionary learning.
OpenAI ha pragmaticamente applicato questo concetto alla CLI. Immaginate di vedere l’agente pianificare una modifica su user_controller.ts. Capite subito che sta per usare una libreria deprecata. Invece di aspettare che scriva il codice errato, fallisca i test e richieda un fix, digitate semplicemente: “Usa l’API v2 per l’autenticazione”.
L’agente recepisce l’iniezione nel prossimo step logico, aggiusta il piano di esecuzione e prosegue. La continuità della memoria di lavoro è preservata.
Questa fluidità è ciò che mancava per passare da quelli che chiamavamo “conduttori” (noi che supervisioniamo ogni battuta) a veri “orchestratori”. Tuttavia, la mossa di OpenAI non avviene nel vuoto, ma è una risposta diretta e necessaria all’escalation competitiva degli ultimi dodici mesi, dove il principale avversario ha giocato carte molto aggressive, e non sempre a favore dell’utente.
L’illusione dell’agente autonomo
Se da un lato OpenAI cerca di rendere il suo strumento più malleabile, dall’altro Anthropic ha preso una direzione diametralmente opposta con Claude Code, puntando su un ecosistema chiuso che ricorda le strategie Apple dei primi anni 2000. Claude Code è stato il punto di riferimento tecnico per tutto il 2025 grazie alla sua capacità di gestire diff interattivi e rollback complessi, ma la recente decisione aziendale ha lasciato l’amaro in bocca a molti sviluppatori.
La scelta di blindare l’accesso, impedendo a strumenti di terze parti di utilizzare i token di sottoscrizione al di fuori della loro CLI ufficiale, ha di fatto tagliato le gambe a un fiorente sottobosco di tool open source e interfacce alternative (come quelle basate su Cursor o fork indipendenti) che facevano affidamento sulla potenza di Claude.
È una mossa che tecnicamente si giustifica con la “sicurezza”, ma che commercialmente puzza di vendor lock-in.
Questo crea un paradosso interessante nel panorama del 2026. Abbiamo Anthropic, con un modello forse superiore nel ragionamento puro e nella gestione del contesto a lungo termine, che si chiude in un “walled garden” per forzare l’uso dei propri strumenti proprietari. Dall’altra parte c’è OpenAI, che pur non essendo mai stata un faro di trasparenza (il nome è ironico da anni), sta costruendo un’esperienza developer (DevEx) che premia l’interattività granulare e il controllo dell’utente, riconoscendo che l’agente non è un oracolo infallibile ma uno strumento che necessita di guida costante.
La fine del codice “fire and forget”
L’introduzione dello steering in tempo reale segna forse la fine della sbornia da “agenti completamente autonomi” che ci avevano promesso. La realtà dello sviluppo software è troppo disordinata per essere gestita in modalità “fire and forget”.
I bug non sono quasi mai solo errori di sintassi, ma incomprensioni sui requisiti o sul contesto del sistema.
La possibilità di intervenire a metà ragionamento trasforma la sessione di coding da una serie di comandi isolati a un flusso continuo. Non stiamo più aspettando che la macchina finisca di “pensare”; stiamo pensando insieme a lei, correggendo le sue allucinazioni prima che diventino codice legacy.
È un approccio meno magico, forse, ma infinitamente più robusto per chi deve spedire codice in produzione e non demo su Twitter.
Resta da chiedersi se questa granularità di controllo sarà sufficiente a bilanciare la chiusura degli ecosistemi concorrenti, o se ci stiamo dirigendo verso un futuro in cui dovremo scegliere il nostro stack tecnologico non in base al linguaggio di programmazione, ma in base a quale intelligenza artificiale ci permette ancora di tenere le mani sul volante.