GPT-5.3 Codex: tra bug, lentezza e reindirizzamenti, OpenAI perde gli sviluppatori.
Mentre OpenAI ha lanciato GPT-5.3 Codex con grande clamore, gli sviluppatori hanno iniziato a notare un divario tra le promesse e l’esperienza reale, portando alla luce due filosofie di sviluppo dell’IA a confronto.
La scorsa settimana, mentre il mondo dello sport si preparava per il Super Bowl, un altro tipo di competizione, altrettanto intensa e con in palio miliardi di dollari, raggiungeva un punto di svolta silenzioso ma significativo.
Nel campo degli assistenti di intelligenza artificiale per la programmazione, due modelli si sono affrontati: il nuovo GPT-5.3 Codex di OpenAI, annunciato con grande clamore, e Claude Code di Anthropic, l’avversario metodico che ha costruito la sua reputazione sulla profondità di ragionamento.
Per molti sviluppatori professionisti, il confronto non è stato solo teorico.
È stato il momento in cui una scelta tecnologica si è trasformata in una preferenza filosofica, e per alcuni, il campione in carica ha iniziato a mostrare delle crepe.
La narrazione dominante, alimentata dai comunicati stampa, dipinge un OpenAI inarrestabile, che sforna aggiornamenti a ritmo serrato.
Dopo aver rivelato una roadmap 2026 con una famiglia di modelli multi-livello, l’azienda di Sam Altman ha lanciato GPT-5.3 Codex il 5 febbraio, promettendo un balzo in avanti nelle capacità di coding “agente”, ovvero in quei sistemi in grado di eseguire compiti complessi interagendo autonomamente con strumenti e ambienti.
Il messaggio era chiaro: velocità, potenza e una prestazione fino al 25% più rapida sui task di coding intelligente rispetto alla versione precedente.
Dall’altra parte, Anthropic ha risposto pochi giorni dopo con Claude Opus 4.6, un aggiornamento che, sulla carta, sembrava meno rivoluzionario ma che migliorava coding, task agentici e portava una finestra di contesto da 1 milione di token in beta.
Il divario tra il marketing e l’esperienza reale
Tuttavia, per gli sviluppatori che hanno messo alla prova GPT-5.3 Codex nelle prime ore, la realtà si è rivelata più complessa delle slide di presentazione.
Mentre OpenAI celebrava il nuovo gioiello, i forum della comunità e le piattaforme di sviluppatori cominciavano a riempirsi di resoconti problematici.
Gli utenti segnalavano problemi di login nell’estensione VSCode, con il flusso di autenticazione “Sign in with ChatGPT” che falliva ripetutamente.
Altri lamentavano un’esperienza disomogenea: richieste che venivano misteriosamente reindirizzate al modello precedente, GPT-5.2, senza spiegazioni apparenti.
OpenAI ha poi chiarito che si trattava di una misura di sicurezza: GPT-5.3 Codex, essendo il loro modello più capace in assoluto per task di cybersecurity, è soggetto a controlli rigorosi e, in caso di sospetta attività, viene sostituito da una versione meno potente.
Questa “protezione” ha però un costo immediato per l’utente finale: l’imprevedibilità.
In un ambiente di sviluppo, dove la consistenza è fondamentale, non sapere se si sta lavorando con le capacità complete del modello o con una versione castrata è un intoppo inaccettabile.
Non si tratta di un bug marginale, ma di un trade-off architetturale significativo: la sicurezza estrema viene implementata a scapito dell’esperienza fluida.
E mentre OpenAI sta scalando i controlli di sicurezza e ampliando l’accesso alle API nel tempo, gli sviluppatori devono fare i conti con questi intoppi oggi.
I problemi non finiscono qui.
Alcuni tester hanno osservato un comportamento verboso e a volte superficiale del modello, con una tendenza a abusare di controlli ridondanti e a applicare modifiche non necessarie a codice pulito.
La tanto decantata velocità, per alcuni, non si è materializzata, con task semplici che impiegavano minuti per essere completati.
Questo contrasta fortemente con l’approccio di Anthropic, che per Claude Code ha sempre enfatizzato la pianificazione attenta e la profondità di ragionamento.
L’impressione che emerge dai resoconti è che GPT-5.3 Codex sia ottimizzato per l’esecuzione rapida e l’interattività “a scatto”, mentre Claude Opus 4.6 sia progettato per “pensare” più a lungo prima di agire, un approccio che risulta più affidabile per progetti complessi e a lungo termine.
Due filosofie a confronto, non solo due prodotti
La competizione tra questi due strumenti va ben oltre una semplice checklist di funzionalità.
Rappresenta uno scontro tra due visioni del futuro dell’IA.
Da un lato, OpenAI, con la sua spinta aggressiva verso l’adozione di massa e la trasformazione di ChatGPT in un “super-assistente” universale.
Una visione che passa anche per la sperimentazione di modelli di business come gli annunci in ChatGPT e una focalizzazione crescente sull’enterprise, come dimostra il recente rapporto sullo stato dell’IA enterprise nel 2025.
Dall’altro, Anthropic, che si posiziona come l’“anti-OpenAI”, costruendo la sua reputazione su sicurezza, affidabilità e un approccio metodico.
La loro missione dichiarata è lo sviluppo responsabile di IA avanzata per il beneficio a lungo termine dell’umanità, e questo si riflette in scelte di prodotto che privilegiano il controllo e la trasparenza, come le chiare policy sulla conservazione dei dati delle sessioni di coding.
Questa differenza filosofica si materializza in scelte tecniche precise.
Claude Code, ad esempio, è stato progettato fin dall’inizio come uno strumento di coding agente che può leggere codebase, editare file ed eseguire comandi, con una forte enfasi sulla gestione del contesto attraverso file dedicati e sulla memoria persistente tra le sessioni.
L’approccio di OpenAI con Codex sembra più orientato a creare un motore di esecuzione versatile e veloce, a volte a scapito della coerenza a lungo termine.
I dati sul campo suggeriscono che gli sviluppatori stiano iniziando a notare questa differenza.
Un report di Anthropic sulle tendenze del coding agente nel 2026 evidenzia come il lavoro assistito dall’IA includa circa il 27% di task che non sarebbero stati affrontati altrimenti, ma sottolinea anche che gli ingegneri riescono a “delegare completamente” solo lo 0-20% delle attività, richiedendo una partecipazione umana attiva.
In questo scenario, uno strumento che favorisce la collaborazione ragionata, come Claude, può risultare più naturale.
La partita si sposta sul campo globale
La battaglia per la supremazia nell’IA non si gioca solo nel codice, ma anche nella geografia.
Mentre OpenAI lancia iniziative come “OpenAI for Countries” per collaborare con i governi, Anthropic sta compiendo mosse strategiche mirate.
Il suo prossimo grande passo è l’apertura di un ufficio a Bengaluru, in India, prevista per i primi mesi del 2026.
Non si tratta di una semplice espansione commerciale.
Il CEO Dario Amodei ha spiegato che la scelta dell’India è dettata “dalla vastità del suo talento tecnico e dall’impegno del governo indiano per garantire che i benefici dell’intelligenza artificiale raggiungano tutte le aree della società, non solo sacche concentrate”.
L’India è già il secondo paese per utilizzo consumer di Claude, subito dopo gli Stati Uniti, e stabilire una presenza fisica in una delle più grandi riserve di talento tecnico al mondo è una mossa per consolidare il vantaggio nella corsa al reclutamento e per comprendere meglio un mercato cruciale.
Questa espansione è sintomatica di una strategia più ampia e paziente di Anthropic, che punta a generare ricavi attraverso contratti enterprise e abbonamenti a pagamento, costruendo relazioni solide piuttosto che inseguire i titoli dei giornali con lanci frenetici.
È un approccio che sembra risuonare in un settore che sta maturando rapidamente, dove le aziende clienti iniziano a privilegiare l’affidabilità e la sicurezza rispetto al puro hype.
La domanda che si pongono ora molti osservatori è se la velocità di innovazione di OpenAI, nonostante i intoppi, possa comunque sopraffare la crescita metodica di Anthropic, o se questi primi problemi di GPT-5.3 Codex siano il segnale di un approccio che, nella ricerca della potenza bruta, sta iniziando a trascurare la qualità fondamentale dell’esperienza dello sviluppatore.
Alla fine, la scelta tra uno strumento di coding basato sull’IA e un altro si riduce a una questione di fiducia.
Fiducia che comprenda il problema, che esegua i compiti in modo affidabile, che non introduca caos in un codebase ordinato.
I resoconti delle prime settimane suggeriscono che, per una fazione crescente di sviluppatori, la bilancia sta pendendo verso lo strumento che privilegia la profondità sulla velocità, la coerenza sulla sorpresa.
In una industria che corre verso l’automazione, il vero lusso potrebbe non essere un agente più veloce, ma uno su cui si può contare.