Codex supera Sam Altman: l’AI di OpenAI batte il suo creatore nel coding
Il successo rapido di Codex è stato guidato da un’intelligenza artificiale capace di auto-crearsi e dalla transizione verso un modello basato su agenti autonomi, reso possibile anche dal coinvolgimento strategico della comunità di sviluppatori
Sam Altman, il CEO di OpenAI, ha pubblicato un post che sembrava un ringraziamento ma suonava come una dichiarazione di vittoria. “Dal modo in cui lavora il team, ho sempre pensato che Codex avrebbe vinto alla fine. Ma sono piacevolmente sorpreso di vederlo accadere così in fretta. Grazie a tutti i builder; ci ispirate a lavorare ancora più duramente”. Il messaggio, pubblicato l’11 febbraio 2026, non era un semplice apprezzamento per la comunità.
Era il riconoscimento di un sorpasso che molti nel settore stavano aspettando, ma che pochi si aspettavano così repentino: l’ascesa di Codex, l’assistente per lo sviluppo software di OpenAI, a strumento dominante per milioni di programmatori. Dietro questa affermazione c’è il lancio di GPT-5.3-Codex e dell’app omonima per macOS, che in una settimana ha superato il traguardo del milione di download.
Ma la vera storia non è solo nei numeri.
È in come OpenAI ha costruito questo successo, e soprattutto, in chi – o cosa – ha effettivamente fatto gran parte del lavoro pesante.
La novità più significativa dell’ultimo aggiornamento non è un incremento marginale di precisione, ma il ruolo che l’intelligenza artificiale ha avuto nella propria creazione. OpenAI ha rivelato che GPT-5.3-Codex è stato “strumentale nel creare se stesso”. Versioni precedenti del modello sono state utilizzate per debuggare il proprio addestramento, gestire il proprio deployment e diagnosticare i risultati dei test.
In pratica, gli ingegneri hanno usato Codex per ottimizzare e adattare l’infrastruttura che avrebbe eseguito la versione successiva e più potente di Codex. È un circolo virtuoso di auto-miglioramento che accelera esponenzialmente i cicli di sviluppo.
Lo stesso Altman ha ammesso in passato di essersi sentito “un po’ inutile” quando Codex ha iniziato a generare idee migliori delle sue.
Questo non è più un semplice strumento di completamento del codice; è un agente che partecipa attivamente alla costruzione dell’ecosistema in cui opera.
Il motore del successo: agenti, non suggerimenti
La differenza tra Codex e i suoi predecessori (e molti concorrenti) sta in un cambio di paradigma: da assistente in tempo reale a comandante di uno squadrone di agenti autonomi. L’app Codex per macOS, lanciata il 2 febbraio, è progettata esplicitamente come una “stazione di comando” per gestire più agenti di IA che lavorano in parallelo su progetti diversi.
Un programmatore può affidare a un agente il refactoring di un modulo, a un altro la scrittura dei test e a un terzo la documentazione, supervisionando il tutto da un’unica interfaccia. Per guidare questi agenti in ambienti complessi, OpenAI raccomanda di fornire un manuale di istruzioni dettagliato, spesso un file AGENTS.md, che funge da contributor’s guide per l’intelligenza artificiale, definendo l’organizzazione del codice, le convenzioni e i comandi da eseguire.
Questa architettura multi-agente è potenziata dalla capacità di Codex di connettersi direttamente agli strumenti che un team utilizza ogni giorno. Attraverso l’implementazione del Model Context Protocol (MCP), Codex può interagire con servizi come Zendesk, Linear e Google Calendar.
Immaginate un agente che monitora automaticamente le segnalazioni di bug su Linear, ne discute le priorità, recupera il codice rilevante e prepara una bozza di fix, tutto mentre il programmatore è concentrato su altro.
È questo livello di integrazione e automazione di flussi di lavoro reali che sta convincendo gli sviluppatori a passare in massa.
Ma un potere del genere solleva immediatamente questioni spinose, soprattutto in ambito sicurezza. OpenAI stessa classifica GPT-5.3-Codex come ad “Alta capacità” per le attività di cybersecurity nel suo quadro di preparazione.
Da un lato, questo significa che il modello può essere uno strumento difensivo formidabile, in grado di scansionare codice alla ricerca di vulnerabilità e generare script di remediation.
Dall’altro, è la prima volta che l’azienda addestra direttamente un modello con capacità offensive così elevate.
La promessa è che queste abilità siano tenute sotto stretto controllo e utilizzate solo per scopi difensivi, ma la classificazione stessa è un ammissione del potenziale insito nella tecnologia.
Dove finisce l’assistente per il developer e inizia lo strumento che potrebbe, in teoria, essere utilizzato per scopi ben diversi?
La comunità che ha costruito il costruttore
Il ringraziamento di Altman ai “builder” non è una formalità. L’ascesa fulminea di Codex è stata in parte alimentata da un coinvolgimento strategico della comunità di sviluppatori, trattata non come semplice bacino di utenti ma come co-sviluppatrice. Il programma “Codex Ambassadors” riunisce organizzatori di community, maintainer di progetti open-source e power user che condividono flussi di lavoro reali, organizzano workshop e forniscono feedback diretto al team di OpenAI.
Sono loro i primi a stressare il prodotto in scenari d’uso complessi e a indicare la strada per miglioramenti pratici.
Parallelamente, OpenAI ha mantenuto canali aperti per il contributo diretto, soprattutto attraverso il tool CLI open-source. La politica di sviluppo incoraggia gli utenti a proporre nuove funzionalità o modifiche aprendo una issue su GitHub, descrivendo la proposta in dettaglio. OpenAI dichiara esplicitamente di dare priorità alle nuove feature in base al feedback della comunità e alla loro aderenza alla roadmap.
Questo approccio ha creato un ciclo di feedback straordinariamente stretto: gli sviluppatori usano Codex per costruire software, e nel farlo, contribuiscono a costruire Codex stesso.
È un meta-livello di collaborazione uomo-macchina che trasforma ogni utente avanzato in un beta tester e co-designer.
Il risultato di questa strategia è visibile nei numeri. Oltre al milione di download dell’app, l’utilizzo di Codex tra gli sviluppatori esterni è aumentato di venti volte dopo il lancio dell’estensione CLI interattiva nell’agosto 2025. All’interno di OpenAI, quasi tutti gli ingegneri lo usano, con un aumento del 70% nelle pull request mergeate settimanalmente. Aziende come Cisco riferiscono di aver ridotto del 50% i tempi di revisione del codice complesso.
Codex non sta solo vincendo la battaglia per l’attenzione degli sviluppatori; sta ridefinendo il ritmo stesso del lavoro di ingegneria del software.
Dal modo in cui lavora il team, ho sempre pensato che Codex avrebbe vinto alla fine. Ma sono piacevolmente sorpreso di vederlo accadere così in fretta. Grazie a tutti i builder; ci ispirate a lavorare ancora più duramente.
— Sam Altman, CEO di OpenAI
Tuttavia, ogni rivoluzione tecnologica porta con sé nuove tensioni. L’automazione spinta e le capacità di auto-miglioramento di Codex pongono domande inevitabili sul futuro del lavoro degli sviluppatori.
Se un modello può debugbare il proprio addestramento e gestire il proprio deployment, quale sarà il ruolo distintivo dell’ingegnere umano?
OpenAI propone una transizione: dallo scrivere codice al guidare sistemi intelligenti, dal pair programming alla delega a agenti autonomi, dal codificare al revisionare.
È una visione affascinante, ma che richiede un ripensamento profondo delle skill, dei processi e delle strutture dei team tech.
Inoltre, la centralità dell’app macOS come stazione di comando, sebbene sia una mossa intelligente dato che il 60-70% degli sviluppatori professionisti usa macOS, rischia di accentuare il divario con gli sviluppatori che utilizzano altri sistemi operativi, almeno nel breve termine. L’accesso via web e API è in rollout, ma l’esperienza integrata e multi-agente è per ora un’esclusiva dell’ecosistema Apple.
La corsa di OpenAI con Codex dimostra che nel mondo dell’AI, il vantaggio competitivo più grande potrebbe non essere solo avere il modello più potente, ma avere il modello che è più abile nel costruire e ottimizzare l’infrastruttura per il prossimo modello.
È una gara in cui il concorrente più pericoloso non è necessariamente un’altra azienda, ma la versione di ieri del proprio prodotto.
La domanda che rimane, mentre Altman ringrazia i builder umani, è quanta parte di questo ringraziamento andrà, in un futuro non troppo lontano, agli agenti AI che quei builder hanno contribuito a creare.