OpenAI Codex: L'agente che Agisce e Decide – Il Futuro è Già Qui?

OpenAI Codex: L’agente che Agisce e Decide – Il Futuro è Già Qui?

Dall’assistenza passiva all’agente attivo: OpenAI adotta il simbolo del dollaro per un futuro di decisioni automatizzate e una strana alleanza con Anthropic che solleva dubbi sulla privacy.

C’è un’ironia sottile, quasi crudele, nel fatto che OpenAI abbia scelto proprio il simbolo del dollaro ($) per la sua nuova funzione di invocazione delle “skill” su Codex. Siamo al 2 gennaio 2026, e mentre la maggior parte degli utenti sta ancora smaltendo i postumi dei festeggiamenti, negli uffici di San Francisco si sta celebrando un altro tipo di festa: quella della standardizzazione forzata.

L’introduzione di questo semplice carattere tipografico nell’interfaccia di autocompletamento non è una banale scorciatoia da tastiera per sviluppatori pigri. È il segnale definitivo che siamo entrati nell’era dell’agente che agisce, spende e, soprattutto, decide.

Ma come sempre quando si parla di Sam Altman e soci, il diavolo non è nei dettagli, è nel modello di business.

Per capire cosa sta succedendo oggi, bisogna fare un passo indietro e guardare al cimitero dei progetti passati. Codex era nato nel 2021, era stato ucciso nel 2023, e ora risorge dalle sue ceneri come un “agente forte”. Perché riesumare un marchio defunto? Perché “Copilot” è diventato un termine generico, quasi annacquato, mentre Codex evoca le origini, il codice puro.

Ma il Codex del 2026 non si limita a suggerire una riga di Python.

Con la nuova sintassi, digitare $ significa consegnare le chiavi della macchina all’IA, autorizzandola a eseguire compiti complessi che vanno ben oltre la scrittura di software. E qui la faccenda si fa interessante, perché OpenAI non sta agendo da sola in questo nuovo territorio.

La strana alleanza della Silicon Valley

Siamo abituati a vedere le Big Tech scannarsi per chiudere gli utenti nei propri recinti digitali, i famosi “walled garden”. Eppure, in una mossa che ha colto molti di sorpresa, OpenAI ha integrato ufficialmente le specifiche di Agent Skills sviluppate da Anthropic.

Sì, avete letto bene.

Il leader di mercato sta adottando lo standard del suo principale concorrente.

Non scambiate questo gesto per altruismo o per amore dell’open source. Quando due giganti che si contendono miliardi di dollari di investimenti decidono di parlare la stessa lingua tecnica, il campanello d’allarme della privacy dovrebbe suonare all’impazzata. L’obiettivo qui non è l’interoperabilità per il bene dell’utente, ma la creazione di un’infrastruttura comune su cui far scorrere i dati senza attrito.

Adottando lo standard di Anthropic, OpenAI si assicura che le “skill” (le capacità dell’agente) siano fungibili, ma il controllo dell’esecuzione rimane saldo nelle loro mani. È la classica strategia “abbraccia, estendi ed estingui” che abbiamo visto fare a Microsoft negli anni ’90, solo che ora il terreno di scontro non è il sistema operativo, ma l’intenzione umana.

Questa standardizzazione ha un effetto collaterale immediato e inquietante: la portabilità della sorveglianza. Se un agente può eseguire le stesse azioni su piattaforme diverse, la profilazione dell’utente diventa incredibilmente più precisa. Non importa se state usando Claude o ChatGPT; se le specifiche sono identiche, il modo in cui interagite con la macchina diventa un dato strutturato, facile da impacchettare e vendere.

E mentre i regolatori europei si affannano a capire come applicare l’AI Act a modelli che cambiano ogni settimana, le aziende hanno già spostato il gioco sul livello successivo: non più cosa genera l’IA, ma cosa fa l’IA per conto vostro.

Tuttavia, per far funzionare questa macchina perfetta, serviva una massa critica di utenti disposti a sperimentare. E come si convincono gli sviluppatori a testare sistemi potenzialmente instabili sui propri dati?

Semplice: si regala loro potenza di calcolo.

Il trucco del “primo mese gratis”

La strategia di adozione è stata da manuale del perfetto spacciatore di tecnologia. Per abituare il mercato a questa nuova modalità “agente”, i limiti di chiamata API per Codex sono stati raddoppiati per gli utenti paganti fino alla scadenza di ieri, primo gennaio. È stata una mossa tattica brillante: inondare il mercato di capacità di calcolo a basso costo proprio mentre venivano introdotti i nuovi modelli di reasoning (o3 e o4-mini).

In questo modo, OpenAI ha ottenuto due risultati. Primo, ha creato una dipendenza operativa; chi ha integrato questi flussi di lavoro “pesanti” negli ultimi mesi ora si trova a dover pagare il prezzo pieno o a dover ristrutturare tutto.

Secondo, e più grave dal punto di vista della privacy, ha raccolto una quantità spaventosa di dati su come gli agenti vengono utilizzati in scenari reali e complessi. Ogni volta che un utente ha sfruttato quei limiti raddoppiati, ha addestrato il modello a capire meglio le intenzioni umane.

L’uso del simbolo $ per invocare le skill è il culmine di questo addestramento. È un contratto psicologico: l’utente scrive un simbolo di valuta, e l’agente esegue.

Non c’è più l’ambiguità del linguaggio naturale.

È un comando esplicito.

Ma cosa succede quando l’agente sbaglia? Chi è responsabile se, invocando una skill con un semplice dollaro, l’IA cancella un database di produzione o invia dati sensibili a un server non sicuro?

Il GDPR, all’articolo 22, protegge dai processi decisionali automatizzati, ma qui siamo in una zona grigia: è l’utente che ha digitato il comando, o è l’agente che ha interpretato male l’estensione del mandato?

La responsabilità viene diluita in un gioco di specchi. L’azienda vi fornisce lo strumento “potente”, voi lo attivate con un simbolo, e se qualcosa va storto, la colpa è della vostra supervisione (“human in the loop”, come piace dire a loro).

Ma con agenti sempre più veloci e integrati, la supervisione umana diventa una favola che ci raccontiamo per dormire tranquilli.

La sicurezza come optional

L’aspetto forse più allarmante di questa convergenza tecnologica è la facilità con cui le capacità degli agenti possono migrare da un ambiente all’altro. È stato dimostrato che le competenze sviluppate per Claude funzionano ora su Codex senza modifiche, creando uno scenario in cui un exploit o una vulnerabilità in una “skill” si propaga istantaneamente attraverso l’ecosistema.

Immaginate un virus che non infetta il computer, ma le capacità del vostro assistente virtuale.

Siamo di fronte a una situazione paradossale. Da un lato, ci viene venduta la narrazione di un’IA che diventa un collaboratore alla pari, capace di ragionare e agire autonomamente. Dall’altro, le garanzie di sicurezza e privacy rimangono ancorate a concetti vecchi di dieci anni.

Se un agente Codex gira in locale (grazie alla nuova CLI) e ha accesso ai file di sistema per “aiutarvi” a programmare, ha anche accesso a tutto ciò che volete tenere privato.

E se quel codice è standardizzato secondo le specifiche di un gigante del cloud, chi ci garantisce che la telemetria si fermi ai messaggi di errore?

La realtà è che stiamo costruendo un’autostrada per i nostri dati personali, asfaltata con le buone intenzioni dell’interoperabilità e illuminata dal luccichio delle nuove funzionalità. Il simbolo del dollaro scelto da OpenAI non è solo un carattere di attivazione. È un promemoria: in questa nuova economia degli agenti, la valuta di scambio siamo, ancora una volta, noi.

Resta da chiedersi: quando l’agente avrà imparato tutto ciò che gli serve dalle nostre abitudini, avremo ancora un ruolo nella conversazione, o saremo solo l’input obsoleto di un sistema che non ha più bisogno di chiedere permesso?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie