OpenAI ha iniziato a giudicare il lavoro delle sue AI
OpenAI ha svelato un sistema di monitoraggio algoritmico in tempo reale per agenti AI, alimentato da GPT-5.4, che analizza milioni di traiettorie di codifica.
Il sistema analizza decine di milioni di traiettorie per individuare comportamenti anomali degli agenti di codifica.
Il 17 marzo 2026, OpenAI ha pubblicato un articolo che solleva il cofano su un sistema di sorveglianza algoritmica in tempo reale. Il cuore è un sistema di monitoraggio interno per agenti di codifica che, alimentato da GPT-5.4, ispeziona ogni traiettoria d’interazione entro 30 minuti dal completamento. In cinque mesi ha processato decine di milioni di traiettorie di codifica agentica interna, registrando zero conversazioni con il livello di gravità più alto e circa 1.000 avvisi di gravità moderata. Non è un log passivo: è un agente di supervisione che giudica un altro agente, definendo i confini operativi dell’autonomia AI.
Il protocollo del guardiano: ispezione post-execution e gradienti di allerta
Il monitoraggio non avviene in linea durante l’esecuzione del codice, ma in coda subito dopo. Questo design post-execution evita il costo computazionale del real-time, ma impone un vincolo stringente: ogni azione dell’agente deve essere tracciata in una traiettoria strutturata che il modello sorvegliante (GPT-5.4) può valutare in batch. Il sistema non cerca bug, ma misalignment – scostamenti dalle intenzioni del progettista o pattern potenzialmente pericolosi. La classificazione a più livelli di gravità trasforma un output ambiguo in un ticket d’intervento umano, creando un feedback loop che addestra sia il sorvegliante che il sorvegliato.
Dalla tassonomia alla valutazione: il framework che misura l’intelligenza
Parallelamente, la definizione di autonomia si sposta sul piano della misurazione. Google DeepMind ha rilasciato un documento su un framework cognitivo per l’AGI, proponendo un protocollo di valutazione in tre fasi per paragonare le AI alle capacità umane. Per renderlo operativo, un hackathon Kaggle su valutazioni cognitive per l’AGI si concentra su cinque abilità: apprendimento, metacognizione, attenzione, funzioni esecutive e cognizione sociale. Sono benchmark che vanno oltre il punteggio su un dataset, cercando di catturare l’adattabilità e la generalizzazione – le stesse qualità che il monitoraggio di OpenAI tenta di contenere.
Lo stack diviso: controllo centralizzato e inferenza distribuita
Mentre i lab rinchiudono l’autonomia in protocolli di sorveglianza, l’infrastruttura si frammenta. Gli operatori di telecomunicazioni stanno riconfigurando le loro reti per diventare piattaforme di inferenza, utilizzando la loro footprint di rete per servizi AI sul edge distribuito. L’AI grid di AT&T che avvicina l’inference ai dati è l’esempio: l’elaborazione esce dai data center centralizzati e si sposta verso la periferia della rete, fisicamente più vicina all’utente. Qui il controllo non è logico ma geografico, e il trade-off è tra latenza, costo e, soprattutto, governabilità.
L’implicazione per chi costruisce è chiara: lo stack tecnologico si sta separando in due strati concettuali. Al livello alto, i framework di valutazione e i sistemi di monitoraggio centralizzati definiscono cosa l’AI può o non può fare, imponendo una sorveglianza stretta nei ambienti controllati. Al livello basso, l’esecuzione fisica delle inferenze si disperde su un’infrastruttura edge distribuita e potenzialmente più opaca.
La tensione non è tra apertura e chiusura, ma tra due forme di controllo: una algoritmica e centralizzata sulla capacità decisionale, l’altra infrastrutturale e decentralizzata sull’esecuzione. Il prossimo progetto dovrà scegliere su quale frontiera posizionarsi.