Gli agenti di OpenAI hanno un effetto collaterale
OpenAI lancia gli agenti workspace, strumenti che aumentano del 50% la produttività ma producono contenuti più uniformi. La ricerca indipendente rivela questo trade-off mentre cresce la concorrenza.
La ricerca rivela però un aumento dell’omogeneità dei contenuti generati, un trade-off spesso taciuto.
Cinquanta per cento in più di output per lavoratore. È il dato che circola oggi, 22 aprile 2026, nel giorno in cui OpenAI ha introdotto ufficialmente, secondo l’annuncio sugli agenti workspace, una nuova categoria di strumenti per il lavoro d’ufficio: i workspace agents, disponibili in anteprima di ricerca per gli abbonati ai piani ChatGPT Business, Enterprise, Edu e Teachers. Il numero viene da una ricerca indipendente, non da un comunicato stampa aziendale, ed è proprio per questo che vale la pena prenderlo sul serio — e poi smontarlo.
Il dato che fa discutere
Il meccanismo concreto di questi agenti lo illustra lo stesso team di OpenAI: il reparto vendite dell’azienda usa un agente per raccogliere dettagli da appunti di chiamate e ricerche sugli account, qualificare nuovi lead e redigere email di follow-up direttamente nella casella del rappresentante. Non si tratta di un assistente che risponde a domande: è un sistema che prende in carico flussi di lavoro interi, alimentato da Codex, il motore di generazione di codice e testo di OpenAI. Secondo l’analisi sugli agenti workspace pubblicata da AZ Big Media, questi strumenti rappresentano un approccio capace di organizzare workflow, automatizzare compiti ripetitivi e liberare i team per attività a maggiore valore aggiunto. Tutto giusto. Ma c’è un però.
Il dato del 50% in più di produttività proviene da ricerca sui team umano-IA pubblicata su arXiv, che ha misurato la produzione di annunci pubblicitari. I team misti umano-IA hanno prodotto il 50% in più di annunci per lavoratore rispetto ai team interamente umani. Ma la stessa ricerca registra un effetto collaterale che nessun comunicato stampa cita: quegli stessi team hanno prodotto output più omogenei, o auto-simili. In altre parole, più veloce e più uguale. È questo il costo nascosto di cui nessuno vuole parlare?
Vantaggi e ombre
OpenAI incassa su più livelli. Da un lato, il lancio consolida il posizionamento di ChatGPT nel mercato enterprise, già rafforzato quando ChatGPT Team è stato rinominato ChatGPT Business nell’agosto del 2025, segnalando una transizione esplicita verso il cliente corporate. Dall’altro, il modello di monetizzazione scelto per i workspace agents è chiaro: gratuiti fino al 6 maggio 2026, poi prezzi basati su crediti. Una scelta che ricorda le strategie classiche del software-as-a-service: entra, abituati, poi paga. Funziona, e OpenAI lo sa bene.
Per le aziende, i vantaggi sono tangibili: automazione dei compiti ripetitivi, riduzione degli errori nei flussi di lavoro strutturati, risparmio di tempo su attività come la qualificazione dei lead o la preparazione di documenti. Ma qui si apre una domanda che i comunicati stampa schivano con eleganza: se tutti i team usano lo stesso agente addestrato sugli stessi dati, con gli stessi parametri, chi garantisce che i contenuti prodotti — email, analisi, proposte commerciali — non convergano verso un unico registro? La ricerca citata suggerisce che questa convergenza è già in corso. E allora vale la pena chiedersi: è un problema tecnico risolvibile, o è una caratteristica strutturale di questo tipo di automazione?
C’è anche un problema di dipendenza che merita attenzione. Più un’organizzazione integra questi agenti nei propri flussi di lavoro, più diventa difficile uscirne senza costi significativi. Il lock-in non è una conseguenza accidentale del modello a crediti: è il suo obiettivo implicito. E in un contesto in cui i regolatori europei stanno già esaminando le concentrazioni di potere nel mercato dell’IA — tra norme sull’AI Act appena entrate in vigore e attenzione crescente dell’antitrust verso i fornitori di infrastrutture digitali — la domanda su chi controlla questi agenti e quali dati trattano non è retorica. Merita risposte concrete, soprattutto per i clienti Enterprise che caricano su questi sistemi dati sensibili soggetti al GDPR. Questa traiettoria era già visibile da quando OpenAI aveva introdotto i GPTs, versioni personalizzate di ChatGPT per scopi specifici: i workspace agents ne sono l’evoluzione diretta, con capacità operative molto più ampie.
La guerra degli agenti
OpenAI non festeggia da sola. Lo stesso 22 aprile 2026, Google ha lanciato la Gemini Enterprise Agent Platform, descritta come l’evoluzione di Vertex AI: una piattaforma completa per costruire, scalare, governare e ottimizzare agenti, con nuove funzionalità per l’integrazione, il DevOps, l’orchestrazione e la sicurezza. La coincidenza di date non è casuale: entrambe le aziende sanno che il mercato degli agenti enterprise si sta definendo adesso, e chi arriva per secondo — anche di poche ore — rischia di partire in svantaggio nella percezione pubblica.
Anthropic gioca una carta diversa con Claude Cowork, un sistema che esegue lavoro cognitivo multi-step per conto dell’utente — sintesi di ricerche, preparazione di documenti, gestione di file — e che, non a caso, si definisce esplicitamente come qualcosa che non è un assistente di chat. Il posizionamento è chiaro: non vogliamo essere confusi con ChatGPT. Nel frattempo, Microsoft 365 Copilot continua a operare nel territorio che conosce meglio, integrando agenti direttamente in Teams, Outlook e nelle altre applicazioni dell’ecosistema Office, con un accesso ai dati aziendali che nessun concorrente può replicare senza accordi specifici.
Tre aziende, tre approcci, tutti lanciati o consolidati nello stesso giorno. E tutti con la stessa promessa: lavorare di più, meglio, più in fretta. La domanda che resta aperta, però, è un’altra. Mentre le grandi tech si contendono il futuro degli uffici e costruiscono modelli di business fondati sull’indispensabilità dei propri agenti, chi tutela la qualità — e la diversità — di ciò che quei team produrranno? Più produttivo, sì. Ma anche più prevedibile. E in alcuni settori, la prevedibilità è esattamente il problema.