L’infrastruttura AI di OpenAI supera chatGPT: un’analisi dell’aumento di ARR
Dietro i numeri da capogiro di OpenAI, una dipendenza tecnologica crescente e un cambiamento irreversibile nel modo di costruire il software
C’è una differenza sostanziale tra quello che il pubblico percepisce come “Intelligenza Artificiale” e i tubi idraulici digitali che la fanno funzionare realmente. Per la maggior parte delle persone, OpenAI è sinonimo di ChatGPT: una finestra di chat, un cursore che lampeggia, una risposta più o meno creativa.
Ma per chi scrive codice, per chi costruisce architetture software e per chi deve scalare prodotti digitali, la vera notizia non è mai stata nell’interfaccia web.
La conferma è arrivata poche ore fa, con una brutalità numerica che ha fatto vibrare diverse chat di CTO e sviluppatori in Silicon Valley. Sam Altman ha svelato che la divisione business API di OpenAI è cresciuta di oltre 1 miliardo di dollari di ARR nell’ultimo mese.
Non stiamo parlando di un anno, ma di un singolo mese.
Per dare una prospettiva tecnica: aggiungere un miliardo di Annual Recurring Revenue in trenta giorni significa aver integrato una mole di traffico enterprise e di chiamate programmatiche ai modelli GPT che fa impallidire l’intero fatturato annuale di molte aziende SaaS consolidate.
Questo dato non è solo una metrica vanitosa per gli investitori. È il segnale che il mercato ha smesso di giocare con i prompt nella chat e ha iniziato a cablare l’intelligenza direttamente nel backend delle applicazioni. È il passaggio dall’AI come “assistente” all’AI come infrastruttura.
Eppure, dietro questo trionfo dei numeri, si nasconde una dipendenza tecnologica che merita di essere analizzata con occhio critico, perché il modo in cui stiamo costruendo il software sta cambiando irreversibilmente.
Oltre l’interfaccia utente
Per comprendere la gravità di questo annuncio, bisogna guardare sotto il cofano. Quando Altman parla di “API business”, si riferisce al consumo di token.
Ogni volta che un’applicazione esterna — che sia un plugin per l’analisi legale come Harvey o un motore di ricerca come Perplexity — interroga i server di OpenAI, non passa per l’interfaccia grafica. Passa per una richiesta HTTP, inviando un payload JSON e ricevendo in cambio una stringa di testo probabilistica.
L’eleganza di questo modello risiede nella sua astrazione: lo sviluppatore non deve gestire cluster di GPU H100, non deve preoccuparsi del load balancing inferenziale o della quantizzazione dei modelli.
Paga per quello che usa.
È il modello utility computing portato all’estremo. Tuttavia, la scala di questa crescita suggerisce che non siamo più nella fase dei “wrapper”, quelle app leggere che non facevano altro che “impacchettare” GPT-4. Siamo entrati nella fase dell’integrazione profonda.
Sam Altman ha voluto sottolineare proprio questo distacco percettivo tra il prodotto consumer e la realtà ingegneristica dell’azienda:
Abbiamo aggiunto più di 1 miliardo di dollari di ARR nell’ultimo mese solo grazie al nostro business delle API. La gente pensa a noi soprattutto come a ChatGPT, ma il team delle API sta facendo un lavoro straordinario!
— Sam Altman, CEO di OpenAI
Questa dichiarazione è tecnicamente rivelatrice. Un aumento così repentino del consumo API non avviene per caso. Suggerisce che grandi player enterprise hanno completato i loro cicli di test (PoC) iniziati probabilmente nel 2024 o 2025 e hanno “aperto i rubinetti” in produzione. Significa che i flussi di dati aziendali ora scorrono massicciamente attraverso i modelli di OpenAI.
La distinzione è cruciale: ChatGPT ha un tetto naturale, ovvero il numero di umani che possono digitare domande.
Le API non hanno questo limite; possono operare in loop, agenti che parlano con altri agenti, script che macinano terabyte di documentazione legale o finanziaria durante la notte. È qui che risiede la vera scalabilità, ed è qui che OpenAI sta vincendo la partita infrastrutturale.
La dittatura del token e i costi nascosti
C’è però un aspetto meno luccicante in questa architettura. Centralizzare l’intelligenza via API crea un single point of failure e una dipendenza economica massiccia.
Se nel 2023 OpenAI aveva raggiunto i 2 miliardi di dollari di entrate ricorrenti annuali, l’esplosione a oltre 20 miliardi di ARR alla fine del 2025, con questo ulteriore balzo a gennaio 2026, ci dice che il mercato ha accettato il “noleggio” dell’intelligenza piuttosto che il possesso.
Dal punto di vista di un developer, questa è un’arma a doppio taglio. Integrare le API di OpenAI è seducente: la Developer Experience (DX) è ottima, le librerie client sono stabili e i modelli sono, al momento, state-of-the-art.
Ma costruire un business su un’API proprietaria significa che il tuo margine è dettato dal listino prezzi di un fornitore che ha il monopolio di fatto sulle prestazioni di fascia alta.
Inoltre, bisogna considerare perché OpenAI spinge così tanto sulle API. I costi di training e inferenza sono astronomici. Analizzando i dati finanziari recenti, sappiamo che nella prima metà del 2025 l’azienda ha bruciato circa 2,5 miliardi di liquidità per sostenere l’infrastruttura.
Il business consumer di ChatGPT è fantastico per il brand, ma è il volume B2B delle API che deve coprire i costi faraonici dei cluster di calcolo necessari per addestrare i successori di GPT-4 e i nuovi modelli della serie “o”.
Il miliardo aggiunto a gennaio non è solo profitto; è ossigeno necessario per alimentare una fornace di GPU che non può mai spegnersi. È una corsa in avanti: per mantenere la leadership tecnica servono investimenti in calcolo che solo un dominio quasi totale del mercato API può ripagare.
L’illusione dell’alternativa Open Source
Molti colleghi tecnici ribatteranno: “Ma c’è l’Open Source! C’è Llama, c’è Mistral, c’è DeepSeek”. È vero, e la qualità dei modelli aperti è migliorata drasticamente. Tecnicamente, oggi è possibile far girare un modello con prestazioni simili a GPT-3.5 (e in certi casi vicino a GPT-4) su hardware locale o su cloud privato.
Allora perché le aziende continuano a versare miliardi nelle casse di OpenAI?
La risposta risiede nella frizione tecnica. Gestire l’inferenza di un LLM (Large Language Model) in produzione è un incubo operativo. Richiede competenze di MLOps avanzate, gestione della latenza, ottimizzazione della memoria VRAM e aggiornamenti costanti.
OpenAI non vende solo il modello; vende l’assenza di questo dolore.
Vende un endpoint RESTful che funziona sempre, scala automaticamente e non richiede di svegliarsi alle 3 di notte perché un cluster Kubernetes è andato in crash per mancanza di risorse GPU.
Tuttavia, questa comodità ha un prezzo strategico. Stiamo assistendo a una biforcazione del web. Da una parte, i giganti che possono permettersi di affittare l’intelligenza più potente del mondo via API. Dall’altra, chi si arrangia con modelli locali, guadagnando in privacy e controllo ma perdendo spesso quel 5-10% di capacità di ragionamento complesso che, in certi ambiti (come il coding avanzato o l’analisi medica), fa tutta la differenza.
Il fatto che OpenAI stia diventando la utility company dell’intelligenza artificiale, un po’ come AWS lo è stato per il cloud computing, pone interrogativi seri. Se l’accesso all’intelligenza di livello superiore è mediato da una singola API key, quanto è resiliente l’ecosistema tecnologico che stiamo costruendo?
Siamo di fronte a un paradosso affascinante e inquietante: non abbiamo mai avuto strumenti così potenti a portata di una richiesta cURL, eppure non siamo mai stati così dipendenti da un singolo fornitore per il funzionamento logico delle nostre applicazioni.
L’aggiunta di un miliardo di dollari in un mese conferma che il settore ha fatto la sua scelta, privilegiando la velocità di implementazione sulla sovranità tecnologica. Resta da vedere se, quando la fattura dei token arriverà a fine anno, l’entusiasmo sarà ancora lo stesso.