OpenAI ha scommesso tutto su un solo fornitore
Nvidia e OpenAI hanno stretto un'alleanza segreta, costruendo un cluster da 100.000 GPU per GPT-5.5 e dimezzando i costi, creando una dipendenza tecnologica senza precedenti.
L’alleanza tra Nvidia e OpenAI è un patto di sangue tecnologico che esclude altri attori
Seduto al bancone di un caffè a Milano, uno sviluppatore che conosco ha aperto il portatile e ha fatto una cosa che mi ha lasciato senza parole: ha generato un’intera applicazione web, back-end compreso, in meno di dieci secondi.
Non era una demo. Era il suo lavoro quotidiano, potenziato da GPT-5.5. Mentre lo guardavo, ho capito che la storia vera non era la nuova versione del modello, ma ciò che c’è sotto: un’infrastruttura fisica, fatta di silicio e cavi, che pochi hanno visto e che sta riscrivendo le regole del gioco. Il lancio di GPT-5.5 non è la notizia. La notizia è l’alleanza segreta tra NVIDIA e OpenAI, un matrimonio di interessi che va molto oltre i comunicati stampa.
Quando un ingegnere di NVIDIA dice che perdere l’accesso a GPT-5.5 è come un’amputazione, non sta esagerando. È la spia di una dipendenza reciproca che dura da quasi un decennio. I due colossi condividono piani, segreti industriali e, soprattutto, una visione del futuro dell’intelligenza artificiale che esclude altri attori. Mentre Google stringe alleanze con i consulenti per piazzare i suoi chip, OpenAI ha scommesso tutto su un solo partner hardware.
Il primo mattone è stato posato nel 2016
Jensen Huang, CEO di NVIDIA, non è un fornitore qualunque. Nel 2016 si presentò a San Francisco con il primo DGX-1 sotto braccio, una macchina che all’epoca sembrava uscita da un film di fantascienza. Lo consegnò di persona a OpenAI, in quella che oggi chiamano consegna del primo DGX-1 a OpenAI. Da quel giorno, la relazione è diventata simbiotica. OpenAI è stata partner day-zero per il lancio di GPT-5.5 open-weight, il che significa che ha avuto accesso al silicio prima di chiunque altro. A loro volta, gli ingegneri di NVIDIA hanno ottimizzato i pesi del modello per TensorRT-LLM, una libreria che rende l’inferenza velocissima. Non è solo software: si scambiano feedback continui per definire la roadmap hardware di NVIDIA, e OpenAI ottiene accesso anticipato a nuove architetture.
Questa non è una semplice partnership commerciale. È un patto di sangue tecnologico. E il risultato più concreto è appena arrivato: un cluster da 100.000 GPU GB200 NVL72, la più grande infrastruttura di calcolo mai assemblata per un singolo cliente. I due team lo hanno acceso insieme, completando cicli di training su larga scala e stabilendo benchmark di affidabilità per sistemi di frontiera. Per darvi un’idea: un cluster del genere consuma elettricità come una piccola città.
Dieci gigawatt e una scommessa sul futuro
Se pensate che 100.000 GPU siano follia, non avete ancora visto il prossimo passo. OpenAI ha già annunciato l’intenzione di installare 10 gigawatt di sistemi NVIDIA per GPT-5.5. Per capire la portata: un gigawatt è la potenza di una centrale nucleare. Dieci gigawatt significano che OpenAI sta costruendo la propria rete elettrica parallela, tutta pensata per far girare i modelli di domani. Questo è il vero vantaggio competitivo: non solo l’architettura del software, ma la capacità fisica di addestrare modelli che nessun altro può permettersi di far funzionare.
E poi c’è il costo. Il prezzo dimezzato di GPT-5.5 non è un gesto di generosità: è il segnale che la macchina è così efficiente da permettere di abbattere i costi a piacimento. I modelli concorrenti, che girano su hardware meno integrato, semplicemente non possono tenere il passo.
Mentre Google corre a comprare startup e a stringere accordi con i system integrator, OpenAI e NVIDIA costruiscono silicio custom insieme. Sono partner early di codesign, il che significa che il prossimo chip di NVIDIA nascerà già sapendo cosa dovrà eseguire: il cervello di GPT-6, o forse qualcosa di più strano.
La dipendenza è il rischio nascosto
Ma fermiamoci un attimo. Tutta questa potenza ha un prezzo che va oltre i dollari. Concentrare l’intera infrastruttura dell’AI più avanzata in una sola azienda, con un solo fornitore hardware, è un gigantesco punto di fallimento unico. Cosa succederebbe se NVIDIA decidesse di alzare i prezzi? O se la supply chain di TSMC, che produce i chip, dovesse fermarsi per un terremoto a Taiwan? OpenAI non ha un piano B. È una scelta consapevole, ma anche una scommessa esistenziale.
E poi c’è la questione privacy. Un cluster da 100.000 GPU significa che ogni singolo token generato da GPT-5.5 passa attraverso l’infrastruttura di NVIDIA. I dati di training, i pesi dei modelli, le query degli utenti: tutto vive nello stack hardware di una sola azienda. Per ora va tutto bene, ma è bene tenere gli occhi aperti su chi controlla le fondamenta del nuovo mondo digitale.
Negli ultimi mesi ho visto sviluppatori passare da un modello all’altro come fossero sapori di gelato. Ma la vera partita non si gioca sui modelli: si gioca su chi possiede i mattoni. E se questa alleanza continua così, tra cinque anni guarderemo indietro e capiremo che il 2026 è stato l’anno in cui NVIDIA e OpenAI hanno chiuso le porte a tutti gli altri. Quello che resta da vedere è se questo abbraccio sarà un vantaggio per tutti noi, o solo per chi ha la presa di corrente giusta.