Amazon e NVIDIA hanno già vinto la guerra dell’AI
Amazon e NVIDIA dominano l'infrastruttura AI, creando un lock-in che vincola OpenAI e Anthropic ai loro chip e cloud.
Il controllo dei chip e del cloud diventa la nuova frontiera competitiva dell’intelligenza artificiale
Il training dei modelli di frontiera non si gioca più sulla qualità dei pesi neurali, ma sulla mappa delle pipeline di addestramento e inferenza. Mentre l’attenzione pubblica si concentra su GPT-5.5 e Claude Opus 4.7, la partita decisiva si sta giocando nel controllo dei chip e del cloud.
Amazon e NVIDIA stanno costruendo un duopolio infrastrutturale che rende i fornitori di modelli semplici inquilini vincolati.
Il silicio che diventa vincolo
OpenAI ha legato il suo destino a un fornitore di hardware specifico. L’azienda ha dichiarato di voler OpenAI sfrutta 10 GW di infrastruttura NVIDIA per GPT-5.5, un impegno che va ben oltre il singolo cluster. I nuovi sistemi GB200 NVL72 offrono Efficienza di GPT-5.5 su NVIDIA con costi 35x inferiori per milione di token e Miglioramento delle prestazioni di GPT-5.5 con una densità di token output 50x superiore per megawatt. Questi numeri non sono solo vantaggi competitivi: sono leve di lock-in. Una volta che lo stack software è ottimizzato per CUDA e le librerie NVIDIA, migrare significa buttare via anni di engineering. Il costo di uscita è proibitivo.
Amazon segue una strategia parallela ma ancora più subdola: costruisce il silicio proprietario Trainium e lo integra con AWS. L’azienda ha effettuato un investito nel silicio Trainium di 5 miliardi di dollari in Anthropic, e ha promesso altri 20 miliardi per il lock-in architetturale di Amazon con Trainium. Il risultato è un ecosistema in cui il modello è addestrato su chip proprietari e l’inferenza gira sullo stesso hardware, con la nuvola che incassa ogni transazione. Quando il lock-in architetturale è completo, il lock-in architetturale di Trainium diventa una barriera quasi insormontabile per qualsiasi cliente che voglia cambiare fornitore.
Il cloud come trappola
Anthropic, il principale rivale di OpenAI, ha scelto di ancorarsi ad AWS in modo ancora più profondo. Amazon ha annunciato un Investimento di Amazon nel cluster AI più grande del mondo di 5 miliardi di dollari il 20 aprile 2026, e ha destinato un investimento totale di 25 miliardi in Anthropic. Il risultato è che AWS diventa il fornitore cloud esclusivo per i carichi di lavoro più sensibili di Anthropic, con il Cluster AI di Amazon basato su Trainium come infrastruttura di base. Oggi oltre 100.000 clienti confermano l’Adozione del cluster AI di Amazon per eseguire i modelli Claude.
Questa dipendenza si riflette anche nei costi. Il modello più avanzato di Anthropic, Claude Opus 4.7, è stato lanciato con un pricing di $5 per milione di token in input e $25 per milione in output. Ma la notizia è che Anthropic riduce le capacità di Claude Opus 4.7 per limitare i rischi di sicurezza, un segnale di quanto sia delicato bilanciare performance e controllo quando il tuo hardware non è tuo.