Amazon sfida Microsoft: investimento da 10 miliardi in OpenAI e trainium al centro
Amazon punta su Trainium per scalare l’IA, sfidando il duopolio Nvidia e aprendo nuove complessità tecniche per OpenAI
Siamo arrivati al punto in cui i numeri perdono quasi di significato per chi scrive codice ogni giorno, ma le implicazioni tecniche di ciò che sta accadendo sono fin troppo concrete per essere ignorate.
Se pensavamo che la guerra dei chip fosse finita con il dominio di Nvidia, il 2026 ci sta dimostrando che eravamo solo al primo livello. La notizia che sta scuotendo la Silicon Valley in queste ore non riguarda solo un assegno staccato da un gigante all’altro, ma ridefinisce l’intera architettura fisica su cui gireranno i modelli di intelligenza artificiale dei prossimi anni.
Amazon, che per anni ha osservato Microsoft e Google contendersi i titoli dei giornali nel campo dell’AI generativa, ha deciso di muovere la sua pedina più pesante sulla scacchiera.
Secondo report recenti che stanno facendo il giro degli ambienti finanziari e tecnici, Amazon punta a una quota di 10 miliardi in OpenAI, minacciando il vantaggio di Microsoft.
Non è beneficenza, e non è nemmeno una semplice diversificazione del portafoglio: è un tentativo brutale e ingegneristicamente affascinante di imporre il proprio standard hardware in un ecosistema che rischiava di diventare monocromatico.
Tuttavia, per capire perché questa mossa sia tecnicamente cruciale, bisogna guardare sotto il cofano, dove i cavi di rete incontrano il silicio.
L’architettura del compromesso: Trainium al centro
Per un tecnico, la parte più interessante di questo accordo non è la valutazione astronomica di OpenAI – che ormai viaggia verso i 500 miliardi di dollari – ma la clausola che riguarda l’hardware. L’investimento di Amazon sembra essere condizionato dall’utilizzo dei suoi chip proprietari, Trainium.
Chi lavora con AWS sa bene che Amazon Web Services sviluppa i propri chip AI dal 2015, cercando di offrire un’alternativa più efficiente in termini di costi rispetto alle GPU Nvidia, che sono diventate la risorsa più scarsa e costosa del pianeta.
Fino ad ora, però, convincere gli sviluppatori a migrare da CUDA (l’ecosistema software di Nvidia) ai chip Trainium e Inferentia non è stato banale. Richiede riscritture, ottimizzazioni specifiche e un cambio di mentalità.
Costringendo (o “incentivando fortemente”) OpenAI a utilizzare l’infrastruttura basata su Trainium, Amazon ottiene il validatore supremo. Se ChatGPT e i futuri modelli GPT-6 gireranno su silicio Amazon, l’intera industria riceverà il segnale che esiste una vita oltre Nvidia.
È una mossa di disaccoppiamento hardware necessaria per la sostenibilità a lungo termine del cloud, ma crea una complessità tecnica non indifferente: OpenAI dovrà gestire stack paralleli, uno su Azure (Nvidia) e uno su AWS (Trainium/Nvidia), frammentando ulteriormente le pipeline di training e inferenza.
Come ha osservato con un certo cinismo l’analista Charles Fitzgerald riguardo alle necessità finanziarie di OpenAI:
Se OpenAI vince la lotteria, allora avranno i soldi per pagare tutto questo.
— Charles Fitzgerald, Analista
Ma i soldi, in questo caso, sono solo carburante per una macchina che consuma compute a ritmi insostenibili.
La fine della monogamia con Redmond
Dal punto di vista strategico, questo segna la fine definitiva dell’era in cui OpenAI era considerata un “dipartimento di ricerca” di Microsoft. La ristrutturazione della partnership avvenuta nell’ottobre 2025 aveva già rimosso il diritto di prelazione di Microsoft sulla capacità di calcolo, aprendo le porte a questo scenario.
La realtà è che nessun singolo cloud provider, nemmeno Azure, ha abbastanza capacità fisica per soddisfare la fame di calcolo di OpenAI, che ha impegni di spesa infrastrutturale superiori ai 1000 miliardi di dollari.
L’apertura ad Amazon era inevitabile per pura fisica dei datacenter: servono più server, più elettricità e più rack di quanti una sola azienda possa costruire. A novembre 2025, OpenAI ha firmato un accordo da 38 miliardi di dollari per servizi cloud con AWS, preludio tecnico all’investimento azionario di cui discutiamo oggi.
Per noi sviluppatori, questo significa che l’API di OpenAI non sarà più legata a doppio filo all’infrastruttura di Redmond. Potrebbe portare a una ridondanza geografica migliore e, si spera, a una latenza ridotta se l’inferenza verrà distribuita in modo più capillare sui nodi AWS edge.
Tuttavia, solleva anche dubbi sulla governance dei dati: i nostri prompt viaggeranno su infrastrutture di concorrenti feroci che ora siedono entrambi nel consiglio di amministrazione (o quasi) del fornitore del modello.
Il loop infinito dei capitali
C’è poi un aspetto che fa storcere il naso a chi apprezza la pulizia, sia nel codice che nei bilanci. Questa operazione ha tutto l’aspetto di un “round-tripping” finanziario.
Amazon investe 10 miliardi in OpenAI; OpenAI usa quei soldi per pagare l’affitto dei server AWS (e dei chip Trainium). Il denaro esce da una tasca di Amazon e rientra nell’altra sotto forma di fatturato cloud, gonfiando le metriche di crescita di AWS e la valutazione di OpenAI.
È un design pattern economico che ricorda certe architetture ricorsive mal progettate: funzionano finché c’è input, ma il valore reale prodotto è difficile da isolare. Andy Jassy, CEO di Amazon, non ha nascosto la natura pragmatica di questi investimenti:
riconoscendo l’hype ma affermando l’impegno di Amazon a estrarne valore, anche se gli accordi appaiono circolari.
— Andy Jassy, CEO di Amazon
Dal punto di vista tecnico, questo consolidamento rischia di soffocare l’innovazione open source.
Mentre i giganti si scambiano miliardi e si blindano dietro architetture proprietarie e chip custom, lo spazio per i modelli aperti che girano su hardware commodity si restringe. L’ottimizzazione estrema per Trainium o per i chip Azure Maia crea un vendor lock-in a livello di istruzioni macchina che sarà difficile da scardinare per chi non ha miliardi da spendere in R&D.
Siamo di fronte a un paradosso: per far avanzare l’intelligenza artificiale verso nuove vette di capacità, stiamo costruendo cattedrali hardware sempre più chiuse e interdipendenti, dove la trasparenza tecnica viene sacrificata sull’altare dell’efficienza e del controllo di mercato.
La domanda che rimane sospesa non è se Trainium funzionerà – gli ingegneri di AWS sono eccellenti, funzionerà sicuramente – ma se stiamo costruendo un futuro in cui l’accesso all’IA di punta sarà tecnicamente possibile solo attraverso i gatekeeper del cloud.