Amazon ha costruito il più grande cluster AI del mondo

Amazon ha costruito il più grande cluster AI del mondo

Amazon annuncia un investimento da 5 miliardi in Anthropic e presenta Project Rainier, il più grande cluster AI al mondo con 500.000 chip Trainium2, consolidando AWS come piattaforma dominante per l'AI su larga scala.

L’investimento da 25 miliardi si accompagna al più grande cluster di chip Trainium2, progettato per l’addestramento dei modelli di nuova

Oggi, 20 aprile 2026, Amazon ha annunciato un investimento da 5 miliardi di dollari in Anthropic, con la possibilità di versarne altri 20 in futuro. Stando a l’annuncio ufficiale di Amazon, l’accordo prevede anche un impegno da parte di Anthropic a spendere oltre 100 miliardi di dollari nei prossimi dieci anni su tecnologie AWS. Non è solo una mossa finanziaria: è il segnale che Amazon sta costruendo un’infrastruttura tecnica pensata per rendere AWS il posto obbligato dove fare AI su larga scala.

La scommessa finanziaria: miliardi su Anthropic

I numeri sono considerevoli. L’investimento odierno da 5 miliardi si somma agli 8 miliardi che Amazon aveva già versato in Anthropic in precedenza, portando il totale a 13 miliardi sul tavolo. Ma la cifra che colpisce di più è quella dell’impegno a lungo termine: fino a 20 miliardi aggiuntivi in futuro, mentre Anthropic si vincola a costruire i suoi workload mission-critical su AWS. Stando all’annuncio ufficiale di Anthropic, AWS diventerà il principale fornitore cloud per le attività più sensibili dell’azienda. A completare il quadro, Anthropic garantirà fino a 5 gigawatt di capacità per addestrare e alimentare i propri modelli avanzati. Già oggi, oltre 100.000 clienti fanno girare i modelli Claude su AWS: una base d’utenza che rende la partnership concreta, non solo promessa.

Project Rainier e Trainium2: il substrato tecnico che rende tutto possibile

I miliardi hanno senso solo se c’è l’hardware per spenderli bene. Ed è qui che la storia diventa interessante dal punto di vista tecnico. AWS ha realizzato il Project Rainier in collaborazione con Anthropic: un cluster di calcolo composto da oltre 500.000 chip Trainium2, che secondo le specifiche tecniche dei chip Trainium2 rappresenta il più grande cluster AI al mondo oggi disponibile. Per dare la misura della scala: è cinque volte più grande dell’infrastruttura usata per addestrare la generazione precedente di modelli di Anthropic.

Mettere insieme 500.000 chip in un singolo cluster non è un problema banale di cablaggio. La sfida è l’interconnessione: garantire bandwidth sufficiente tra i nodi affinché la comunicazione tra acceleratori non diventi il collo di bottiglia dell’intero training run. Amazon ha progettato Trainium2 con questo in mente, ottimizzando l’architettura per le topologie di rete ad alta densità che servono quando si scala il parallelismo del modello (model parallelism) su decine di migliaia di chip contemporaneamente. Un cluster di quella dimensione richiede anche una gestione sofisticata dei failure: con 500.000 chip attivi, la probabilità statistica che qualcosa si guasti durante un training run lungo settimane è altissima, e l’infrastruttura deve essere in grado di isolare i nodi problematici senza interrompere l’intero job. Questo livello di resilienza operativa è quello che separa un cluster di ricerca da uno pronto per la produzione.

Il punto che vale la pena sottolineare è che Anthropic sta costruendo i suoi modelli di nuova generazione — quelli che succederanno a Claude — su questa infrastruttura. Il che significa che l’architettura Trainium2 non viene testata su workload secondari: è il substrato su cui si fondono le scelte di design dei modelli stessi. Questa integrazione verticale tra chip, infrastruttura di rete e team di ricerca è esattamente il tipo di feedback loop che accelera lo sviluppo hardware nel tempo.

Competizione e implicazioni per lo stack AI

Amazon non sta puntando tutto su un solo cavallo. Stando al comunicato di OpenAI, Amazon ha in programma di investire 50 miliardi di dollari anche in OpenAI, e i numeri confermano una doppia strategia: 25 miliardi totali su Anthropic, 50 miliardi su OpenAI. Tradotto: Amazon non sta scegliendo il modello vincente, sta scommettendo sulla piattaforma — AWS — su cui entrambi i competitor dovranno far girare i loro workload. È una posizione da infrastrutturista, non da editore di modelli.

Per chi costruisce applicazioni AI oggi, il messaggio è diretto: AWS sta consolidando una posizione in cui avere accesso ai modelli più capaci — Claude di Anthropic, i modelli di OpenAI — converge con l’avere accesso al miglior hardware disponibile per fare inferenza e fine-tuning su larga scala. La domanda aperta è se questa concentrazione su un singolo provider cloud favorirà chi ha bisogno di portabilità tra stack o creerà dipendenze difficili da sciogliere. Per i team che valutano dove costruire la propria infrastruttura AI nei prossimi anni, la scelta di AWS sta diventando sempre meno neutrale — e sempre più strutturale.

🍪 Impostazioni Cookie