Amazon sfida Wall Street con 200 miliardi di dollari per l’AI e l’infrastruttura cloud
Questa ingente spesa, che ha allarmato gli investitori, è in realtà un’ambiziosa strategia per costruire l’infrastruttura fisica e i chip proprietari necessari a sostenere la crescente domanda dell’intelligenza artificiale.
Se c’è una cosa che i mercati finanziari detestano quasi quanto le perdite, è l’incertezza sui tempi di ritorno dell’investimento.
Eppure, nel mondo dello sviluppo software e dell’infrastruttura cloud, esiste una legge non scritta: non puoi ottimizzare il codice se non hai prima la macchina su cui farlo girare.
Ieri Amazon ha deciso di portare questo concetto all’estremo, sfidando apertamente la pazienza di Wall Street con una cifra che fa tremare i polsi anche a noi addetti ai lavori: 200 miliardi di dollari.
È una somma difficile da visualizzare, anche per chi è abituato a gestire budget IT enterprise. Per dare un contesto, stiamo parlando di una cifra che supera il PIL di molte nazioni, interamente destinata a Capital Expenditures (CapEx) per il 2026. La reazione immediata è stata brutale, con il titolo che ha perso quasi l’8% nel pre-market, segno che gli investitori vedono questa mossa come un azzardo rischioso piuttosto che come una necessità ingegneristica.
Tuttavia, se guardiamo sotto il cofano, oltre i grafici di borsa, emerge una strategia tecnica che ha poco a che fare con la scommessa e molto con la fisica dei datacenter.
Amazon ha annunciato piani di spesa per 200 miliardi di dollari nel 2026, una cifra che ha polverizzato le stime degli analisti ferme a circa 146 miliardi. Andy Jassy, CEO di Amazon, non ha usato mezzi termini nel giustificare questa espansione, legandola direttamente alla domanda insoddisfatta per l’infrastruttura AI.
Con una domanda così forte per le nostre offerte esistenti e opportunità fondamentali come i chip per l’IA, la robotica e i satelliti in orbita bassa, prevediamo di investire circa 200 miliardi di dollari in spese in conto capitale in tutta Amazon nel 2026 e anticipiamo un forte ritorno sul capitale investito a lungo termine.
— Andy Jassy, CEO di Amazon
Non è solo questione di GPU
Per chi non vive nelle server room, può sembrare che questi soldi vengano “bruciati”. In realtà, stiamo assistendo alla più grande opera di ingegneria civile digitale della storia recente.
Quando parliamo di CapEx nell’era dell’AI generativa, non stiamo parlando solo di acquistare pallet di GPU H100 o Blackwell da Nvidia. Quello è il livello superficiale.
La vera sfida tecnica, quella che giustifica spese di questa magnitudo, riguarda l’infrastruttura di supporto: alimentazione e raffreddamento. I carichi di lavoro per l’addestramento dei Large Language Models (LLM) richiedono densità di potenza che i datacenter tradizionali non possono supportare. Un rack standard progettato dieci anni fa per ospitare server web non regge il carico termico dei cluster AI moderni.
Amazon sta essenzialmente ricostruendo le fondamenta fisiche del cloud. C’è un’eleganza brutale in questo: mentre il software diventa sempre più astratto e “liquido”, la dipendenza dall’hardware fisico, dal “ferro”, diventa paradossalmente più critica.
Il dato più rivelatore, passato quasi in sordina tra le urla degli azionisti spaventati, è il backlog. Jassy ha menzionato una coda di richieste inevase per circa 250 miliardi di dollari. Dal punto di vista di un developer, questo è il segnale definitivo di un collo di bottiglia infrastrutturale.
Hanno un backlog in termini di domanda per la parte datacenter e spazio aereo di circa 250 miliardi di dollari USA.
— Andy Jassy, CEO di Amazon (riferito da Bloomberg)
Significa che i clienti — dalle startup che fanno fine-tuning di modelli open source alle enterprise che integrano l’AI nei loro processi — stanno chiedendo capacità di calcolo che fisicamente non esiste ancora. Non costruirla significherebbe cedere il passo a Microsoft Azure o Google Cloud, che stanno seguendo traiettorie simili, seppur con budget leggermente inferiori (Alphabet si è “fermata” a 135 miliardi).
L’architettura della scommessa
C’è un aspetto tecnico che distingue l’approccio di Amazon da quello dei concorrenti e che rende questa spesa massiccia particolarmente interessante per chi apprezza l’efficienza sistemistica. A differenza di un approccio puramente “brute force” in cui si compra hardware commodity e si spera che il software ci giri sopra bene, Amazon sta spingendo forte sull’integrazione verticale con i propri chip proprietari: Trainium e Inferentia.
Investire in hardware personalizzato è la mossa tecnicamente superiore.
Utilizzare GPU general-purpose per l’inferenza (l’esecuzione del modello una volta addestrato) è spesso uno spreco di risorse energetiche e computazionali. I chip ASIC (Application-Specific Integrated Circuit) progettati su misura per le operazioni matriciali dell’AI permettono di disaccoppiare, almeno in parte, la crescita della potenza di calcolo dai costi energetici lineari. I 200 miliardi includono massicci investimenti nella produzione e nel dispiegamento di questi chip.
È qui che la visione tecnica si scontra con la miopia del mercato. Gli analisti vedono un’uscita di cassa immediata; gli ingegneri vedono la costruzione di una piattaforma che ridurrà il TCO (Total Cost of Ownership) per il prossimo decennio. Se AWS riesce a convincere gli sviluppatori a migrare da CUDA (l’ecosistema proprietario di Nvidia) ai propri SDK per Trainium, il vantaggio competitivo diventerà incolmabile.
È una scommessa sull’indipendenza tecnologica, non solo sulla capacità bruta.
Tuttavia, il rischio di over-provisioning (sovradimensionamento) esiste ed è un classico problema dei sistemi distribuiti. Se costruisci un’infrastruttura per gestire un picco di traffico che poi si rivela transitorio, ti ritrovi con risorse idle che consumano budget senza produrre valore. La scommessa di Amazon implica che l’attuale esplosione dell’AI non sia una bolla speculativa come gli NFT, ma un cambio di paradigma strutturale simile all’avvento di TCP/IP.
La corsa agli armamenti del silicio
Il contesto competitivo non può essere ignorato. Con una spesa combinata dei “big three” (Amazon, Microsoft, Alphabet) che si aggira intorno ai 650 miliardi di dollari, siamo di fronte a una corsa agli armamenti del silicio senza precedenti.
Tecnicamente, stiamo assistendo a una frammentazione dell’ecosistema.
Fino a pochi anni fa, il cloud era una commodity: una vCPU su AWS era grossomodo intercambiabile con una su Azure. Oggi, con l’AI, l’hardware sottostante torna a contare. Le performance di un modello Llama 3 o DeepSeek variano drasticamente a seconda dell’architettura hardware e della topologia di rete (interconnessioni ad alta velocità come InfiniBand o le varianti proprietarie di AWS). Amazon sta spendendo non solo per aggiungere server, ma per ridisegnare la topologia stessa dei suoi datacenter per favorire il calcolo distribuito su larga scala.
Questo livello di spesa solleva però interrogativi sulla sostenibilità dell’ecosistema open source. Se l’addestramento e l’esecuzione dei modelli di frontiera richiedono infrastrutture da 200 miliardi l’anno, il divario tra ciò che può fare la comunità open source “in garage” e ciò che possono fare gli hyperscaler si allarga pericolosamente. La trasparenza tecnica rischia di diventare un lusso che solo chi possiede le chiavi del datacenter può permettersi.
La domanda che rimane sospesa, mentre le azioni oscillano e i cavi in fibra ottica vengono posati a ritmi frenetici, non è finanziaria ma strutturale: stiamo costruendo l’autostrada per il futuro dell’informatica, o stiamo solo creando il più costoso parcheggio per server vuoti della storia?