Amazon scommette 200 miliardi di dollari sull'AI: la più grande scommessa infrastrutturale della storia

Amazon scommette 200 miliardi di dollari sull’AI: la più grande scommessa infrastrutturale della storia

L’enorme investimento di Amazon non è un capriccio finanziario, ma una brutale presa d’atto delle esigenze fisiche dell’intelligenza artificiale, che richiede infrastrutture e silicio proprietari per dominare il cloud, nonostante la diffidenza di Wall Street.

Duecento miliardi di dollari.

Per dare una dimensione fisica a questa cifra, stiamo parlando di un importo superiore al PIL annuale di paesi come l’Ungheria o il Kuwait, speso da una singola azienda in un solo anno solare.

Quando Amazon, lo scorso venerdì, ha svelato il suo piano di investimenti in conto capitale (Capex) per il 2026, la reazione immediata dei mercati è stata un misto di incredulità e vertigine.

Il titolo è crollato, bruciando valore, perché Wall Street odia l’incertezza e ama i dividendi, mentre qui siamo di fronte alla più grande scommessa infrastrutturale della storia dell’informatica moderna.

Dal punto di vista di chi lavora con il codice e con il ferro, però, la lettura è diversa. Non siamo davanti a un capriccio finanziario, ma alla brutale presa d’atto che l’intelligenza artificiale non è eterea: è pesante, scalda, consuma e richiede una quantità di silicio che l’attuale catena di approvvigionamento fatica a produrre.

Andy Jassy, CEO di Amazon, sta essenzialmente dicendo che per mantenere la supremazia nel cloud non basta più scrivere buon software; bisogna possedere fisicamente la capacità di calcolo del pianeta.

Ma c’è un dettaglio tecnico in questa strategia che molti analisti finanziari, ossessionati dal ritorno sull’investimento a breve termine (ROI), stanno sottovalutando.

La fisica del silicio contro la paura di Wall Street

Per capire perché Amazon stia spingendo l’acceleratore fino a far fumare il motore, bisogna guardare cosa succede dentro un data center nel 2026.

L’era della CPU generalista, quella che gestiva indifferentemente un database o un server web, è finita.

L’addestramento dei Large Language Model (LLM) e, sempre più, l’inferenza (ovvero l’utilizzo pratico del modello da parte dell’utente) richiedono architetture parallele massicce. Non è solo questione di comprare GPU da Nvidia; è questione di costruire le cattedrali elettriche in grado di ospitarle.

La preoccupazione degli investitori è comprensibile: spendere cifre simili senza una garanzia immediata di profitto sembra un suicidio assistito. Eppure, la dirigenza di Seattle è irremovibile. Durante la conferenza con gli investitori, Jassy ha difeso la scelta sostenendo che il piano di spesa da 200 miliardi di dollari ha scioccato Wall Street proprio perché punta a capitalizzare un’opportunità “insolita”.

Questa non è una sorta di assurda corsa al fatturato fine a se stessa. Consideriamo questa come un’opportunità insolita e investiremo in modo aggressivo per essere i leader, come siamo stati negli ultimi anni.

— Andy Jassy, CEO di Amazon

La scommessa è tecnica prima che economica: chi controlla l’infrastruttura, controlla il protocollo.

Se nel 2026 non hai i cluster pronti per l’addestramento dei modelli di prossima generazione, sei fuori dai giochi.

Non esiste una “via di mezzo” nell’hyperscaling.

O sei l’infrastruttura su cui gira il mondo, o sei un cliente di qualcun altro. E per Amazon, il cui business AWS è la gallina dalle uova d’oro, diventare cliente non è un’opzione contemplabile.

Tuttavia, c’è una differenza sostanziale rispetto al passato. Non si tratta solo di costruire capannoni e riempirli di server.

L’indipendenza da Nvidia e la scommessa sul ferro

Qui entra in gioco l’eleganza tecnica della strategia di Amazon, che si distingue da quella di concorrenti più legati a forniture esterne.

Una parte significativa di quei 200 miliardi non finirà nelle tasche di Jensen Huang (CEO di Nvidia), ma nello sviluppo e nella produzione dei chip proprietari di Amazon: Trainium e Inferentia per l’AI, e Graviton per il calcolo generico.

È una mossa che tecnicamente ha un senso profondo. Progettare il proprio silicio permette di ottimizzare l’intero stack, dal transistor al compilatore, riducendo le latenze e, soprattutto, i costi energetici per operazione.

Mentre il resto del mondo fa la fila per accaparrarsi le GPU H200 o Blackwell, Amazon sta cercando di verticalizzare l’intero processo. Già nel 2025 Amazon ha speso 131,8 miliardi di dollari in investimenti in conto capitale, preparando il terreno per questa espansione.

Il rischio tecnico, però, è reale.

Sviluppare chip custom richiede anni e, se l’architettura scelta si rivela meno flessibile rispetto all’evoluzione degli algoritmi di AI (che cambiano ogni sei mesi), ci si ritrova con miliardi di dollari di hardware obsoleto saldato sulle schede madri.

È il classico problema dell’hardware specializzato: è incredibilmente efficiente per fare X, ma se il mercato improvvisamente vuole fare Y, hai un fermacarte molto costoso.

Nonostante ciò, l’approccio “full stack” è l’unico che garantisce margini sul lungo periodo. Se vendi solo la potenza di calcolo di qualcun altro (Nvidia), sei un rivenditore. Se vendi la tua potenza di calcolo, sei una utility.

E le utility, storicamente, vincono sempre.

A patto che ci sia qualcuno che accenda la luce.

La teoria del bilanciere e il rischio sistemico

La domanda che aleggia nei corridoi dei data center e nelle sale riunioni è: chi userà tutta questa potenza?

Jassy ha parlato di una domanda a forma di “bilanciere” (barbell). Da una parte ci sono i laboratori di ricerca massiccia come Anthropic (di cui Amazon è il principale finanziatore) che hanno bisogno di cluster immensi per il training. Dall’altra, iniziano ad esserci le applicazioni enterprise reali.

Nel mezzo, però, c’è ancora molto vuoto.

La parte del leone di quella domanda deve ancora arrivare nel mezzo di quel bilanciere, e arriverà col tempo.

— Andy Jassy, CEO di Amazon

Amazon non è sola in questa corsa agli armamenti. Se guardiamo i numeri aggregati, le Big Tech — Alphabet, Amazon, Meta e Microsoft — hanno pianificato per il 2026 investimenti collettivi che si avvicinano ai 650 miliardi di dollari.

Stiamo parlando di una cifra che, se fosse il PIL di una nazione, la collocherebbe tra le prime 25 economie mondiali.

Questo livello di spesa simultanea crea una distorsione macroeconomica e tecnica: monopolizza le fonderie di chip (come TSMC), prosciuga le risorse energetiche disponibili e alza l’asticella d’ingresso a livelli che rendono impossibile la nascita di nuovi competitor infrastrutturali.

C’è un parallelo inquietante con la bolla delle telecomunicazioni dei primi anni 2000. All’epoca, le aziende stesero milioni di chilometri di fibra ottica “buia” (inutilizzata), scommettendo su una crescita esponenziale del traffico internet. Molte fallirono. Ma quella fibra rimasta lì, a basso costo, fu l’autostrada che permise l’esplosione del Web 2.0 anni dopo.

Oggi stiamo stendendo “fibra cognitiva”.

Stiamo costruendo la capacità di calcolo prima ancora di avere le applicazioni che la saturino.

È tecnicamente affascinante vedere come l’industria stia forzando i limiti della legge di Moore e della termodinamica per costruire questi supercomputer distribuiti, ma resta il dubbio critico sulla sostenibilità.

Se l’AI generativa non dovesse produrre i ritorni di produttività promessi, ci troveremo con i data center più avanzati e costosi della storia a girare a vuoto.

La mossa di Amazon è tecnicamente audace e finanziariamente terrificante.

Dimostra che nel 2026 il codice non è più separabile dall’infrastruttura fisica. Resta da vedere se questa architettura titanica sarà la base di una nuova rivoluzione industriale o il mausoleo più costoso mai costruito dall’uomo.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie