La bolla dell'ai sta per scoppiare? l'allarme del presidente di openai

La bolla dell’ai sta per scoppiare? l’allarme del presidente di openai

L’industria tech si interroga sulla sostenibilità dell’attuale boom dell’IA, paragonandolo alla bolla delle dot-com di fine anni ’90

Se c’è una costante nel ciclo di vita dello sviluppo software, è la tendenza del mercato a scambiare prototipi promettenti per prodotti finiti, gonfiando le aspettative fino al punto di rottura. Ma quando a chiamare “bolla” l’attuale ecosistema dell’Intelligenza Artificiale è il presidente della compagnia che quella bolla l’ha, di fatto, gonfiata, il segnale di fumo diventa un incendio impossibile da ignorare.

Siamo a inizio 2026 e l’industria tech si trova in una posizione paradossale: i modelli linguistici (LLM) sono integrati ovunque, dal refactoring del codice legacy alla generazione di report fiscali, eppure i conti non tornano ancora per la maggior parte degli attori coinvolti.

Bret Taylor, presidente di OpenAI, non è un osservatore esterno. È un architetto del sistema, un tecnico che capisce la differenza tra un’infrastruttura scalabile e una demo ben confezionata. La sua recente ammissione, che paragona l’attuale frenesia a quella delle dot-com di fine anni ’90, non è un atto di pentimento, ma una lucida analisi tecnica e finanziaria. Taylor suggerisce che stiamo bruciando capitale in un tasso insostenibile per costruire infrastrutture che, ironicamente, diventeranno essenziali solo dopo che il mercato avrà spazzato via gli speculatori.

Penso che la bolla dell’IA riecheggerà quella delle dot-com e credo che, col senno di poi, gran parte degli eccessi della dot.com siano stati giustificati

— Bret Taylor, Presidente di OpenAI

Questa dichiarazione nasconde una verità che noi sviluppatori conosciamo bene: il codice che sopravvive non è sempre il più elegante, ma quello che risolve un problema reale a un costo sostenibile. E al momento, il costo dell’inferenza — l’energia e il calcolo necessari per generare ogni singolo token di risposta — rimane il collo di bottiglia che distingue questo ciclo tecnologico da quello di Internet.

L’architettura del collasso (e della rinascita)

Per comprendere la gravità delle parole di Taylor, bisogna guardare sotto il cofano di come il capitale di rischio (VC) ha drogato il settore negli ultimi tre anni. Abbiamo visto startup raccogliere centinaia di milioni con nient’altro che un “wrapper” — un sottile strato di interfaccia utente — attorno alle API di GPT-4 o Claude. Queste aziende non possiedono la tecnologia sottostante (“i pesi” del modello), non controllano l’infrastruttura e non hanno un vantaggio competitivo difendibile tecnicamente.

Taylor, con una mossa retorica interessante, giustifica l’hype paragonandolo al boom delle dot-com, sostenendo che, nonostante il crollo inevitabile delle valutazioni, il valore residuo generato per la società sarà immenso. Il parallelo è calzante: nel 2000, compagnie come Pets.com fallirono miseramente, ma i cavi in fibra ottica posati con i soldi degli investitori rimasero nel terreno, permettendo l’ascesa successiva di Google e Amazon. Oggi, le GPU H100 e i data center da gigawatt che stiamo costruendo non spariranno se le startup falliranno. Rimarranno lì, pronti per essere utilizzati da chi saprà ottimizzare gli algoritmi.

C’è però una differenza sostanziale rispetto al ’99. Allora si trattava di connettere computer; oggi stiamo cercando di emulare il ragionamento. La complessità tecnica è esponenzialmente più alta e il margine di errore molto più punitivo. Un sito web lento era fastidioso; un agente AI che “allucina” in un contesto bancario o medico è un rischio legale catastrofico.

Qualcuno perderà una quantità fenomenale di denaro

— Sam Altman, CEO di OpenAI

Questa frase di Altman non è una minaccia, è una constatazione termodinamica.

L’efficienza dei modelli sta migliorando, ma non abbastanza velocemente da giustificare le valutazioni attuali per tutti. Siamo in una fase di “selezione naturale algoritmica”: solo chi riuscirà a ridurre la latenza e i costi computazionali, o a verticalizzare i modelli su domini specifici con dati proprietari di alta qualità, sopravviverà.

Il paradosso della valutazione

Nonostante gli avvertimenti, il denaro continua a fluire, spesso verso le stesse figure che lanciano l’allarme. È affascinante notare come, mentre si parla di bolla, la startup Sierra di Bret Taylor abbia raccolto fondi raggiungendo una valutazione di 10 miliardi di dollari. Questo dualismo è tipico della Silicon Valley: si riconosce l’irrazionalità del mercato macroeconomico mentre si massimizza il profitto nella propria microeconomia.

Tecnicamente, questo si spiega con la scommessa sulla Agentic AI. Fino al 2024, interagivamo con i chatbot: input umano, output macchina. La promessa del 2025-2026 è che l’AI agisca da sola: prenoti voli, scriva ed esegua codice, gestisca intere supply chain. Se questo salto architetturale funziona — e ci sono grossi “se” legati alla determinazione e alla sicurezza dei processi — allora anche le valutazioni folli potrebbero sembrare economiche tra dieci anni.

Se invece gli agenti continueranno a bloccarsi in loop infiniti o a commettere errori logici complessi, la correzione del mercato sarà brutale.

La posizione di Taylor è quindi sfumata: conferma che siamo effettivamente in una bolla speculativa, ma la considera una fase necessaria, quasi fisiologica, per finanziare l’enorme spesa in conto capitale (CapEx) richiesta per addestrare i modelli di prossima generazione. Senza la “bolla”, nessuno avrebbe investito i 100 miliardi necessari per i cluster di calcolo che stiamo vedendo oggi. È un gioco pericoloso in cui l’avidità degli investitori viene utilizzata per finanziare il progresso scientifico.

Open Source: l’ago che fa scoppiare il pallone?

C’è un ultimo attore in questa tragedia greca che spesso viene sottovalutato nelle analisi puramente finanziarie: l’open source. Mentre OpenAI e Google costruiscono cattedrali chiuse, la comunità globale di sviluppatori sta ottimizzando modelli come Llama e i suoi discendenti per girare su hardware consumer.

Se un modello che posso far girare localmente sul mio laptop raggiunge il 90% delle prestazioni di un modello gigante che costa milioni al giorno in server, il modello di business delle grandi aziende rischia di sgretolarsi. La “bolla” si basa sull’assunto che l’intelligenza artificiale sarà una commodity scarsa e centralizzata, venduta a caro prezzo tramite API.

Ma se l’IA diventasse abbondante, decentralizzata e gratuita (o quasi), chi ripagherà quegli investimenti miliardari?

La storia dell’informatica ci insegna che i sistemi aperti e modulari tendono a vincere sul lungo periodo contro i monoliti proprietari (pensiamo a Linux vs Unix proprietari). Taylor e Altman lo sanno. Forse è per questo che stanno cercando di abbassare le aspettative a breve termine: sanno che la vera battaglia non è contro i regolatori o i critici, ma contro un repository GitHub che, da qualche parte nel mondo, sta per rendere obsoleto il loro prossimo prodotto di punta prima ancora che venga lanciato.

Resta da chiedersi: quando la polvere si sarà posata e i miliardi saranno stati bruciati, ci ritroveremo con un’infrastruttura digitale che ha elevato l’umanità, o solo con data center pieni di schede grafiche inutilizzate che cercano disperatamente un problema da risolvere?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie