Nvidia Acquisisce il Cervello di Groq per 20 Miliardi di Dollari
Nvidia acquisisce il “cervello” di Groq per 20 miliardi, puntando all’inferenza a bassa latenza e aggirando l’antitrust con una mossa strategica
È il regalo di Natale più costoso e tecnicamente bizzarro della storia dei semiconduttori.
Mentre mezza industria si godeva il panettone, Nvidia ha deciso di staccare un assegno che fa impallidire le manovre finanziarie di interi stati sovrani: 20 miliardi di dollari. Ma la vera notizia non è la cifra, che per le casse di Santa Clara è poco più di un arrotondamento contabile, quanto l’oggetto dello scambio.
Nvidia non ha comprato Groq.
Ha comprato il suo cervello, lasciando il corpo a vagare da solo.
Siamo di fronte a un capolavoro di ingegneria societaria che replica, su scala macroscopica, ciò che spesso facciamo nel codice: un fork del progetto dove il ramo principale assorbe le feature migliori e lascia il resto in deprecazione.
Ufficialmente, Groq e Nvidia hanno siglato un accordo di licenza non esclusiva per la tecnologia di inferenza, ma leggendo le clausole in piccolo si scopre che Jonathan Ross, il fondatore che ha disegnato le TPU di Google, e gran parte del team tecnico traslocheranno negli uffici di Nvidia.
Groq rimarrà un’azienda indipendente, guidata dal nuovo CEO Simon Edwards, ma svuotata della sua risorsa più preziosa: il capitale umano che ha concepito un’architettura radicalmente diversa dalle GPU.
Per capire perché Jensen Huang abbia voluto questa tecnologia a tutti i costi, bisogna guardare sotto il cofano delle GPU attuali. Una GPU Nvidia è una bestia da soma straordinaria per il training (l’addestramento) dei modelli: parallelizza il calcolo su migliaia di core, gestendo enormi quantità di memoria ad alta larghezza di banda (HBM).
Tuttavia, è intrinsecamente caotica. Gestisce cache, arbitra l’accesso alla memoria, e “spera” che i dati arrivino in tempo. Questo introduce latenza e variabilità, il nemico numero uno dell’inferenza in tempo reale.
L’eleganza del determinismo
Groq ha costruito qualcosa di filosoficamente opposto: il Tensor Streaming Processor (TSP). A differenza delle GPU, che usano hardware complesso per gestire l’esecuzione dinamica delle istruzioni, l’architettura di Groq è “stupida” nell’hardware ma geniale nel compilatore.
È un approccio deterministico: il compilatore sa esattamente dove si troverà ogni singolo bit di dati in ogni singolo ciclo di clock. Non ci sono cache miss, non c’è arbitration della memoria, non ci sono sorprese.
È un meccanismo a orologeria.
Questo approccio risolve il problema del “batch size 1”. Le GPU Nvidia brillano quando possono elaborare migliaia di richieste simultaneamente (throughput), ma faticano quando devono rispondere a una singola richiesta istantanea (latenza), come in una conversazione vocale con un’AI o nel trading ad alta frequenza.
Groq ha dimostrato che si può avere una latenza bassissima senza sacrificare l’efficienza, una lezione tecnica che Nvidia, nonostante il suo dominio, non poteva ignorare.
Jensen Huang, con la sua consueta visione pragmatica, ha spiegato la mossa in una nota interna trapelata poche ore fa:
Secondo una nota interna ottenuta dalla CNBC, il CEO di Nvidia Jensen Huang ha spiegato che l’acquisizione espanderà le capacità dell’azienda, pianificando di integrare i processori a bassa latenza di Groq nell’architettura delle AI factory di NVIDIA.
— Jensen Huang, CEO di Nvidia
L’ammissione implicita è che l’architettura Hopper e Blackwell, per quanto potenti, hanno un tallone d’Achille nell’inferenza pura a bassa latenza. Acquisendo la licenza IP di Groq e, soprattutto, gli ingegneri che sanno come scrivere un compilatore capace di orchestrare questo balletto deterministico, Nvidia sta cercando di chiudere l’unica falla nel suo predominio.
Tuttavia, c’è un aspetto oscuro in questa operazione che merita di essere analizzato. Se la tecnologia era così promettente, perché non comprare l’azienda intera?
La risposta risiede in due sigle: FTC e UE.
Scacco matto all’antitrust
In un clima regolatorio in cui le grandi acquisizioni tecnologiche vengono bloccate preventivamente (si pensi al fallimento dell’affare Nvidia-ARM), comprare un concorrente diretto come Groq sarebbe stato un suicidio legale. L’Antitrust avrebbe visto l’operazione come un tentativo di eliminare l’unica alternativa credibile alle GPU per l’inferenza.
La struttura dell’accordo è quindi una mossa difensiva brillante. Pagando per una licenza “non esclusiva” e assumendo il personale chiave, Nvidia ottiene tutto ciò che voleva — la tecnologia e il talento — senza formalmente ridurre il numero di competitor sul mercato.
Groq continua a esistere. GroqCloud continua a funzionare.
Ma senza i suoi architetti visionari, quale futuro reale può avere? È un guscio vuoto mantenuto in vita artificialmente per dimostrare ai regolatori che la concorrenza esiste ancora.
Questa strategia, nota come reverse acqui-hire, sta diventando il modus operandi standard per aggirare i controlli sulle concentrazioni di mercato.
È successo con Microsoft e Inflection AI, e ora si ripete qui, con Nvidia che ha messo sul piatto circa 20 miliardi di dollari in contanti per assicurarsi che nessun altro, specialmente i rivali storici come AMD o Intel, possa mettere le mani su quella specifica competenza architetturale.
Il codice è legge, ma l’hardware è destino
Dal punto di vista dello sviluppatore, questa mossa segnala la fine dell’era romantica delle architetture alternative. Groq rappresentava la speranza che un design pulito, efficiente e slegato dal legacy delle schede grafiche potesse sfidare il gigante verde.
L’integrazione del loro IP nello stack Nvidia (CUDA) significa che probabilmente vedremo futuri acceleratori Nvidia con core deterministici, magari chiamati “Tensor LPU Core”, che offriranno il meglio dei due mondi.
È tecnicamente eccitante pensare a una GPU Nvidia che possa switchare modalità ed eseguire codice in modo deterministico per l’inferenza critica. Eliminerebbe la necessità di hardware eterogeneo nei data center, semplificando enormemente il deployment dei modelli.
Tuttavia, la centralizzazione del know-how tecnico in un’unica entità riduce la biodiversità dell’innovazione.
Se ogni idea brillante finisce per essere una feature di CUDA, smettiamo di esplorare paradigmi alternativi che potrebbero essere superiori.
La rapidità dell’accordo suggerisce che Nvidia sentisse il fiato sul collo.
L’accordo si è concluso rapidamente.
— Alex Davis, CEO di Disruptive (investitore in Groq)
Questa fretta non è casuale. Il mercato dell’inferenza sta per esplodere, superando quello del training in termini di volumi. Se Groq fosse rimasta indipendente e avesse continuato a scalare la produzione, o peggio, se fosse stata acquisita da un hyperscaler come Google o Meta, Nvidia avrebbe perso il controllo sull’endpoint dell’intelligenza artificiale.
Ora la domanda che rimane sul tavolo non è tecnica, ma strutturale.
Con Groq neutralizzata come minaccia indipendente e assimilata come risorsa intellettuale, chi rimane a tenere sotto controllo i prezzi e l’innovazione nell’hardware AI? La perfezione tecnica di un monopolio è spesso indistinguibile dalla stagnazione, e per quanto l’idea di un chip Nvidia a latenza zero sia affascinante, il costo a lungo termine di questa “licenza” potrebbe essere ben più alto dei 20 miliardi versati oggi.
Siamo sicuri che consolidare tutto il genio del silicio sotto un unico tetto sia la strada migliore per il futuro dell’open computing?