Nvidia e Groq: una mossa a sorpresa nel mondo dell'intelligenza artificiale

Nvidia e Groq: una mossa a sorpresa nel mondo dell’intelligenza artificiale

Nvidia e Groq stringono un accordo che riscrive le regole dell’IA, con l’obiettivo di integrare la velocità di Groq e affrontare la sfida dell’inferenza in tempo reale.

Il regalo di Natale più sorprendente per il mondo della tecnologia è arrivato con ventiquattrore di ritardo, ma il suo impatto risuonerà per tutto il 2026.

Non stiamo parlando dell’ennesimo gadget scintillante sotto l’albero, ma di una stretta di mano che ridefinisce le gerarchie del silicio. Nvidia, il colosso indiscusso dell’hardware per l’intelligenza artificiale, ha trovato un accordo con Groq, la startup ribelle che aveva promesso di detronizzarla sul terreno della velocità.

A prima vista potrebbe sembrare una normale acquisizione, ma leggendo tra le righe si scopre una manovra molto più sofisticata, quasi chirurgica. Non c’è stata una fusione classica, quella che farebbe scattare immediatamente i campanelli d’allarme delle autorità antitrust globali.

Siamo di fronte a qualcosa di diverso: un accordo di licenza non esclusiva e, soprattutto, un massiccio trasferimento di cervelli.

L’aspetto più clamoroso è umano, non tecnico: Jonathan Ross, il fondatore di Groq e l’uomo che aveva sfidato Jensen Huang guardandolo negli occhi, lascia la sua creatura per unirsi proprio a Nvidia.

Se non puoi batterli, unisciti a loro?

Forse.

Ma per capire perché questa notizia è cruciale per chiunque usi un assistente vocale o generi testo con l’AI, dobbiamo fare un passo indietro e guardare sotto il cofano.

Una mossa da scacchisti

Per anni abbiamo assistito a una narrazione “Davide contro Golia”. Da una parte Nvidia, con le sue potenti GPU (Graphics Processing Units), perfette per l’addestramento dei modelli AI — immaginatele come camion giganteschi capaci di trasportare tonnellate di libri in una biblioteca per “insegnare” all’AI.

Dall’altra Groq, con le sue LPU (Language Processing Units), chip progettati non per la forza bruta, ma per la velocità pura nell’eseguire quelle conoscenze.

L’addestramento è la fase di studio; l’inferenza è la fase in cui l’AI risponde alle nostre domande. E nell’inferenza, le GPU di Nvidia mostravano il fianco: erano potenti, ma costose e talvolta “lente” nel generare token (le parole) in tempo reale. Groq aveva risolto questo problema con un’architettura radicalmente diversa, basata sulla memoria SRAM integrata, eliminando i colli di bottiglia.

Il 24 dicembre, lo scenario è cambiato drasticamente.

Groq e Nvidia hanno siglato un accordo di licenza per la tecnologia di inferenza, permettendo al gigante verde di integrare quella velocità fulminea nei suoi sistemi. Nvidia non ha comprato l’azienda; ha comprato il “know-how” e ha assunto le persone chiave che lo hanno creato.

Questa strategia, nota nella Silicon Valley come acqui-hire (acquisizione tramite assunzione), permette a Nvidia di colmare la sua unica vera lacuna tecnologica senza doversi sobbarcare l’intera struttura aziendale di Groq o affrontare mesi di revisione normativa.

Groq, tecnicamente, rimane indipendente. Avrà un nuovo CEO, Simon Edwards, e continuerà a operare il suo servizio GroqCloud. Ma senza il suo fondatore e i suoi ingegneri di punta, la sua natura cambia inevitabilmente.

Jonathan Ross ha commentato così la transizione, sottolineando l’obiettivo di scalare la tecnologia a livello globale:

L’accordo riflette un obiettivo condiviso: espandere l’accesso a un’inferenza ad alte prestazioni e a basso costo.

— Jonathan Ross, Fondatore di Groq

La velocità è il nuovo petrolio

Perché tutto questo dovrebbe interessare all’utente che usa ChatGPT o Claude sul proprio smartphone?

Perché siamo entrati nell’era dell’AI in tempo reale, e la latenza è il nemico numero uno.

Fino a ieri, l’interazione con l’AI era spesso un’esperienza “a turni”: tu scrivi, aspetti quella frazione di secondo (o più), e la macchina risponde. Groq aveva dimostrato che era possibile avere risposte istantanee, fluide come una conversazione umana, visualizzando il testo più velocemente di quanto l’occhio riesca a leggere.

Con l’integrazione della tecnologia LPU di Groq nell’ecosistema Nvidia, questa velocità potrebbe diventare lo standard, non più l’eccezione di una startup di nicchia. Immaginate assistenti vocali che vi interrompono o ridono al momento giusto senza quel fastidioso ritardo “satellitare”, o traduzioni simultanee davvero indistinguibili dalla realtà.

Nvidia ha capito che la battaglia per l’addestramento è vinta (ha quasi il monopolio), ma la guerra si sposterà sull’inferenza. Man mano che i modelli sono già addestrati, la vera spesa per le aziende diventerà farli “girare” per miliardi di utenti.

Qui la tecnologia di Groq, più efficiente e deterministica, è fondamentale. Nvidia non voleva solo battere la concorrenza; voleva assimilarne l’efficienza.

Tuttavia, c’è un rovescio della medaglia. L’accentramento di talenti e brevetti in un unico attore riduce la diversità tecnologica. Se tutti usano l’architettura Nvidia (anche se potenziata da Groq), chi inventerà la prossima alternativa radicale?

Il triangolo delle Bermuda regolatorio

L’operazione solleva interrogativi che vanno oltre la tecnologia. La struttura dell’accordo sembra disegnata su misura per navigare nelle acque grigie della regolamentazione internazionale.

Le autorità antitrust, sia negli Stati Uniti che in Europa, sono diventate sempre più aggressive contro le acquisizioni “predatorie” dove le Big Tech comprano le startup nascenti per spegnere la concorrenza futura.

Scegliendo la via della licenza e dell’assunzione del team, Nvidia ottiene il risultato pratico di un’acquisizione neutralizzando un concorrente pericoloso, ma tecnicamente lascia Groq in vita come entità legale.

È una mossa geniale o un aggiramento delle regole?

Gli analisti del settore stanno già suonando l’allarme.

L’operazione potrebbe diventare un caso di studio per le future “acquisizioni killer” che evitano le revisioni tradizionali, creando un precedente pericoloso in un mercato già incredibilmente concentrato. Se le aziende possono svuotare i concorrenti assumendone il personale chiave e licenziandone la proprietà intellettuale, il concetto stesso di “fusione” diventa obsoleto.

Groq sopravvive, certo. Il suo cloud continuerà a funzionare, garantendo ai clienti attuali continuità. Ma senza la sua mente visionaria e il team che ha costruito il chip da zero, potrà ancora innovare o diventerà una “zombie company” che gestisce il passato mentre Nvidia costruisce il futuro?

Siamo di fronte a un bivio affascinante e inquietante.

Da un lato, l’utente finale vincerà: l’AI diventerà più veloce, più economica e più onnipresente grazie alla potenza di fuoco di Nvidia applicata all’ingegno di Groq. Dall’altro, l’ecosistema perde un attore indipendente che aveva il coraggio di pensare diversamente.

L’innovazione tecnologica ha bisogno di giganti che scalano le soluzioni, ma anche di ribelli che le inventano.

Se i giganti assorbono sistematicamente i ribelli non appena diventano minacciosi, chi rimarrà a sfidare lo status quo tra cinque anni?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie