L’88% dei dipendenti usa l’IA, ma il vero potere è altrove
Le aziende tech combattono per il controllo dell'AI: OpenAI punta sul cloud, mentre Google e NVIDIA spingono modelli offline come Gemma 4 per l'edge computing.
La corsa per il controllo dell’inferenza si sposta sui dispositivi personali, ridefinendo privacy e modelli di business.
L’88% dei dipendenti utilizza l’intelligenza artificiale sul lavoro, eppure il vero potere non sta nel semplice utilizzo, ma nel luogo fisico in cui i calcoli avvengono. Il paradosso dell’uso dell’IA sul lavoro è che mentre i dipendenti si sentono più produttivi, le aziende tech stanno combattendo una guerra silenziosa per decidere chi controllerà la prossima frontiera: il tuo dispositivo.
Da una parte, OpenAI aggiusta i prezzi del cloud, cercando di rendere il flusso di token più fluido e prevedibile per i suoi 9 milioni di utenti business paganti. L’offerta è chiara: Codex offre prezzi pay-as-you-go per i team, con posti Codex-only senza limiti di rate e un modello di fatturazione basata sul consumo di token. È un chiaro tentativo di normalizzare e rendere indispensabile l’accesso remoto ai suoi modelli più potenti.
Ma perché Google e NVIDIA stanno spingendo così forte l’AI offline?
La risposta è in modelli come Gemma 4: i modelli open più capaci. Google li presenta come efficienti e privati, ottimizzati per funzionare su “miliardi di dispositivi Android” e laptop. Non è filantropia. È una colonizzazione strategica del bordo. I modelli edge con input audio nativo e finestra contestuale da 128K sono progettati per una ragione precisa: massima efficienza di calcolo e memoria. Il vero obiettivo è scollegarti dal cloud.
La mossa è resa possibile da NVIDIA, che ha tutto l’interesse a vendere hardware per l’inferenza locale. Gemma 4 accelerata per AI agentiva con RTX non è un caso. Il colosso dei chip ha ottimizzato il modello per la sua piattaforma, collaborando con Ollama per il deployment locale e introducendo lo stack open source NemoClaw. Ma non si ferma a Google: ha ottimizzato anche altri modelli per agenti locali. Il piano è rendere ogni scheda grafica un centro dati in miniatura.
Il cloud diventa un’opzione, non più il default.
Persino Google, con la sua immensa infrastruttura cloud, ammette implicitamente questo spostamento. L’azienda ha creato Flex Inference per carichi tolleranti alla latenza, un’interfaccia sincrona presentata come alternativa low-cost. Perché offrire un’opzione più lenta se non per competere con la promessa di immediatezza dell’AI locale? Flex Inference nell’API Gemini è il segnale che il monopolio del server sta vacillando.
Chi ci guadagna in questa transizione? Certamente NVIDIA, che vende l’hardware. E Google, che attraverso Android potrebbe diventare il sistema operativo dominante per l’AI embedded, catturando dati e comportamenti utente in modi nuovi. Ma il modello di business basato sul raffinare modelli con i dati degli utenti cloud rischia di sgretolarsi. Se i dati non escono mai dal telefono, cosa rimane da vendere?
Il conflitto normativo è già dietro l’angolo.
Il GDPR e le norme sulla privacy diventano, forse loro malgrado, alleati della strategia del bordo. Un modello che funziona completamente offline su dispositivi edge è un argomento di marketing potentissimo. Ma sposta solo il problema del controllo. Non è più solo una questione di chi detiene i server, ma di chi controlla il codice e l’hardware nel dispositivo dell’utente finale. È un controllo più pervasivo e più difficile da regolamentare.
Le agenzie antitrust dovranno iniziare a guardare non solo alle fusioni tra colossi cloud, ma alle partnership strategiche che creano ecosistemi chiusi di hardware e software per l’AI locale. Quando gli sviluppatori Android prototipano flussi agentici in AICore, stanno costruendo su una piattaforma controllata da Google. La promessa di apertura dei modelli “open” si scontra con la realtà di un stack tecnologico sempre più integrato e proprietario.
La domanda finale non è tecnica, ma di potere. Se il valore si sposta dall’infrastruttura cloud ai dati e all’esperienza locale, siamo sicuri che questo porterà a un futuro più decentralizzato e privato? O assisteremo semplicemente al trasferimento del monopolio, dalle farm di server alle nostre tasche, con player ancor più difficili da contrastare perché letteralmente a contatto con la nostra pelle?