Google ha reso libero il suo modello AI più avanzato
Google ha rilasciato il modello AI Gemma 4 con licenza Apache 2.0, mentre introduce i nuovi livelli Flex e Priority della Gemini API per monetizzare l'inferenza scalabile.
La licenza Apache 2.0 è libera, ma l’esecuzione su larga scala rimane legata ai servizi cloud a pagamento.
Il 2 aprile 2026, Google ha compiuto una mossa doppia: ha reso disponibile Google ha regalato il suo modello AI più avanzato sotto la permissiva licenza Apache 2.0, mentre contemporaneamente introduceva i nuovi livelli Flex e Priority della Gemini API. Il messaggio è chiaro: il codice è libero, ma l’inferenza scalabile ed economica passa per i suoi servizi.
Il modello “open core” applicato alle grandi AI
Gemma 4 è tecnicamente open source, costruito sulla stessa ricerca di Gemini 3, come sottolinea Gemma 4: i modelli open più capaci di sempre. Tuttavia, l’offerta commerciale si sposta sulle API. Il livello Flex, presentato come il nuovo livello ottimizzato per i costi della Gemini API, promette risparmi fino al 50% rispetto al piano Standard. Questo meccanismo ricorda da vicino la strategia di monetizzazione di OpenAI, che con Codex ha un modello di fatturazione basata sul consumo di token e offre prezzi pay-as-you-go per i team. L’obiettivo è catturare un mercato business dove l’88% dei dipendenti utilizza l’intelligenza artificiale.
Apache 2.0 e il vincolo dell’infrastruttura
La licenza Apache 2.0 garantisce libertà di uso, modifica e distribuzione. Nella pratica, eseguire localmente modelli delle dimensioni di Gemma 4 richiede cluster di GPU, orchestrazione sofisticata e manutenzione continua. Per la maggior parte delle aziende, il trade-off tra capex e opex si risolve a favore del servizio gestito. Google lo sa, e mentre presenta Gemma 4 come i modelli open più capaci, incentiva l’adozione delle sue API con piani come Flex. È la stessa logica che ha permesso a OpenAI di accumulare 9 milioni di utenti business paganti e di offrire posti Codex-only senza limiti di rate.
L’architettura diventa dipendente dal fornitore
La scelta architetturale per uno sviluppatore si riduce a un calcolo: integrare le API di Google o ospitare in autonomia il modello open source. La prima via garantisce bassa latenza, scalabilità automatica e costi variabili, ma lega l’intero stack applicativo a un’unica piattaforma cloud. La seconda richiede competenze di MLops, investimenti in hardware e sopporta il rischio dell’obsolescenza. La mossa di Google, nel dettaglio, sposta il punto di controllo: il layer di inferenza diventa un servizio a consumo, mentre il modello open funge da richiamo e da strumento per la comunità di ricerca.
Il vero lock-in non è nel codice, ma nel flusso di lavoro e nell’ottimizzazione dei costi. Chi costruisce oggi su Gemma 4 via API difficilmente domani potrà migrare senza riscrivere la logica di gestione delle richieste e degli accordi di servizio.
La trasparenza tecnica del codice aperto rimane un valore, ma la leva commerciale si è spostata sull’infrastruttura.
È lì che si gioca la partita, come evidenzia l’analisi sulla guerra AI-cloud e il controllo dei dispositivi. Per gli sviluppatori, la domanda non è più solo “quale modello usare”, ma “dove risiede la sovranità della mia architettura”.