Amazon ha introdotto una funzionalità per tracciare i costi dell’AI
AWS lancia Bedrock Projects per tracciare i costi dell'AI generativa, rispondendo a un problema crescente. La gestione finanziaria diventa un campo di battaglia tra cloud provider.
La nuova funzionalità arriva dopo anni di richieste e in un mercato cloud sempre più competitivo.
Novantotto per cento. Secondo i dati della FinOps Foundation, questa è la quota di organizzazioni che oggi gestisce attivamente la spesa per l’intelligenza artificiale. Due anni fa era il 31%. Un salto verticale che dice tutto su come il problema sia esploso — e su quanto a lungo sia stato ignorato, o almeno sottovalutato, da chi quegli strumenti avrebbe dovuto fornirli per primo.
Il paradosso del controllo dei costi
La crescita è stata rapidissima, ma gli strumenti no. Le imprese hanno adottato soluzioni di AI generativa a ritmo sostenuto, scoprendo solo in corsa che la complessità delle sfide di cost management AI non stava al passo con l’entusiasmo. I costi dell’AI generativa dipendono da fattori multipli e intrecciati: requisiti computazionali, elaborazione dei dati, addestramento dei modelli, overhead operativo continuo. Ogni voce si somma, spesso in modo opaco. E fino a poco tempo fa, su Amazon Bedrock — uno dei principali servizi cloud per l’AI generativa — non era nemmeno possibile applicare tag ai modelli foundation on-demand per tracciarne i costi. Un’assenza che, come ha ammesso AWS stessa, ha aggiunto complessità alla gestione delle iniziative di AI generativa.
Bedrock Projects: una rivoluzione o una patch?
Amazon ha risposto con la funzionalità Amazon Bedrock Projects, presentata nei giorni scorsi come il modo per creare confini logici attorno a singoli carichi di lavoro — un’applicazione, un ambiente di sviluppo, un esperimento. In pratica, ogni progetto diventa un’unità contabile autonoma: si possono creare fino a mille progetti per account AWS, e le richieste prive di un ID progetto vengono automaticamente associate a un progetto predefinito, così nulla finisce nel limbo delle voci non tracciate.
Sulla carta, è la risposta a un problema reale. Prima del novembre 2024, Amazon Bedrock non aveva alcuna capacità di tagging per i modelli foundation on-demand, e questo rendeva quasi impossibile attribuire i costi con precisione alle singole iniziative. Il problema era noto. I workaround esistevano — sistemi di allerta, rilevamento delle anomalie — ma per AWS stessa questi metodi tradizionali di monitoraggio sono “reattivi per natura”: utili a identificare un’anomalia già avvenuta, non a prevenirla. Bedrock Projects nasce per colmare questo vuoto, anche con l’obiettivo di supportare un approccio più proattivo, basato su un modello di prezzi a token che rende ogni chiamata API una voce di costo discreta e misurabile.
Eppure vale la pena chiedersi: perché ora? Il problema esisteva da anni. La mancanza di tagging era documentata, le lamentele degli utenti enterprise erano pubbliche. La risposta è probabilmente nella pressione competitiva, non nella generosità tecnica. E qui emerge una tensione che Bedrock Projects da sola non risolve: lo strumento esiste, ma la governance finanziaria dell’AI rimane un problema organizzativo prima ancora che tecnologico. Avere mille progetti non significa averli configurati correttamente, né che i team abbiano le competenze FinOps per usarli al meglio. La funzionalità è necessaria, ma non sufficiente.
La corsa agli armamenti dei cloud provider
Il contesto competitivo rende tutto più leggibile. AWS aveva già introdotto gli Application Inference Profiles — uno strumento per attribuire i costi della GenAI per singola applicazione, con tagging integrato a livello di fatturazione — e Bedrock Projects si colloca nella stessa direzione strategica. Il confronto con Azure è impietoso: secondo una analisi cost attribution AI nei principali cloud provider, Azure non ha un equivalente agli Application Inference Profiles di AWS. Per attribuire i costi per caso d’uso o per team, su Azure è necessario creare una risorsa Azure OpenAI separata per ciascuno — un approccio che scala male e introduce frammentazione gestionale.
AWS sta costruendo, pezzo dopo pezzo, un vantaggio strutturale nella gestione finanziaria dell’AI generativa. E lo fa in un momento in cui l’investimento in AI non riguarda più solo il cloud pubblico: i dati della FinOps Foundation indicano una crescita anche in SaaS, data center e cloud privato. Chi controlla gli strumenti di cost management controlla anche la visibilità — e quindi il potere di negoziazione — dei propri clienti. È un vantaggio che va ben oltre la comodità tecnica, e che potrebbe attirare l’attenzione dei regolatori antitrust nel momento in cui questi strumenti diventano di fatto indispensabili per chi gestisce budget AI significativi.
Mentre AWS gioca d’anticipo con Bedrock Projects, la domanda che resta sospesa è se la gestione dei costi diventerà il nuovo campo di battaglia per l’AI generativa — e se Azure, Google Cloud e gli altri risponderanno con mosse altrettanto aggressive o si troveranno a rincorrere. Nel frattempo, gli utenti enterprise si trovano a scegliere non solo tra modelli di linguaggio, ma tra architetture finanziarie. Una scelta che, una volta fatta, è difficile da disfare.