Anthropic ha ridotto il consumo di token dei suoi agenti AI

Anthropic ha ridotto il consumo di token dei suoi agenti AI

Anthropic ha lanciato tre funzionalità avanzate per agenti AI che riducono significativamente il consumo di token, migliorando l'efficienza nell'uso di strumenti come Excel e la precisione operativa.

Le tre nuove funzionalità riducono il consumo di token fino all’85% e aumentano la precisione degli agenti.

Immaginate di essere un analista finanziario, aprile 2026, e di dover far analizzare a Claude un foglio Excel con diecimila righe di dati. Il modello inizia a lavorare, poi rallenta, poi si inceppa: la finestra di contesto si riempie e il lavoro si blocca a metà. Frustrante, vero? Ebbene, le funzionalità avanzate di Anthropic per gli agenti AI appena annunciate risolvono esattamente questo problema — e lo fanno con numeri che è difficile ignorare.

Un caso reale: Claude per Excel

Claude for Excel è uno degli esempi concreti che Anthropic usa per spiegare il salto in avanti. Fino a poco fa, chiedere al modello di leggere e modificare migliaia di righe in un foglio di calcolo significava rischiare di saturare la cosiddetta “finestra di contesto” — quella porzione di memoria attiva che il modello può tenere sott’occhio mentre lavora. È un po’ come cercare di leggere un romanzo tenendo tutto il testo aperto davanti agli occhi contemporaneamente: a un certo punto non ci stai più. Ora, grazie al Programmatic Tool Calling, Claude riesce a leggere e modificare fogli con migliaia di righe senza sovraccaricare il proprio spazio di lavoro. Non legge tutto in una volta — interagisce con il foglio tramite codice, come farebbe un programmatore esperto, prendendo solo ciò di cui ha bisogno in ogni momento.

Il risultato pratico è semplice: flussi di lavoro che prima si inceppavano ora girano lisci. Ma come funzionano esattamente questi miglioramenti, e quanto contano davvero i numeri dietro?

I numeri che contano: efficienza e precisione

Per capire il salto in avanti, basta guardare ai dati che Anthropic ha reso pubblici. Le tre nuove funzionalità si chiamano Tool Search Tool, Programmatic Tool Calling e Tool Use Examples, e ognuna attacca un problema diverso del modo in cui un agente AI usa gli strumenti esterni.

Il Tool Search Tool affronta il problema della scelta degli strumenti: se un agente ha accesso a migliaia di funzionalità diverse, caricarle tutte nella finestra di contesto è un disastro. Il nuovo approccio permette a Claude di cercare solo lo strumento giusto al momento giusto, invece di portarsi dietro l’intero catalogo. Il risparmio è notevole: il Tool Search Tool preserva 191.300 token di contesto disponibili, contro i 122.800 dell’approccio tradizionale. In termini percentuali, si tratta di un’riduzione dell’85% nell’uso dei token mantenendo però l’accesso all’intera libreria di strumenti. È come avere un magazzino enorme ma con un magazziniere efficientissimo che ti porta solo ciò che hai chiesto.

Il Programmatic Tool Calling, invece, cambia il modo in cui Claude invoca gli strumenti: invece di descrivere a parole cosa vuole fare, scrive del codice in un ambiente di esecuzione, e questo codice fa il lavoro al suo posto. Il vantaggio? Meno testo che occupa spazio nella finestra di contesto. I dati interni di Anthropic parlano chiaro: su compiti di ricerca complessi, il consumo medio di token è sceso da 43.588 a 27.297 — una riduzione del 37%. Non è un risparmio trascurabile quando si lavora su attività lunghe e articolate.

Infine, i Tool Use Examples introducono uno standard condiviso per mostrare al modello come usare correttamente uno strumento, con esempi pratici allegati alla definizione dello strumento stesso. L’effetto sull’accuratezza è marcato: nei test interni, questa funzionalità ha migliorato la precisione nella gestione di parametri complessi dal 72% al 90%. Quasi un errore su cinque eliminato, solo aggiungendo esempi ben strutturati. Le tre funzionalità sono disponibili in beta e si attivano aggiungendo un apposito header alle chiamate API.

Il contesto più ampio: standardizzazione e competizione

Oltre ai singoli strumenti, vale la pena guardare il quadro generale. Già nel novembre 2024, Anthropic aveva lanciato il Model Context Protocol (MCP), un protocollo aperto per collegare agenti AI a strumenti e dati esterni. Da allora, secondo la documentazione tecnica di Anthropic sull’esecuzione di codice con MCP, l’industria ha adottato MCP come standard de-facto del settore. Non è una cosa da poco: significa che oggi MCP è supportato da una vasta gamma di client e server, inclusi assistenti AI come Claude e ChatGPT, e strumenti di sviluppo come Visual Studio Code e Cursor. Anthropic ha sostanzialmente scritto le regole del gioco, e gli altri le stanno seguendo.

Questo non è un caso. Come emerge anche dalla ricerca di Anthropic sugli agenti AI efficaci, le implementazioni che funzionano davvero non sono quelle costruite con framework complessi e librerie specializzate, ma quelle basate su pattern semplici e componibili. È una filosofia che si riflette nelle nuove funzionalità: non magia nera, ma strumenti concreti che risolvono problemi precisi.

Le innovazioni di Anthropic non sono solo un upgrade tecnico da segnare in un changelog. Sono un passo verso agenti AI più accessibili e capaci di integrarsi davvero nel lavoro quotidiano — da Excel alla ricerca complessa, passando per qualsiasi flusso che oggi si inceppa sui limiti del contesto. Per chiunque lavori con l’AI ogni giorno, o stia valutando di farlo, questi sviluppi meritano attenzione. Il prossimo mese potrebbe portare ulteriori novità, e il ritmo sembra destinato ad accelerare.

🍪 Impostazioni Cookie