Amazon Bedrock ora ricorda le conversazioni
Amazon Bedrock ha introdotto client stateful MCP che mantengono il contesto per sessioni fino a 8 ore, risolvendo il problema delle conversazioni AI stateless.
La nuova modalità stateful permette sessioni interattive che ricordano il contesto per ore
Chiunque abbia lavorato seriamente con un assistente AI conosce bene quella sensazione: stai costruendo qualcosa di complesso, magari un pezzo di codice articolato, e dopo una pausa torni alla conversazione solo per scoprire che il modello ha azzerato tutto. Contesto, preferenze, i passaggi intermedi discussi — spariti. Ricominciare da capo. Ogni volta. Ebbene, oggi Amazon ha annunciato qualcosa che cambia concretamente questa dinamica: secondo l’annuncio ufficiale AWS, Amazon Bedrock AgentCore Runtime introduce funzionalità client MCP stateful che abilitano flussi di lavoro interattivi e multi-turn che con le implementazioni stateless precedenti erano semplicemente impossibili.
La frustrazione dello stateless: un problema quotidiano risolto
Per capire cosa cambia, bisogna prima capire cosa non funzionava. Le sessioni “stateless” sono come parlare con qualcuno che soffre di amnesia totale: ogni volta che apri la bocca, quella persona non ricorda nulla di quello che avete detto un minuto prima. Nel mondo degli agenti AI, questo si traduce in sessioni di lavoro interrotte, contesto perso, e una quantità assurda di tempo spesa a “ricontestualizzare” il modello ogni volta. Non è un problema di intelligenza del modello — è un problema di architettura. Ed è esattamente quello che Amazon ha deciso di affrontare di petto con questo aggiornamento di Bedrock AgentCore Runtime. La soluzione non è un trucco cosmetico: è una riscrittura del modo in cui le sessioni vengono gestite a livello infrastrutturale.
Il motore dietro la scena: come funzionano i client stateful
Pensa a come funziona una conversazione telefonica rispetto a una serie di bigliettini lasciati sul tavolo. I bigliettini (stateless) non sanno nulla l’uno dell’altro. La telefonata (stateful) è un filo continuo: entrambi gli interlocutori ricordano cosa si è detto. Amazon ha scelto la telefonata. Quando si attiva la modalità stateful su Bedrock AgentCore Runtime — tecnicamente, impostando stateless_http=False — il sistema provvede a lanciare una microVM dedicata per ogni singola sessione utente. Questa microVM persiste per tutta la durata della sessione, fino a un massimo di otto ore, oppure si chiude dopo quindici minuti di inattività. CPU, memoria e filesystem sono isolati tra sessioni diverse. È come avere un piccolo computer personale che viene acceso solo per te e rimane attivo finché stai lavorando.
Ma la vera novità non è solo la persistenza del contesto. Sono le tre nuove funzionalità che questa architettura rende possibili. La prima è l’elicitation: il server MCP può richiedere input all’utente mentre è già in esecuzione, a metà di un processo. Prima, un agente doveva fare tutte le domande all’inizio oppure fermarsi. Ora può chiedere chiarimenti in corso d’opera, proprio come farebbe un collaboratore umano. La seconda è il sampling: il server può richiedere contenuti generati da un LLM direttamente dal client, permettendo un tipo di collaborazione tra modelli che prima richiedeva architetture molto più complesse. La terza è la progress notification: aggiornamenti in tempo reale sullo stato dell’esecuzione, trasmessi in streaming mentre l’agente lavora. Niente più attese silenziose davanti a uno schermo vuoto senza sapere se il sistema sta elaborando o si è bloccato.
Il codice per iniziare a sperimentare con queste funzionalità, inclusa la configurazione DynamoDB e il deployment su AgentCore, è già disponibile nel repository GitHub ufficiale di Amazon. Per chi vuole sporcarsi le mani subito, il punto di partenza c’è già tutto.
Un protocollo che unisce: MCP e il panorama futuro
Per apprezzare davvero la portata di quello che Amazon ha fatto, bisogna capire su cosa poggia questa tecnologia. Il Model Context Protocol — MCP — è uno standard aperto che definisce come le applicazioni basate su LLM si connettono a strumenti e fonti dati esterne. Non è una cosa di Amazon: è un protocollo condiviso, progettato per essere adottato da chiunque. La sua architettura si ispira al Language Server Protocol (LSP), quello stesso standard che negli anni ha trasformato radicalmente il modo in cui gli editor di codice supportano decine di linguaggi di programmazione diversi — senza dover riscrivere tutto da zero per ogni combinazione strumento-linguaggio. MCP fa lo stesso per gli LLM: fornisce un modo standardizzato per collegare i modelli con il contesto di cui hanno bisogno, indipendentemente da chi ha costruito il modello o lo strumento.
E l’adozione è già significativa. MCP è oggi supportato da assistenti AI come Claude e ChatGPT, e da strumenti di sviluppo come Visual Studio Code, Cursor e MCPJam. Non stiamo parlando di un esperimento di nicchia: è uno standard che sta rapidamente diventando il modo in cui l’AI si integra con il resto del mondo digitale. Il fatto che Amazon abbia scelto di costruire le sue funzionalità stateful esattamente su questo protocollo, invece di inventare qualcosa di proprietario, è una scelta che vale la pena notare. Significa che i server MCP sviluppati per Bedrock possono potenzialmente dialogare con qualsiasi client compatibile con lo standard, e viceversa.
Con MCP che guadagna adozione su più piattaforme e strumenti, possiamo iniziare a immaginare assistenti AI che non solo rispondono a domande, ma accompagnano processi complessi nel tempo — ricordando dove eravamo, chiedendo quando hanno bisogno di chiarimenti, aggiornandoci in tempo reale. Non è fantascienza: è quello che Amazon ha appena reso possibile, oggi, su Bedrock. La domanda interessante non è se questa direzione è quella giusta — è difficile sostenere il contrario — ma quanto velocemente il resto del settore seguirà, e con quali implicazioni per la gestione dei dati e la privacy degli utenti nelle sessioni persistenti. Perché una sessione che ricorda tutto è utile, ma è anche una sessione che accumula informazioni. E su questo, vale la pena tenere gli occhi aperti.