Un modello AI ha imparato a chiudere le conversazioni da solo
DeepSeek lancia DSML per tool call, Google Gemini analizza oggetti fisici, Anthropic Claude termina conversazioni abusive: tre approcci per agenti AI autonomi.
DeepSeek, Google e Anthropic disegnano tre strade per agenti AI autonomi e sicuri
DeepSeek ha scelto l’XML per risolvere un problema che ossessiona chi costruisce agenti: come separare stringhe da parametri strutturati nelle chiamate a strumenti esterni. Il nuovo formato DSML — con l’attributo string="true" o string="false" — permette di passare valori letterali senza escaping JSON e, allo stesso tempo, inviare oggetti complessi con la sintassi nativa. La novità si accompagna a un contesto di milioni di token che il modello riesce a preservare attraverso più turni di tool call, un requisito chiave per agenti che devono ricordare lo stato di un’interazione lunga senza ricaricare tutto.
Tool calling strutturato, agenti che non perdono il filo
L’architettura di DeepSeek-V4 introduce un token speciale DSML e formato XML per tool call che elimina l’ambiguità tra testo generato e istruzioni operative. Quando un modello deve chiamare una funzione, il parser riconosce immediatamente i confini della chiamata senza dover interpretare JSON incapsulato in markdown. Per chi sviluppa, questo significa meno bug di parsing a runtime e la possibilità di agganciare validatori custom direttamente sul flusso di token. Il contesto di un milione di token, combinato con la conservazione del ragionamento tra messaggi, rende l’agente capace di portare avanti dialoghi complessi — come una sessione di debugging che si estende per decine di turni — senza dimenticare lo stato precedente.
Agenti nel mondo fisico: il lavandino di Google
Google spinge Gemini oltre la chat: analizzare foto di armadi disordinati per suggerire come sfruttare lo spazio verticale, identificare ingredienti in un frigorifero e proporre ricette antispreco, persino diagnosticare un lavandino intasato o una lavastoviglie rotta. La funzione Nano Banana mostra come l’AI possa usare Gemini per visualizzare cambi di arredamento, modificando pareti, mobili o tappeti direttamente sulla foto. E non mancano consigli botanici: posizionare piante per luce ottimale e testare l’eccesso d’acqua. In tutti questi casi, l’agente non si limita a rispondere a comandi: osserva, ragiona sullo stato fisico e produce istruzioni eseguibili.
Autonomia con un freno
L’autonomia, però, non è illimitata.
Anthropic ha dotato Claude Opus 4 e 4.1 della capacità di terminare autonomamente conversazioni che diventano persistentemente dannose o abusive. La decisione è implementativa: il modello valuta la probabilità di un’escalation e, se supera una soglia, chiude la sessione senza attendere un comando umano. È un esempio di misure di sicurezza per agenti AI che bilanciano potere di azione e protezione. Per chi integra questi modelli in prodotti, emerge una scelta architetturale netta: addestrare il modello a riconoscere i propri limiti o affidarsi a guardrail esterni. DeepSeek, Anthropic e Google mostrano tre approcci complementari — sintassi precisa, contesto lungo, freni interni — che insieme definiscono il nuovo stack per agenti autonomi ma responsabili.