WebMCP: Chrome affida ai siti il controllo sull’interazione degli agenti AI.
Il protocollo, co-sviluppato con Microsoft, mira a standardizzare l’interazione degli agenti AI con i siti, ma solleva interrogativi su controllo e potenziali rischi.
Il web come lo conosciamo è stato progettato per gli occhi umani e le dita umane.
Ma cosa succede quando il principale “utente” di un sito non è più una persona, ma un agente di intelligenza artificiale che deve prenotare un volo, compilare un modulo o analizzare dati?
La risposta di Google Chrome, annunciata ieri, si chiama WebMCP (Web Model Context Protocol), uno standard che promette di rivoluzionare – o forse solo di controllare – il modo in cui gli agenti AI interagiscono con i siti web.
Presentato come un semplice upgrade tecnico per “maggiore efficienza e precisione”, WebMCP è in realtà una mossa strategica per definire le regole del gioco nell’era dell’AI agentica.
E, come spesso accade quando un gigante del web stabilisce uno standard, le motivazioni vanno ben oltre la pura ingegneria.
In sostanza, WebMCP permette ai siti web di pubblicare un “contratto di strumenti” strutturato, una sorta di menu di azioni che gli agenti AI possono compiere direttamente, saltando a piè pari l’interfaccia utente grafica.
Immaginate di dare a un assistente digitale la chiave per entrare dalla porta di servizio del vostro sito, con istruzioni precise su cosa può toccare.
Il team di Chrome parla di fornire un modo standard per esporre strumenti strutturati, garantendo che gli agenti possano eseguire azioni con maggiore velocità e affidabilità.
Niente più “screen-scraping” incerto, dove l’AI cerca di interpretare una pagina come farebbe un umano, cliccando bottoni e riempiendo campi in modo simulato.
Con WebMCP, il sito stesso dice all’agente: “Ecco le funzioni che puoi chiamare, e come farlo”.
L’efficienza promessa è notevole: secondo i documenti tecnici, WebMCP riduce il sovraccarico computativo in media di circa il 65% e, negli scenari di e-commerce, mostra una riduzione dell’utilizzo di token del 78,6% rispetto al parsing tradizionale dell’HTML.
Una corsa agli standard o una chiusura in giardino?
Ma perché Google, insieme a Microsoft che appare come co-sviluppatrice, sta spingendo così tanto su questo standard proprio ora?
Il contesto è una corsa frenetica verso gli “agentic AI”, assistenti che non si limitano a rispondere ma agiscono autonomamente nel mondo digitale.
Senza uno standard, ogni agente (quello di OpenAI, quello di Anthropic, i vari assistenti dei browser) dovrebbe inventarsi il suo modo per interagire con i siti, creando un caos inefficace e potenzialmente insicuro.
WebMCP si propone come il “USB-C del campo delle applicazioni AI”, un connettore universale.
Tuttavia, quando il “connettore” è controllato dai principali attori che gestiscono anche il browser dominante (Chrome) e alcuni dei modelli AI più diffusi, sorge un legittimo sospetto: si tratta di aprire il web agli agenti, o di assicurarsi che questi agenti funzionino meglio all’interno dell’ecosistema di chi lo standard lo definisce?
La narrazione ufficiale è tutta incentrata sulla collaborazione e sul beneficio per gli sviluppatori.
André Cipriani Bandarra di Google ha descritto l’obiettivo come la creazione di un “modello collaborativo in cui l’utente, la pagina web e l’agente condividono l’interfaccia”.
Un quadro idilliaco.
Ma questa “condivisione” richiede che i siti web aderiscano allo standard proposto da Chrome, implementando due nuove API: una Dichiarativa per azioni semplici (come inviare un modulo HTML) e una Imperativa per interazioni complesse che richiedono l’esecuzione di JavaScript.
In cambio, ottengono agenti che interagiscono in modo più fluido e sicuro.
La posta in gioco per Google è altissima: se WebMCP diventasse lo standard de facto, Chrome si consoliderebbe non solo come il gateway per gli umani nel web, ma anche come la piattaforma privilegiata attraverso cui gli agenti AI navigano e operano.
Un controllo infrastrutturale di valore inestimabile.
L’obiettivo di WebMCP è stabilire un modello collaborativo in cui l’utente, la pagina web e l’agente condividono l’interfaccia e collaborano insieme.
— André Cipriani Bandarra, Google Chrome Team
L’ombra lunga della sicurezza e del controllo
Ed è proprio sulla sicurezza che Google fa leva per promuovere WebMCP, presentandolo come un’alternativa più sicura al caos dello screen-scraping.
I documenti tecnici sottolineano che il protocollo è progettato con meccanismi di sicurezza integrati come token CSRF a livello di elemento, crittografia del payload JWE e difese dalle injection di prompt.
In teoria, questo darebbe ai sviluppatori più controllo, permettendo di definire esattamente cosa un agente può fare, convalidare gli input e tenere traccia dei log.
Ma questa “sicurezza per progettazione” nasconde una domanda più spinosa: sicurezza per chi, e da cosa?
Permettere ad agenti AI semi-autonomi di accedere direttamente alle funzioni backend di un sito, anche se tramite un’API strutturata, espone a rischi nuovi e sofisticati.
L’ipotetico “Indirect Prompt Injection”, in cui un agente viene ingannato da istruzioni malevole nascoste in una pagina web, potrebbe diventare più pericoloso se l’agente ha accesso diretto a strumenti potenti.
Inoltre, WebMCP centralizza il punto di accesso.
Se un attaccante riuscisse a compromettere il protocollo stesso o a “avvelenare” gli strumenti esposti da un sito, potrebbe potenzialmente dirottare migliaia di agenti che vi fanno affidamento.
La sicurezza migliora forse contro gli errori goffi degli agenti, ma il potenziale payoff per un attacco mirato aumenta esponenzialmente.
È il classico trade-off tra efficienza e superficie d’attacco.
C’è poi il lato privacy, spesso il parente povero in questi discorsi tecnici.
WebMCP permetterebbe agli agenti di compiere azioni complesse in secondo piano, magari mentre l’utente fa altro.
Ma come viene tracciato e registrato questo flusso di interazioni “macchina-a-macchina”?
Chi ha accesso ai log che dettagliano cosa l’agente ha fatto, quali dati ha toccato e quando?
Il GDPR e le normative simili si basano sul concetto di trattamento dei dati personali.
Quando il soggetto che agisce è un agente AI che opera su mandato dell’utente, le linee diventano sfumate.
La trasparenza su queste operazioni sarà cruciale, ma nulla nella documentazione attuale di WebMCP suggerisce che questo aspetto sia in primo piano.
Il futuro è già in fase di test (in Chrome)
Google non sta perdendo tempo.
WebMCP è già disponibile in una preview riservata e può essere sperimentato nella versione 146 di Chrome attivando appositi flag.
Il processo di standardizzazione è avviato, con un documento esplicativo e un’API già disponibili e un meccanismo collaudato per i test: per contribuire ai cambiamenti nei web-platform-tests, basta fare commit direttamente in web_tests/external/wpt, e le modifiche verranno propagate upstream entro 24 ore.
Questo ritmo serrato ricorda il rollout di standard precedenti guidati da Chrome, come WebRTC e WebAssembly, che hanno effettivamente rimodellato il panorama dello sviluppo web.
La lezione è chiara: chi definisce lo standard e lo implementa per primo nel browser più diffuso, guida il mercato.
Alla fine, WebMCP solleva una questione fondamentale sul futuro del web: vogliamo un internet in cui le interazioni sono mediate da strumenti strutturati definiti dai proprietari dei siti e canalizzate attraverso protocolli controllati dai grandi player, in nome dell’efficienza e della sicurezza?
O preferiamo una strada più aperta, forse più disordinata, che preservi maggiormente la possibilità di approcci concorrenti e decentralizzati?
La promessa di un web dove gli agenti ci liberano dalle incombenze noiose è seducente.
Ma come sempre, quando qualcuno ci offre una scorciatoia, è saggio chiedersi dove conduce quella strada, e chi ha costruito il casello.