Microsoft ha alzato la posta sul traffico agentico
Microsoft annuncia che il traffico agentico è cresciuto dell'8.000% e introduce Universal Commerce Protocol per il commercio automatizzato.
Il grounding di Bing alimenta la maggior parte degli assistenti AI, creando un nuovo intermediario per il commercio automatizzato
I numeri fanno un certo effetto. Secondo l’annuncio di Microsoft Advertising pubblicato due giorni fa, il traffico automatizzato cresce otto volte più velocemente di quello umano. Nel 2025 le sessioni guidate dall’intelligenza artificiale sono quasi triplicate. Il traffico proveniente dai browser agentici — software che navigano, cercano e acquistano per conto di un utente — è aumentato di circa l’8.000% anno su anno. La crescita non è lineare: è un’impennata verticale. E il dettaglio che cambia il senso di tutto questo non è la dimensione del fenomeno in sé, è dove passa questo traffico: quasi interamente attraverso l’infrastruttura di grounding di Microsoft, che alimenta la maggior parte degli assistenti AI sul mercato. A febbraio 2026 Microsoft aveva già lanciato AI Visibility in Microsoft Clarity per clienti selezionati. Ora, con il proprio Universal Commerce Protocol, ha alzato esplicitamente la posta.
Sotto il cofano: grounding, protocolli e chi controlla il routing
Per capire perché questo annuncio conta, bisogna capire cos’è il grounding. In termini tecnici, il grounding è il processo con cui un modello linguistico ancora le proprie risposte a dati freschi e verificabili recuperati in tempo reale — tipicamente tramite una ricerca web — invece di affidarsi esclusivamente ai pesi appresi durante il training. Senza grounding, un assistente AI risponde con quello che sa fino alla data di cutoff. Con il grounding, risponde con quello che trova adesso.
È la differenza tra un commesso che non aggiorna il listino prezzi e uno che lo controlla in diretta.
Stando a quanto dichiarato nel post di Bing sul grounding pubblicato a febbraio 2026, l’infrastruttura di Microsoft alimenta quasi tutti i principali assistenti AI presenti sul mercato. Questo significa che quando un agente AI — che sia integrato in un’app di terze parti, in un assistente vocale o in un browser autonomo — cerca informazioni su un prodotto, confronta prezzi o decide se completare un acquisto, molto spesso passa per Bing. È un chokepoint architetturale che nessun’altra azienda controlla in misura paragonabile.
Qui entra in gioco il confronto con Google. Google aveva già lanciato il proprio Universal Commerce Protocol a gennaio 2026, anticipando Microsoft di circa tre mesi. Microsoft ha annunciato il suo Universal Commerce Protocol — integrato in Microsoft Merchant Center — ad aprile 2026. L’idea alla base di entrambi è analoga: definire un layer standardizzato attraverso cui gli agenti AI possono interrogare cataloghi di prodotti, verificare disponibilità, accedere a prezzi aggiornati e completare transazioni. Un po’ come HTTP ha standardizzato il trasferimento di documenti sul web, questi protocolli vogliono standardizzare il commercio machine-to-machine. La differenza sostanziale è che Microsoft arriva con il vantaggio del grounding già distribuito: i merchant che entrano nel protocollo di Bing non ottengono solo visibilità su Copilot, ma potenzialmente su tutti i sistemi che usano Bing come layer di recupero dati. Google ha il vantaggio del volume di ricerca tradizionale, ma il grounding distribuito su assistenti di terze parti è terreno dove Microsoft ha già una posizione consolidata. A febbraio 2026, sempre Bing aveva introdotto AI Performance in Bing Webmaster Tools, una funzionalità che mostra agli editori come i loro contenuti appaiono in Copilot, nei riassunti generati dall’AI di Bing e nelle integrazioni con partner selezionati. È uno strumento di osservabilità: permette ai publisher di capire se sono visibili agli agenti, non solo agli utenti umani.
Mentre Microsoft costruisce ponti, Amazon sta erigendo muri. Stando a un articolo di CNBC sul dilemma di Amazon, a fine dicembre 2025 Amazon aveva già bloccato 47 bot di intelligenza artificiale dal proprio sito, inclusi quelli delle principali aziende AI. A novembre 2025 aveva anche citato in giudizio Perplexity per un agente integrato nel browser Comet, capace di effettuare acquisti per conto dell’utente direttamente sulle pagine di Amazon. La logica difensiva di Amazon è comprensibile: chi controlla il front-end della transazione controlla la relazione con il cliente, i dati e il margine. Ma è anche una scommessa rischiosa: se il commercio agentico cresce ai ritmi indicati, bloccare i bot significa tagliare fuori una quota crescente di domanda automatizzata. McKinsey stima che il commercio agentico — un modello in cui gli agenti AI fanno acquisti, negoziano e completano transazioni per conto degli utenti — potrebbe generare fino a un trilione di dollari di ricavi al dettaglio orchestrati negli Stati Uniti entro il 2030, e tra i tre e i cinque trilioni a livello globale, secondo le previsioni di Digital Commerce 360.
Cosa cambia per chi vende e per chi costruisce
I dati operativi sono già disponibili. I merchant su Shopify che hanno ottimizzato per Copilot nell’ambito del programma AI Visibility di Microsoft Clarity hanno ottenuto una crescita quasi del 90% nella quota di impressioni all’interno di Copilot. Non è un dato teorico: è una misurazione di visibilità in un canale che già oggi intercetta traffico di acquisto automatizzato. Tradotto in termini pratici, ottimizzare per gli agenti non significa più solo scrivere buoni meta tag o costruire backlink: significa strutturare il catalogo prodotti in modo che sia leggibile da un sistema automatico, assicurarsi che i dati di disponibilità e prezzo siano freschi e accessibili via API o feed strutturati, e rientrare nell’indice del grounding di Bing con la giusta granularità semantica.
Per chi costruisce software e-commerce, la domanda concreta è: la tua integrazione espone dati in un formato che un agente AI può consumare senza frizione? Un catalogo prodotti non ottimizzato per il recupero automatico è, nella nuova architettura del commercio, come un sito senza sitemap era nell’era del SEO classico — teoricamente raggiungibile, ma sistematicamente ignorato. Il campo di battaglia non è più la pagina prodotto, è il protocollo. E la finestra per posizionarsi bene nell’indice dei nuovi intermediari — Bing, Copilot, e i sistemi che li usano come layer di grounding — si sta restringendo man mano che altri merchant ci entrano prima.
Il traffico agentico non è un futuro da pianificare: è già qui, e cresce a una velocità che il traffico umano non potrà mai eguagliare. Il SEO tradizionale ottimizzava per i crawler di Google; il commerce agentico ottimizza per agenti che decidono, confrontano e acquistano in autonomia. Chi non si struttura per essere visibile a questi sistemi non sparirà dalla sera alla mattina, ma vedrà la propria quota di traffico qualificato erodere progressivamente. La domanda non è se adattarsi, ma quanto si è già in ritardo.