Ahrefs: query anonime GSC aumentano post-AI Mode, Stox indaga.

Ahrefs: query anonime GSC aumentano post-AI Mode, Stox indaga.

Patrick Stox (Ahrefs) rivela che Google nasconde quasi metà del traffico organico come 'query anonimizzate', con implicazioni per la trasparenza e l'AI.

L’analisi aggiornata di Ahrefs rivela che quasi la metà del traffico organico proviene da query che Google non condivide, una tendenza che l’introduzione dell’intelligenza artificiale nella ricerca rischia di aggravare, rendendo la gestione dei siti web sempre più difficile.

Patrick Stox, il CTO della società di strumenti SEO Ahrefs, ha appena aggiornato uno studio che getta una luce inquietante su quanto Google ci nasconde. L’analisi, pubblicata l’11 febbraio 2026 ma basata su dati di aprile 2025, rivela che quasi la metà del traffico che arriva ai siti web attraverso la ricerca è classificata come proveniente da query anonimizzate.

In altre parole, per i gestori di siti che scrutano i dati di Google Search Console (GSC), il pannello di controllo offerto dal gigante di Mountain View, quasi una visita su due è un fantasma: si sa che c’è, ma non si sa cosa l’abbia generata.

Stox, però, sospetta che questo sia solo l’antipasto.

In un post sui social, ha fatto intendere che la situazione dopo l’introduzione massiccia della modalità AI di Google potrebbe essere drasticamente peggiorata, e promette un nuovo studio a breve.

Una promessa che suona più come un avvertimento per un intero settore, quello del marketing digitale, che fonda le sue strategie su dati che stanno diventando sempre più opachi.

La domanda sorge spontanea: perché Google nasconde così tante informazioni?

La spiegazione ufficiale ruota attorno alla privacy. L’azienda afferma che le query anonimizzate sono quelle che non vengono effettuate da più di “qualche decina” di utenti in un periodo di due-tre mesi. Per proteggere questi utenti, le query stesse vengono omesse dai report dettagliati, anche se il loro contributo in termini di clic e impression viene conteggiato nei totali generali.

Un meccanismo che, sulla carta, sembra ragionevole.

Ma quando una ricerca indipendente come quella di Ahrefs – che ha analizzato 22 miliardi di clic su 887.534 proprietà monitorate da GSC – scopre che questa porzione “minima” ammonta in realtà al 46,77% del traffico totale, le premesse iniziano a traballare.

È verosimile che quasi la metà di tutte le ricerche che portano traffico a un sito web siano così rare e identificabili da richiedere un oscuramento?

O c’è dell’altro?

Anonymized queries are those that aren’t issued by more than a few dozen users over a two-to-three month period

— Google, in un post per sviluppatori del 2022

Il black box del SEO e il conflitto di interessi di Google

Qui il discorso si fa spinoso e tocca il cuore di un conflitto di interessi strutturale. Google Search Console è presentato come un servizio gratuito e indispensabile per i webmaster, uno strumento di trasparenza che mostra come il motore di ricerca interagisce con un sito. Tuttavia, è anche lo strumento attraverso il quale Google decide quali dati condividere sulla sua stessa piattaforma, che è anche il suo principale prodotto commerciale.

L’anonimizzazione non è solo una questione di privacy; è un potente filtro che modella la percezione della realtà digitale.

Se un’azienda non riesce a vedere da quali ricerche proviene il 47% del suo traffico organico, come può ottimizzare i contenuti per intercettare quella domanda?

Come può valutare strategie di contenuto a lungo termine?

La risposta è: con grande difficoltà, e affidandosi sempre di più a ipotesi, strumenti di terze parti a pagamento (come, guarda caso, Ahrefs o altri competitor) o ai consigli dello stesso Google, che nel frattempo spinge i suoi prodotti AI.

Perché è questo il punto cruciale che Stox ha abilmente sollevato: il suo studio si ferma ad aprile 2025, un mese prima che Google iniziasse il rollout su larga scala della modalità AI nella Ricerca, alimentata da modelli come Gemini 3 Pro.

Quella modalità, che fornisce risposte generative direttamente nella pagina dei risultati, sta radicalmente cambiando il comportamento degli utenti.

Se prima una ricerca “a coda lunga” (specifica, conversazionale) poteva tradursi in un clic a un sito di approfondimento, oggi potrebbe essere soddisfatta interamente dall’AI Overview di Google.

L’utente non clicca più, e quella query – già potenzialmente anonima per i volumi bassi – sparisce completamente dal radar del webmaster.

Non è più solo anonima: è intrappolata nel giardino recintato di Google.

L’aggiornamento imminente di Stox rischia di mostrare un’impennata della percentuale di dati nascosti, non per una maggiore attenzione alla privacy, ma per un cambiamento nel modello di business che dirotta l’attenzione degli utenti verso i propri servizi.

La trasparenza selettiva e il nuovo campo di battaglia dell’ai

Il paradosso è lampante. Da un lato, Google annuncia sofisticati strumenti di analisi per gli inserzionisti, prevedendo per il 2026 un futuro della pubblicità digitale sempre più integrato e “intelligente”. Dall’altro, toglie visibilità fondamentale ai publisher, cioè a quelle stesse entità che creano il contenuto che alimenta il motore di ricerca e, in definitiva, l’AI stessa.

È una forma di trasparenza selettiva: i dati fluiscono dove generano profitto diretto (la pubblicità), mentre diventano più nebulosi dove potrebbero favorire competitor o semplicemente dare troppo potere di negoziazione a chi crea contenuti.

Nel frattempo, piattaforme come Bing di Microsoft stanno provando a giocare una carta diversa, introducendo funzionalità per tracciare le citazioni AI nei propri strumenti per webmaster, un tentativo di attrarre publisher offrendo maggiore visibilità in un panorama sempre più dominato dalle risposte generative.

Cosa rimane, allora, per un sito web che vuole sopravvivere in questa nuova era?

Le strategie SEO discusse negli ambienti specializzati sono sempre più simili a un atto di fede: creare autorità di argomento, ottimizzare contenuti per essere “citati” dalle AI, rafforzare i segnali di esperienza e affidabilità.

Tutte pratiche lodevoli, ma che devono essere perseguite in una nebbia fitta.

Si naviga a vista, con uno strumento di bordo (GSC) che oscura quasi metà della mappa, mentre il proprietario del faro (Google) ha tutto l’interesse a dirigere il traffico verso i suoi nuovi porti turistici a pagamento.

La domanda finale, quindi, non è solo tecnica: è filosofica e commerciale.

Fino a che punto un’azienda che detiene un monopolio di fatto sulla scoperta delle informazioni può controllare l’accesso ai dati su come tali informazioni vengono scoperte, senza soffocare l’ecosistema che la alimenta?

La risposta, forse, la stiamo già vedendo: un ecosistema dove i creatori di contenuti vedono sempre meno, mentre un’unica entità vede, e controlla, sempre di più.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie