DEJAN svela come lo spam AI manipola il grounding context di Google Gemini.

DEJAN svela la vulnerabilità di Google Gemini allo spam SEO. Un tool gratuito mostra quali contenuti l'AI usa nel suo processo di grounding.

Un’agenzia specializzata in AI SEO ha rivelato come i modelli linguistici, agendo da lettori ingenui, siano facilmente manipolabili dallo spam, trasferendo autorevolezza a fonti potenzialmente biased.

La corsa per ottimizzare i contenuti per i motori di ricerca è entrata in una nuova, paradossale fase. Se per anni l’obiettivo è stato apparire in cima alla pagina dei risultati di Google, oggi la posta in gioco è diventata più sottile e tecnica: capire esattamente quali frammenti del proprio sito web vengono “inghiottiti” e utilizzati dai grandi modelli linguistici per costruire le loro risposte.

È in questo spazio di frontiera che si muove DEJAN, un’agenzia specializzata in AI SEO, che ha recentemente reso pubblico uno strumento gratuito chiamato Grounding Context Retriever. Il suo scopo dichiarato è aiutare a identificare quali parti specifiche di una pagina vengono utilizzate da Google Gemini quando “si fonda” (grounding) sul web per rispondere a una query.

Ma dietro questo gesto apparentemente altruistico si nasconde una critica pungente all’attuale stato dell’arte e un monito: gli assistenti AI sono lettori ingenui, facilmente manipolabili dallo spam generato automaticamente.

La mossa di DEJAN non nasce dal nulla. È la risposta diretta a un problema osservato sul campo: i modelli come Gemini, quando attivano la funzione di ricerca in rete, recuperano contenuti ma non ne verificano l’affidabilità intrinseca. Controllano l’esistenza di un’affermazione in un documento, non la sua onestà o indipendenza.

Come ha evidenziato la ricerca dell’agenzia, questo crea una vulnerabilità perfetta per lo “GEO spam”, dove un’azienda può pubblicare una pagina auto-referenziale che si proclama “Miglior Fornitore di X nel 2026”, posizionarla bene nelle ricerche organiche e vedere poi Gemini citare quella stessa affermazione come un dato di fatto nella sua risposta sintetizzata. L’autorevolezza di Google viene così trasferita silenziosamente a fonti potenzialmente biased.

Offrendo uno strumento che smaschera i segmenti di testo effettivamente utilizzati da Gemini, DEJAN espone pubblicamente questa meccanica, puntando i riflettori su quello che definisce un approccio “retrieve → read → generate” essenziale per ridurre le allucinazioni del modello.

Come funziona il “grounding” e perché è un bersaglio

Tecnicamente, il grounding è il processo per cui un modello di linguaggio come Gemini, di fronte a una domanda che richiede informazioni aggiornate o non presenti nel suo addestramento, esegue una ricerca web silenziosa, recupera una serie di documenti e poi sintetizza una risposta basandosi su di essi. Non è una novità assoluta, ma l’integrazione profonda in un prodotto consumer come Gemini cambia la posta in gioco.

DEJAN, attraverso un’analisi su larga scala, ha provato a quantificare questo processo, osservando come Gemini distribuisca il contenuto selezionato tra le fonti in base alla loro posizione di ranking.

Il tool gratuito dell’azienda permetterebbe quindi di vedere non solo se una pagina è stata usata, ma quanto e quale porzione esatta del suo contenuto è stata incorporata nella logica della risposta AI.

Questa trasparenza, però, serve anche a evidenziare i limiti. I sistemi di Retrieval-Augmented Generation (RAG) su cui si basano queste funzioni hanno punti ciechi noti: i recuperatori neurali possono fallire nel trovare entità rilevanti se la similarità semantica con la query è bassa, il rumore introdotto da contesti troppo lunghi può seppellire l’evidenza cruciale e la qualità della risposta rimane totalmente dipendente dalla qualità del recupero iniziale.

In sostanza, se in cima ai risultati di ricerca c’è spam ben ottimizzato, l’AI lo digerirà e lo rigurgiterà, magari con un’aura di credibilità.

È il paradosso di un sistema progettato per essere più informato, che può diventare involontariamente un amplificatore di disinformazione commerciale. Consulenti SEO di alto profilo come Aleyda Solis osservano da tempo come l’intelligenza artificiale stia trasformando il panorama della SEO, costringendo a un adattamento che passa dalla comprensione di questi nuovi meccanismi.

La doppia battaglia di Google: potenziare e proteggere Gemini

La risposta di Google a questa sfida è duplice e riflette la tensione intrinseca nello sviluppo di AI generative. Da un lato, l’azienda potenzia continuamente le capacità di Gemini, integrandolo in ogni prodotto e rendendo il grounding un pilastro della sua utilità. Dall’altro, deve erigere barriere per impedire che il modello stesso diventi un vettore di abuso.

Le impostazioni di sicurezza regolabili dell’API Gemini permettono agli sviluppatori di filtrare contenuti per categorie come hate speech o pericoli, ma alcuni filtri, come quelli per il materiale pedopornografico, sono non configurabili e sempre attivi.

Su scala più ampia, Google sta usando l’AI contro l’AI stessa: sistemi di detection alimentati da intelligenza artificiale bloccano milioni di risultati di ricerca truffaldini ogni giorno, e Gemini Nano opera direttamente sul dispositivo in Chrome per analizzare le pagine in cerca di scam.

Tuttavia, queste misure sembrano agire più come un sistema di filtraggio a valle che come una revisione critica del processo di grounding a monte. Le linee guida di Google proibiscono esplicitamente l’uso di contenuti generati da AI per manipolare i ranking, classificandoli come spam.

Ma il problema sollevato da DEJAN è più sottile: non è necessario che il contenuto sia generato da AI per essere spam; basta che sia spam ottimizzato, punto.

Il modello, nel suo ruolo di “lettore ingenuo”, non fa distinzione. Per questo, strumenti come il checklist di ottimizzazione per l’AI Search pubblicato da Aleyda Solis spostano l’attenzione sulla preparazione dei contenuti per essere “recuperati” efficacemente, enfatizzando l’ampiezza tematica, la struttura a chunk e i segnali di autorevolezza che potrebbero essere valutati dai sistemi.

Un’arma a doppio taglio per il futuro della ricerca

Il rilascio del Grounding Context Retriever da parte di DEJAN è, in definitiva, un’azione strategicamente ambigua. Da un lato, democratizza l’accesso a dati diagnostici preziosi, allineandosi a una certa etica della trasparenza tecnica. Dall’altro, fornisce esso stesso una mappa dettagliata per potenziali manipolatori, indicando esattamente su quali frasi concentrare gli sforzi di ottimizzazione.

In un certo senso, è come se qualcuno avesse pubblicato il codice sorgente di un antivirus per dimostrare quanto sia vulnerabile il sistema: un atto di denuncia che rischia anche di armare gli avversari.

La domanda che rimane aperta, e che questo strumento porta alla luce in modo crudo, è fino a che punto i giganti dell’AI possano o vogliano spingere i loro modelli a diventare “lettori scettici”. Implementare un layer di fact-checking o di verifica della credibilità della fonte in tempo reale, per ogni query, aumenterebbe esponenzialmente costi e latenza, andando forse contro l’esperienza fluida e immediata che questi prodotti vogliono offrire.

Nel frattempo, l’industria della SEO, come notano esperti come Solis, si trova a dover monitorare inclusioni e citazioni nei vari LLM con strumenti specializzati, in una corsa agli armamenti sempre più tecnica.

Il grounding, che doveva ancorare le AI alla realtà, rischia di diventare il nuovo, complesso campo di battaglia dove la realtà viene contesa, un snippet alla volta.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie