Google AI Search: Jeff Dean conferma il ranking tradizionale alla base.

Google AI Search: Jeff Dean conferma il ranking tradizionale alla base.

Jeff Dean di Google rivela: la ricerca AI si basa su logiche tradizionali. Un'evoluzione cruciale per la visibilità online dei publisher.

Il capo dell’AI di Google, Jeff Dean, ha svelato che il sistema si affida ancora al vecchio indice per selezionare un sottoinsieme di documenti, prima che l’AI generativa entri in gioco, ridefinendo così le regole della visibilità online e il modello di business del web.

Quando pensiamo alla ricerca AI, immaginiamo spesso un cervello digitale che legge e comprende l’intero web in un istante per darci la risposta perfetta.

È un’immagine affascinante, ma, come spesso accade, la realtà è più pragmatica e meno magica.

In un recente e raro intervento pubblico, Jeff Dean, il capo dell’intelligenza artificiale di Google, ha smontato questa visione, rivelando che il cuore della ricerca AI di Big G funziona ancora con la logica collaudata della ricerca tradizionale.

Non è una rivoluzione, ma un’evoluzione.

E per chiunque pubblichi contenuti online, capire questa evoluzione non è una questione accademica: è la differenza tra essere visibili o diventare fantasmi digitali.

Dean, in un’intervista per il podcast Latent Space, ha spiegato che il processo non inizia con un modello linguistico che divora il web. Inizia con il vecchio, fidato indice di Google.

Il sistema parte da un numero gigantesco di pagine e, utilizzando metodi leggeri per identificare un sottoinsieme rilevante, restringe il campo a circa trentamila documenti candidati.

Solo allora entrano in gioco algoritmi più sofisticati per selezionare le fonti migliori, che verranno infine sintetizzate nella risposta generata dall’AI.

In sintesi: prima si filtra, poi si ragiona.

La visibilità di un contenuto dipende ancora dalla sua capacità di superare queste soglie di ranking tradizionali per entrare nella “piscina” dei candidati, prima di essere ulteriormente vagliato per la risposta finale.

Questa architettura a strati dice molto sulle priorità di Google: affidabilità, scalabilità e controllo.

Far leggere l’intero web a un LLM per ogni query sarebbe proibitivamente costoso e lento.

Ma c’è dell’altro.

Questo approccio conservativo è anche un baluardo contro l’aleatorietà e le “allucinazioni” dei modelli linguistici.

Affidandosi a un primo filtro basato su segnali di ranking classici – pertinenza, autorevolezza, esperienza – Google cerca di ancorare la creatività generativa dell’AI a una base di fonti verificate.

È un tentativo di avere la botte piena e la moglie ubriaca: la fluidità delle risposte in linguaggio naturale, ma costruita su un processo di selezione deterministico e, in teoria, più trasparente.

L’ottimizzazione per la ricerca AI non è (solo) una nuova magia SEO

La rivelazione di Dean ha l’effetto di una doccia fredda per chi sperava in una tabula rasa.

Non ci sarà un reset dei rankings.

Al contrario, i fondamentali restano cruciali.

Tuttavia, il gioco cambia nel momento in cui il contenuto, dopo aver superato le prime barriere, viene processato per la generazione della risposta.

Qui, la domanda non è più solo “questo contenuto è rilevante per la query?”, ma diventa “questo contenuto fornisce una risposta chiara, concisa e ben strutturata che un modello può facilmente estrarre e sintetizzare?”.

È qui che nasce la nuova frontiera dell’ottimizzazione.

Non si tratta più di posizionarsi per una keyword, ma di posizionarsi come fonte per una risposta.

Alcuni studi preliminari suggeriscono che contenuti strutturati in modo logico, con paragrafi chiari e informazioni facilmente estraibili, hanno molta più probabilità di essere citati nelle risposte AI.

È un passaggio dalla logica della pagina a quella del “passaggio” o del blocco informativo.

Come ha osservato un esperto, non serve necessariamente rankare primo per la query principale per essere inclusi nella risposta finale AI; basta che un passaggio del proprio contenuto sia rilevante per una delle sotto-domande che il modello si pone internamente.

Questo sposta l’attenzione dalla densità di parole chiave alla completezza semantica e alla qualità espositiva.

Tuttavia, questo ibrido tra vecchio e nuovo crea tensioni evidenti.

Da un lato, Google rassicura che i principi di E-E-A-T (Esperienza, Competenza, Autorevolezza, Affidabilità) restano pilastri.

Dall’altro, l’avvento delle AI Overviews – le risposte generative in cima ai risultati di ricerca – ha un impatto diretto e misurabile sul traffico web.

Clic organici calano drasticamente quando l’utente trova la risposta direttamente nel riquadro di Google.

I publisher si trovano in una paradossale “sindrome del coccodrillo”: le impressioni (le visualizzazioni del loro snippet nella risposta AI) possono aumentare, ma i click, la linfa vitale del web aperto, evaporano.

È un terremoto per il modello di business di gran parte dell’internet.

Tra traffico in calo e un nuovo concetto di autorevolezza

Il quadro che emerge è quindi di un’industria in profonda transizione, dove le certezze del passato vacillano.

La ricerca AI non sta uccidendo il SEO, lo sta trasformando in qualcosa di più complesso e sfaccettato.

La classica ottimizzazione on-page e off-page resta il biglietto d’ingresso, la condizione necessaria per essere presi in considerazione.

Ma non è più sufficiente.

Una volta nella piscina dei candidati, il contenuto viene valutato con una lente diversa, quella dell’utilità per la sintesi AI.

Questo solleva interrogativi spinosi sull’autorevolezza.

In un ecosistema tradizionale, l’autorevolezza si costruiva con link, menzioni e una storia di contenuti di qualità riconosciuta nel tempo.

In un contesto AI, c’è il rischio che l’autorevolezza diventi sinonimo di “estrattibilità”.

Un contenuto mediocre ma perfettamente strutturato in bullet point potrebbe essere più appetibile per un modello rispetto a un saggio approfondito ma complesso.

Google insiste che i suoi sistemi sono progettati per riconoscere la vera esperienza, ma la sfida è enorme.

Come distinguere, a livello algoritmico, la competenza genuina da una sintesi ben confezionata di informazioni di seconda mano?

La conclusione è che Google, con questa architettura ibrida, sta cercando di governare una transizione epocale senza bruciare il ponte che l’ha resa dominante.

Mantenendo il ranking classico come fondazione, cerca di mitigare i rischi dell’AI generativa e di gestire l’inevitabile impatto sul web publisher.

Ma la domanda che resta aperta, e che Dean non ha affrontato, è fino a che punto questo compromesso sia sostenibile.

Per quanto tempo il web aperto, basato sul traffico da click, potrà coesistere con un paradigma di ricerca che, per sua natura, mira a ridurre proprio quei click?

L’AI non sta solo cambiando come troviamo le informazioni; sta ridefinendo, silenziosamente, l’economia stessa della conoscenza online.

E in questo nuovo mondo, essere tra i trentamila documenti identificati con metodi leggeri potrebbe essere solo il primo, e forse il più facile, degli ostacoli da superare.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie