Fan-out queries: come l’ai di google sta silenziosamente cambiando il web
Dalle Fan-Out Queries all’evoluzione di Gemini, un’analisi del nuovo paradigma che sta riscrivendo le regole del web e il ruolo dei creatori di contenuti
C’è stato un momento, all’incirca due anni fa, in cui abbiamo smesso di “cercare” su Google e abbiamo iniziato a “conversare” con esso.
Se oggi, aprendo il browser in questo freddo gennaio del 2026, chiediamo consigli su come preparare una maratona a Milano, non riceviamo più una lista sterile di link blu. Riceviamo un piano.
Una risposta strutturata che ci parla di meteo, nutrizione, scarpe adatte al pavé e percorsi consigliati.
Sembra magia, una di quelle comodità tecnologiche che ci fanno sentire nel futuro, ma dietro le quinte c’è un meccanismo molto meno magico e molto più calcolato che sta ridefinendo silenziosamente l’economia del web: le Fan-Out Queries.
Per capire cosa sta succedendo sotto il cofano del motore di ricerca più usato al mondo, dobbiamo dimenticare il vecchio concetto di parola chiave. Quando digitiamo una domanda complessa, l’intelligenza artificiale di Google non si limita a cercare quella frase nel suo indice sterminato.
Al contrario, si comporta come un giornalista investigativo iperattivo.
Scompone la nostra richiesta principale in decine di domande più piccole, invisibili all’utente, e le lancia simultaneamente in tutte le direzioni.
È un approccio affascinante: per rispondere a “migliore strategia SEO nel 2026”, il sistema potrebbe interrogarsi internamente su “trend attuali”, “aggiornamenti algoritmi recenti” e “opinioni esperti”, tutto in una frazione di secondo.
Questa tecnica, tecnicamente nota come “query fan-out”, spiega perché alcuni siti web stanno vedendo un’esplosione di visibilità nelle panoramiche AI mentre altri spariscono nell’oblio. Non basta più rispondere alla domanda dell’utente; bisogna rispondere alle domande che l’AI si pone per soddisfare l’utente.
Secondo recenti analisi tecniche, il processo espande un singolo prompt dell’utente in molteplici sotto-query correlate, andando a pescare frammenti di testo, video e mappe da fonti che dimostrano un’autorità trasversale sull’argomento. È la vittoria del contesto sulla singola informazione.
La tensione tra utilità e sopravvivenza
L’entusiasmo per questa tecnologia è palpabile. Chi non vorrebbe una risposta immediata, verificata e completa senza dover cliccare su cinque siti diversi pieni di banner pubblicitari?
Tuttavia, c’è un rovescio della medaglia che sta tenendo svegli molti editori digitali. Se Google fornisce la risposta perfetta aggregando i contenuti di altri, perché l’utente dovrebbe visitare la fonte originale?
È qui che la narrazione ottimistica si scontra con la dura realtà del business. Da un lato, Google afferma di voler supportare l’ecosistema. Dall’altro, la direzione presa è inequivocabile: trattenere l’utente sulla pagina dei risultati il più a lungo possibile.
Le dichiarazioni dei vertici dell’azienda, talvolta, lasciano trapelare una visione pragmatica, quasi cinica, del ruolo dei creatori di contenuti.
Dare traffico ai siti degli editori è una sorta di male necessario.
— Liz Reid, VP of Search presso Google
Questa frase, pronunciata in un momento di candore, racchiude l’intera contraddizione del web moderno. Gli editori sono il carburante che alimenta il motore dell’AI, ma il motore preferirebbe non dover “pagare” quel carburante con i clic in uscita.
Nonostante ciò, la linea ufficiale rimane rassicurante: Google continua a concentrarsi sull’invio di traffico prezioso a editori e creatori, sostenendo che le panoramiche AI permettono agli utenti di esplorare argomenti più complessi, portando paradossalmente a visitare una maggiore diversità di siti web.
La realtà osservata dagli esperti SEO, tuttavia, suggerisce una strategia di adattamento forzato. Cyrus Shepard, una voce autorevole nel settore, ha notato come il panorama della consulenza sia cambiato radicalmente.
L’ottimizzazione per l’IA costituisce ormai il 30% del suo lavoro di consulenza.
— Cyrus Shepard, Consulente SEO
Non si tratta più di ingannare un algoritmo, ma di dimostrare di essere la fonte più affidabile per tutte quelle “sotto-domande” che il sistema genera.
L’evoluzione invisibile di Gemini
Per comprendere come siamo arrivati a questo punto, bisogna guardare alla rapida evoluzione dei modelli sottostanti. Fino all’anno scorso, le “allucinazioni” (risposte inventate dall’AI) erano il grande spauracchio. Oggi, con l’integrazione massiccia della RAG (Retrieval-Augmented Generation), il sistema è molto più ancorato ai fatti reali.
Il salto di qualità è avvenuto il mese scorso, con il passaggio a Gemini 2.0 come modello principale per le AI Overviews, che ha migliorato drasticamente la comprensione del testo e la capacità di generare risposte naturali.
Questo aggiornamento non è solo un vezzo tecnico: ha reso le “Fan-Out Queries” incredibilmente più efficaci nel collegare concetti distanti.
Se prima il sistema faticava a capire che “scarpe da corsa” e “prevenzione infortuni ginocchio” fossero correlati in una query generica sull’allenamento, oggi costruisce ponti semantici con una facilità disarmante.
L’impatto pratico per noi utenti è una ricerca che sembra leggerci nel pensiero. Ma c’è un aspetto critico che non va ignorato: la “bolla” informativa.
Se l’AI decide quali sono le sotto-domande pertinenti, sta implicitamente decidendo anche quali aspetti di un argomento non sono pertinenti. La comodità di avere una risposta pre-masticata rischia di atrofizzare la nostra capacità di esplorare prospettive laterali, impreviste o dissidenti.
L’efficienza, come spesso accade nella tecnologia, si paga con una riduzione della serendipità.
Un futuro in equilibrio precario
Siamo di fronte a un paradosso affascinante. Mai come oggi abbiamo avuto accesso a informazioni così ben organizzate e digeribili. La tecnologia delle Fan-Out Queries è un capolavoro di ingegneria che simula il ragionamento umano su scala planetaria.
Eppure, il terreno sotto i piedi di chi quelle informazioni le crea — giornalisti, blogger, ricercatori — non è mai stato così friabile.
Se la tendenza attuale dovesse consolidarsi, potremmo assistere a una biforcazione del web. Da una parte, un internet invisibile, fatto di database e contenuti strutturati per essere letti dalle macchine e serviti nelle panoramiche AI; dall’altra, un internet “umano”, forse più piccolo e di nicchia, dove si cerca l’approfondimento e la voce autoriale che nessun riassunto algoritmico può replicare.
La domanda che dobbiamo porci, mentre godiamo della comodità di queste risposte istantanee, non è tanto se la tecnologia funzioni — perché funziona, eccome — ma quale sarà il costo a lungo termine di delegare la sintesi della conoscenza umana a un intermediario automatizzato.
Se l’AI diventa l’unico curatore di ciò che leggiamo, chi controllerà il curatore?