Come X (ex Twitter) sta invadendo Google Discover: un'analisi tecnica

Come X (ex Twitter) sta invadendo Google Discover: un’analisi tecnica

Una scelta tecnica che privilegia la velocità dei dati provenienti da X a discapito della qualità e della veridicità delle informazioni, trasformando Discover in un aggregatore di feed sociali.

Se aprite Google Discover oggi, primo gennaio 2026, noterete qualcosa che fino a un paio di anni fa sarebbe sembrato un errore di rendering o un bug nell’ingestione dei feed: la vostra bacheca non è più dominata da articoli strutturati, analisi approfondite o news verificate.

È invasa da post di X (ex Twitter).

Non si tratta di link che rimandano alla piattaforma, ma di “card” native, perfettamente renderizzate, che vi mostrano il contenuto grezzo di un tweet come se fosse una notizia di prima pagina.

Dietro questa trasformazione non c’è il caso, né tantomeno una semplice preferenza estetica dei designer di Mountain View. C’è un cambiamento tettonico nell’infrastruttura di indicizzazione di Google, una scelta tecnica che privilegia la velocità dell’API “firehose” rispetto alla lenta e costosa eleganza del crawling tradizionale.

Per comprendere perché il vostro feed assomiglia sempre più a un social network disfunzionale e sempre meno a una rassegna stampa curata, dobbiamo guardare sotto il cofano, dove gli ingegneri del ranking hanno smesso di valutare la singola pagina per affidarsi ciecamente alla reputazione del contenitore.

Il segnale nascosto a livello di dominio

Per anni, la dottrina SEO ci ha insegnato che “content is king”: scrivi un buon articolo, strutturalo con i tag corretti, e Google lo premierà. Oggi, questa logica si scontra con una realtà implementativa diversa.

Un singolo post su X, privo di struttura semantica, con un testo breve e spesso sgrammaticato, non ha, di per sé, alcuna autorità algoritmica. Eppure, domina il feed. La ragione tecnica risiede in come Google ha iniziato a propagare i segnali di qualità dal dominio “genitore” verso le singole unità di contenuto.

Google non ha la capacità computazionale — o forse l’interesse economico — di valutare la veridicità o la qualità intrinseca di ogni singolo tweet in tempo reale. La soluzione ingegneristica adottata è un’euristica basata sulla fiducia nel dominio: se il dominio x.com è considerato “autorevole” (o almeno “rilevante”), allora il contenuto ospitato eredita automaticamente quella visibilità.

È una scorciatoia tecnica efficiente, ma pericolosa.

Paul Haahr, Lead Ranking Engineer di Google, ha spiegato questa dinamica con una chiarezza disarmante, illustrando come Google applica segnali a livello di intero sito per valutare la qualità dei singoli contenuti quando mancano informazioni specifiche sulla pagina.

Considerate due articoli sullo stesso argomento, uno sul Wall Street Journal e un altro su un dominio sconosciuto e precario. Non avendo assolutamente altre informazioni, basandoci su quelle che abbiamo ora, l’articolo del Wall Street Journal appare migliore. Questo è il modo in cui propaghiamo le informazioni dal livello di dominio a quello di pagina.

— Paul Haahr, Lead Ranking Engineer presso Google

Questa logica, applicata a un giornale, ha senso. Applicata a una piattaforma di User Generated Content (UGC) come X, dove la qualità del contenuto varia dal premio Nobel al bot di spam, diventa tecnicamente problematica.

Google sta essenzialmente delegando il controllo qualità all’algoritmo interno di X — che, ricordiamolo, premia l’engagement (spesso tossico) con moltiplicatori di visibilità 30x per i like — importando quel rumore direttamente dentro Discover.

L’architettura del “firehose” e la fine del crawling

C’è un secondo livello di analisi, più infrastrutturale, che spiega questa deriva. Il web tradizionale richiede di essere scansionato: il Googlebot deve visitare l’URL, scaricare l’HTML, renderizzare il JavaScript, analizzare il DOM e indicizzare il contenuto. È un processo lento, costoso in termini di risorse CPU e banda, e intrinsecamente in ritardo rispetto al tempo reale.

I social network come X e Reddit, invece, offrono qualcosa che per un ingegnere backend è irresistibile: dati strutturati via API (JSON) in tempo reale.

Non c’è bisogno di scansionare nulla.

Google ha stipulato accordi commerciali multimilionari per accedere a questi “firehose” di dati. Dal punto di vista dell’efficienza del sistema, è una vittoria schiacciante: invece di cercare l’ago nel pagliaio del web aperto, Google si fa consegnare il pagliaio già ordinato da partner selezionati.

Questo trend è iniziato in sordina nell’agosto 2023 con l’aggiornamento non annunciato che ha portato a una crescita esplosiva della visibilità per i forum, inclusi Reddit e Quora. Quello che sembrava un tweak per dare voce alle comunità era in realtà il preludio a un cambio di paradigma: Google ha smesso di cercare le risposte e ha iniziato a cercare chi le stava discutendo.

La conseguenza tecnica è che Discover sta diventando meno un motore di raccomandazione basato sugli interessi semantici e più un aggregatore di feed sociali. La latenza tra “evento accaduto” e “notizia mostrata” si azzera, ma si azzera anche il filtro critico.

Se l’algoritmo di X decide che un video virale è rilevante, l’API lo spinge nel tubo, e Discover lo visualizza. L’intermediazione giornalistica o tecnica viene bypassata da un socket diretto tra i server di X e quelli di Google.

Ma non è solo una questione di dati grezzi; anche l’interfaccia utente si sta piegando per accomodare questa nuova dieta ipocalorica di contenuti.

L’interfaccia si adatta al contenuto

L’evoluzione del backend ha forzato un cambiamento nel frontend. Le tradizionali “card” di Discover, pensate per titoli e immagini di copertina orizzontali, mal si adattano alla verticalità e alla brevità dei post social. Per questo motivo, nell’ultimo anno abbiamo assistito a test A/B aggressivi sull’interfaccia.

Google non si limita più a impilare link; sta costruendo contenitori specifici per massimizzare la “density” delle informazioni sociali. Già all’inizio del 2025, osservatori attenti come Glenn Gabe avevano notato come Google Discover ha iniziato a testare caroselli e formati impilati per mostrare più fonti per ogni storia.

Queste modifiche UI non sono cosmetiche; sono funzionali a trattenere l’utente sulla piattaforma.

Un carosello di tweet permette all’utente di scorrere orizzontalmente diverse opinioni senza mai cliccare per uscire verso un sito web esterno. È l’approccio “Walled Garden” che Google ha sempre criticato in Apple o Facebook, ora applicato alla propria homepage mobile. Tecnicamente, riduce il Bounce Rate dell’app Google, ma devasta l’ecosistema dei publisher indipendenti che vedono crollare il CTR (Click-Through Rate) mentre le impressioni rimangono tecnicamente stabili o addirittura aumentano.

Il rischio, guardando al codice e alle metriche, è che Google stia ottimizzando per la metrica sbagliata: l’engagement a breve termine piuttosto che la soddisfazione informativa a lungo termine. Integrando così profondamente i segnali di piattaforme esterne, Discover eredita le vulnerabilità di quelle piattaforme. Se l’algoritmo di X viene manipolato da bot farm per spingere una narrativa, quella manipolazione si riversa istantaneamente su milioni di dispositivi Android, validata dall’autorità implicita di Google.

Siamo di fronte a un paradosso ingegneristico: abbiamo costruito i sistemi di indicizzazione più sofisticati della storia umana, capaci di comprendere il linguaggio naturale e le sfumature semantiche, per poi usarli come semplici ripetitori di un feed JSON acquistato al chilo.

La domanda che rimane sospesa non è se questo sistema sia efficiente — lo è terribilmente — ma se un motore di ricerca debba limitarsi a riflettere il rumore della rete o se debba ancora provare a ordinarlo.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie