Google Discover: il core update di febbraio riduce il traffico per gli editori.

Google Discover: il core update di febbraio riduce il traffico per gli editori.

Google ha rilasciato un importante aggiornamento per Discover, ridefinendo le regole per gli editori online. L'update solleva preoccupazioni sul controllo.

L’aggiornamento dell’algoritmo di Google Discover, un feed di contenuti personalizzati diventato una fonte di traffico vitale per molti editori, evidenzia il controllo del gigante tecnologico sulla distribuzione delle notizie e la dipendenza del giornalismo digitale.

Il 5 febbraio scorso, Google ha rilasciato silenziosamente un aggiornamento del suo algoritmo che potrebbe riscrivere le regole del gioco per migliaia di editori online. Il cosiddetto “February 2026 Discover core update” è un intervento profondo sui sistemi che alimentano Google Discover, il feed di contenuti personalizzati che compare sulla home del motore di ricerca mobile e che, senza bisogno di una query, propone articoli e video agli utenti.

L’annuncio, pubblicato sul blog ufficiale per sviluppatori, è tipicamente asettico: l’aggiornamento, partito per gli utenti anglofoni negli Stati Uniti, impiegherà fino a due settimane per essere completato e si espanderà poi ad altri paesi e lingue. Gli obiettivi dichiarati sono nobili: mostrare più contenuti locali, ridurre il sensazionalismo e il clickbait, premiare articoli approfonditi, originali e tempestivi.

Ma dietro il gergo tecnico si nasconde una verità scomoda: un’altra manopola del traffico internet è saldamente nelle mani di un singolo attore, e un suo semplice “aggiustamento” può significare vita o morte per testate già in affanno.

Perché tutto questo trambusto per un feed?

Perché Discover non è un prodotto marginale. È diventato, per molti editori, una fonte di traffico vitale, spesso più stabile e redditizia del tradizionale traffico da ricerca organica. A differenza della ricerca, dove l’utente esprime un intento, Discover propone contenuti basandosi sugli interessi e sull’attività web dell’utente, senza che questi debba digitare nulla.

È un flusso continuo e passivo di notizie, un tentativo di Google di anticipare i desideri dell’utente e, non a caso, di trattenere l’attenzione all’interno del suo ecosistema.

Quando funziona, per un editore, è una manna: articoli vecchi di mesi tornano in vita, il pubblico è pre-selezionato per interesse, le visualizzazioni possono esplodere.

Ma quando Google decide di cambiare le regole, come sta facendo ora, non ci sono appelli. Solo l’attesa ansiosa dei report di analytics.

Cosa cambia davvero con l’aggiornamento di febbraio

Le modifiche tecniche dell’update ruotano attorno a tre assi principali, tutti presentati come miglioramenti per l’utente. Primo: la localizzazione. L’algoritmo darà priorità ai contenuti di siti web basati nello stesso paese dell’utente. Una mossa che suona bene in un’epoca di riscoperta del locale, ma che di fatto erige barriere digitali e potrebbe marginalizzare testate internazionali di nicchia o ridurre la diversità di prospettiva.

Secondo: la guerra al clickbait. Google promette di ridurre i contenuti sensazionalistici e le esche da click.

Chi potrebbe obiettare? Nessuno, in teoria.

In pratica, la definizione di “clickbait” è un algoritmo nero, soggettivo e inappellabile. Un titolo accattivante ma legittimo per un piccolo sito di satira potrebbe essere classificato come sensazionalismo, mentre il titolo sobrio di un grande brand mediatico passa indisturbato.

Terzo: la qualità. Si premiano contenuti approfonditi, originali e tempestivi da siti con “expertise”. Anche qui, chi misura l’approfondimento? Chi certifica l’expertise? La risposta è sempre la stessa: i sistemi di Google.

Questo è il punto critico. I product manager di Google, responsabili dello sviluppo di prodotti innovativi in collaborazione con team trasversali, operano in un framework che dà priorità ai bisogni dell’utente e a decisioni guidate dai dati.

Ma chi è l’utente in questo caso? È il lettore che vuole un’informazione di qualità, o è l’utente-merce la cui attenzione viene massimizzata per essere monetizzata con gli annunci?

Il conflitto di interesse è palese: Google Discover è un magnete per l’attenzione che alimenta il business pubblicitario di Google. Più tempo gli utenti passano su Discover, più dati vengono raccolti, più gli annunci possono essere targettizzati. I publisher sono fornitori di contenuti gratuiti che rendono appetibile il prodotto.

Se l’aggiornamento dovesse, come spesso accade, favorire involontariamente grandi brand mediatici già consolidati a discapito di voci indipendenti, a Google importa?

L’importante è che l’utente medio non si lamenti e continui a scorrere.

La dipendenza dei publisher e il silenzio sui dati

La vera tragedia del giornalismo digitale nell’era delle piattaforme è la dipendenza strutturale. Dopo aver delegato la distribuzione ai social network (con il trauma Facebook), molti editori hanno visto in Discover una via d’uscita più controllata. Ma è una dipendenza ugualmente pericolosa. Google, a differenza di Facebook di qualche anno fa, fornisce strumenti di analisi e linee guida.

Ma i dati cruciali – quanti utenti mensili ha Discover, quale percentuale di ricavi totali di un editore deriva da quel canale, come si distribuiscono i guadagni – restano opachi. L’update di febbraio è stato registrato come un “incidente” che influisce sul ranking nello Status Dashboard.

Un termine rivelatore: per Google è un inconveniente tecnico, per un piccolo giornale online potrebbe essere un incidente finanziario.

La domanda allora è: cosa ci guadagna Google da tutto questo, oltre a tenere gli utenti incollati ai propri servizi?

Il controllo. Controllo sul tipo di informazione che circola (premiando certi formati e penalizzandone altri), controllo sul flusso di attenzione, controllo sul valore economico del traffico. Ogni aggiornamento è un riallineamento del sistema per massimizzare l’engagement, non necessariamente la comprensione pubblica.

I publisher sono costretti a un’adattamento continuo, una corsa a ottimizzare titoli, immagini (devono essere di almeno 1200 pixel, suggerisce Google), metadescription, per un algoritmo il cui funzionamento dettagliato ignorano. È un lavoro di supplica algoritmica.

C’è un’alternativa? Alcuni editori stanno provando a diversificare, puntando su newsletter, app proprie, o altre piattaforme come Apple News. Ma la verità è che il traffico da Discover è spesso troppo grosso e a basso costo di acquisizione per essere ignorato. Rinunciarvi significherebbe, per molti, il fallimento.

Quindi si obbedisce, si studiano le linee guida, si incrociano le dita e si aspetta che le indicazioni generali di Google sugli aggiornamenti core restino valide.

Alla fine, l’update di febbraio di Google Discover è un perfetto caso di studio del potere asimmetrico nell’era digitale. Un’azianda privata, senza mandato democratico, ridefinisce i criteri di visibilità dell’informazione per milioni di persone, con conseguenze economiche dirette su chi quell’informazione la produce. Lo fa con la promessa di un’esperienza utente migliore, più “pulita” e locale.

Ma mentre celebriamo la scomparsa del clickbait dal nostro feed, dovremmo chiederci: a quale prezzo?

Stiamo barattando la cacofonia a volte fastidiosa ma vitale di un web aperto, per la quiete curata e commerciale di un giardino recintato il cui unico guardiano ha un conflitto di interesse strutturale?

La prossima volta che scorrerete passivamente il vostro Discover, ricordatevi che quelle storie non sono lì per caso. Sono lì perché un algoritmo ha deciso che fossero le più adatte a voi, e nel farlo, potrebbe aver silenziosamente declassato la voce di qualcun altro.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie