Google December 2025 Core Update: Analisi dell’impatto sull’informazione e SEO
L’aggiornamento di Google di dicembre 2025 ha colpito duramente il settore dell’informazione, ridefinendo il concetto di “qualità” e premiando l’esperienza e l’utilità del contenuto.
Mentre il resto del mondo stappava lo spumante per salutare l’arrivo del 2026, nelle server room e negli uffici SEO di mezzo mondo si consumava un dramma silenzioso, fatto di dashboard in rosso e grafici che puntavano verso il basso.
Non è una novità che Mountain View scelga periodi strategicamente scomodi per i suoi aggiornamenti infrastrutturali, ma il “December 2025 Core Update” ha lasciato segni profondi, specialmente nel settore dell’informazione.
La polvere si è posata solo tre giorni fa, il 29 dicembre, dopo 18 giorni di roll-out che hanno ridefinito, ancora una volta, cosa significa “qualità” per l’algoritmo di ricerca più influente del pianeta. Non stiamo parlando di un semplice aggiustamento dei pesi o di un refresh dell’indice: l’architettura delle decisioni di ranking ha subito una ricalibrazione che sembra aver preso di mira la mediocrità tecnica ed editoriale con una precisione chirurgica.
Se fino a qualche anno fa bastava riempire le pagine di parole chiave e backlink, oggi il motore esige una dimostrazione tangibile di competenza, penalizzando severamente chi tenta di ingannare il sistema con contenuti derivativi o puramente “riempitivi”.
Quello che rende questo aggiornamento particolarmente interessante per chi analizza il codice dietro le quinte non è tanto chi è sceso o salito, ma come la macchina ha preso queste decisioni.
Siamo di fronte a un’evoluzione significativa del concetto di E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), dove i segnali comportamentali dell’utente hanno assunto un peso specifico preponderante rispetto ai tradizionali segnali on-page.
Il motore sotto il cofano
Dal punto di vista ingegneristico, un aggiornamento “Core” non riguarda mai una singola metrica o una specifica tipologia di spam. È un aggiornamento globale del modello di apprendimento automatico che valuta la rilevanza.
In questo ciclo specifico, Google ha alzato l’asticella su ciò che definisce “contenuto soddisfacente”. La documentazione tecnica suggerisce che l’algoritmo è diventato molto più abile nel distinguere tra un contenuto che sembra esperto e uno che è realmente utile all’utente finale.
È interessante notare come il rilascio non sia stato lineare. La conclusione del rilascio dell’aggiornamento core di dicembre 2025, avvenuta il 29 dicembre, ha chiuso un periodo di instabilità iniziato l’11 dicembre.
Tuttavia, intorno al 14 dicembre si è verificata quella che in gergo potremmo definire una “calma ingannevole”: una riduzione della volatilità che ha indotto molti webmaster a credere che il peggio fosse passato. In realtà, era probabilmente una fase di ricalcolo dei cluster di dati prima dell’applicazione finale dei nuovi pesi algoritmici.
Questo comportamento a singhiozzo è tipico dei sistemi complessi che devono processare petabyte di informazioni in tempo reale senza interrompere il servizio.
Chi ha cantato vittoria a metà mese si è ritrovato, pochi giorni dopo, con metriche devastate.
La lezione tecnica qui è chiara: in un sistema dinamico e distribuito come la Ricerca Google, la latenza tra l’implementazione di una regola e la sua propagazione globale può creare falsi positivi che disorientano chi non ha una visione d’insieme dell’infrastruttura.
L’impatto più evidente si è visto su chi produce contenuti “YMYL” (Your Money or Your Life), in particolare i siti di notizie. E qui entriamo nel cuore del problema.
Il paradosso dell’informazione veloce
Il settore del news publishing è stato colpito duramente. Non è un caso.
Molti siti di notizie operano con modelli di business basati sulla velocità e sul volume, spesso a scapito della profondità tecnica e analitica. L’aggiornamento di dicembre sembra aver introdotto filtri più aggressivi per penalizzare i contenuti che si limitano a riaggregare notizie senza aggiungere valore, contesto o analisi originale.
Glenn Gabe, analista SEO che monitora costantemente queste fluttuazioni, ha osservato un fenomeno preoccupante per gli editori:
C’è stata un’enorme volatilità per gli editori di notizie con l’aggiornamento core di dicembre. E non riguarda solo quelli basati in India…
— Glenn Gabe, Analista SEO presso G-Squared Interactive
Il problema tecnico per i siti di notizie è strutturale: l’architettura dell’informazione è spesso caotica, appesantita da script pubblicitari che degradano l’esperienza utente (Core Web Vitals), e i contenuti sono frequentemente duplicati o scarsamente differenziati. L’algoritmo ora sembra “punire” questa ridondanza.
Se dieci siti pubblicano la stessa identica agenzia stampa con modifiche minime, Google ne sceglie uno o due da premiare, rendendo gli altri praticamente invisibili.
I dati confermano questa tendenza: analisi indipendenti mostrano che il traffico verso gli editori di notizie è diminuito drasticamente per quei portali che non sono riusciti a dimostrare un chiaro valore aggiunto rispetto alla fonte originale.
È una selezione darwiniana digitale: sopravvive non il più forte, ma il più utile.
La “Top Stories” carousel, un tempo miniera d’oro per il traffico, è diventata un club esclusivo dove l’autorità del dominio non basta più se il singolo pezzo non rispetta i nuovi standard di engagement dell’utente.
Questo ci porta inevitabilmente all’elefante nella stanza: l’intelligenza artificiale generativa e il suo ruolo nella produzione di questi contenuti.
L’algoritmo non legge, misura
C’è una diffusa, errata percezione che Google stia conducendo una crociata contro l’AI.
Tecnicamente, questo è insensato.
Un algoritmo di ranking non ha bias morali sulla provenienza di una stringa di testo; valuta il risultato. La distinzione tra “scritto da umano” e “scritto da AI” è irrilevante per il parser di Google. Ciò che conta è la densità di informazione e la soddisfazione dell’intento di ricerca.
John Mueller di Google è stato cristallino su questo punto, smontando le teorie complottiste che vedevano nell’aggiornamento una purga anti-robot:
Ai nostri sistemi non importa se il contenuto è creato dall’IA o dagli esseri umani. Ci interessa se è utile, accurato e creato per servire gli utenti piuttosto che solo per manipolare il posizionamento nei risultati di ricerca.
— John Mueller, Senior Search Analyst presso Google
La sfida tecnica non è rilevare l’AI, ma rilevare la scarsa qualità che spesso l’AI produce quando viene usata come scorciatoia per scalare la produzione senza supervisione. L’aggiornamento di dicembre ha raffinato i classificatori per identificare pattern di contenuto generico, privo di esperienza diretta o di sfumature critiche — caratteristiche tipiche dei Large Language Models non supervisionati.
Chi sviluppa strategie digitali deve comprendere che l’analisi completa delle linee guida sull’aggiornamento di dicembre rivela un focus ossessivo sui segnali di trust.
Un sito che pubblica migliaia di articoli generati automaticamente senza un chiaro autore, senza fonti verificate e senza una struttura logica coerente, viene ora identificato come rumore di fondo e filtrato via.
Non è una questione di etica, è una questione di signal-to-noise ratio.
Google vuole mantenere il suo indice pulito per non sprecare risorse computazionali su pagine che non risolvono il problema dell’utente.
Siamo di fronte a un bivio fondamentale per il web aperto. Da una parte c’è la tentazione di usare la tecnologia per inondare la rete di contenuti mediocri a costo zero; dall’altra, c’è un gatekeeper algoritmico che sta diventando sempre più sofisticato nel rifiutare questo approccio.
La domanda che rimane sospesa, mentre guardiamo i grafici stabilizzarsi in questo inizio 2026, non è se l’algoritmo sia giusto o sbagliato, ma se stiamo costruendo un web che merita di essere indicizzato o solo un immenso deposito di dati ridondanti che nessuno leggerà mai.