Google search: aggiornamento algoritmico fantasma destabilizza la seo
Un aggiornamento fantasma di Google Search sta rimescolando le SERP con una ferocia inusuale, gettando incertezza sull’ecosistema economico basato sulla visibilità online.
Se c’è una cosa che chi scrive codice detesta visceralmente è il bug non documentato, quello che appare nei log senza aver toccato una riga di codice, trasformando un sistema stabile in un generatore di numeri casuali.
Per chi si occupa di SEO e sviluppo web, le ultime 48 ore sono state esattamente questo: un’anomalia di sistema su scala globale.
Mentre la Silicon Valley si crogiola nell’idea dell’AI generativa come soluzione a tutto, il motore di ricerca che ancora oggi costituisce l’infrastruttura critica del web, Google Search, sta attraversando una fase di instabilità algoritmica che definire “turbolenza” sarebbe un eufemismo tecnico.
Siamo al 17 gennaio 2026 e i grafici dei tracker di volatilità sembrano l’elettrocardiogramma di un paziente sotto sforzo.
Non siamo di fronte a un Core Update annunciato con pompa magna sul blog ufficiale di Google Search Central, dove almeno abbiamo la cortesia di una notifica di “inizio lavori”. Quello a cui stiamo assistendo è un aggiornamento fantasma, un rollout silenzioso che sta rimescolando le carte in tavola con una ferocia che raramente si vede nelle finestre di manutenzione ordinaria.
La situazione è precipitata in modo evidente intorno al 15 gennaio. Dopo un aggiornamento “Core” di dicembre 2025 terminato ufficialmente il 29 del mese, ci si aspettava un periodo di code freeze o quantomeno di assestamento.
Invece, i dati raccontano una storia diversa, fatta di scosse di assestamento che superano per intensità il terremoto principale. È un pattern che suggerisce non tanto una rifinitura dei pesi dell’algoritmo, quanto una modifica strutturale ai meccanismi di ranking che, come spesso accade, viene testata direttamente in produzione sulla pelle dei webmaster.
Il rumore di fondo che diventa segnale
Per comprendere la gravità tecnica di quanto sta accadendo, bisogna guardare oltre il semplice lamento di chi ha perso posizioni.
I sensori della comunità SEO, che agiscono come un sistema di monitoraggio distribuito, hanno iniziato a lampeggiare rosso già il 6 e il 12 gennaio, ma è stato giovedì 15 che l’ago della bilancia si è spostato violentemente.
In un contesto di normale amministrazione, le fluttuazioni sono fisiologiche: il web cambia, i contenuti invecchiano, l’algoritmo ricalcola.
Ma qui stiamo parlando di picchi di volatilità rilevati da strumenti come Semrush e Mozcast che indicano uno scostamento massiccio dai pattern standard. Nelle scorse ore, Barry Schwartz ha confermato segnali di una nuova volatilità nei ranking di ricerca, evidenziando come i tool di terze parti abbiano registrato un’attività anomala proprio a metà mese.
Non è un caso isolato, ma il culmine di due settimane di instabilità che tradiscono una difficoltà di fondo nel bilanciare i nuovi modelli di ranking.
Dal punto di vista ingegneristico, sembra quasi che Google stia faticando a integrare i nuovi segnali di qualità — probabilmente legati alla pervasività dei contenuti generati da AI — con i segnali storici di autorità.
Quando un sistema complesso subisce modifiche a cascata senza un changelog ufficiale, il risultato è l’incertezza totale. E l’incertezza, in un ecosistema economico basato sulla visibilità, è veleno.
Ecco come Barry Schwartz, una delle voci più autorevoli nel decifrare il “black box” di Mountain View, ha descritto la situazione nelle ultime ore:
Vedo nuovi segnali di ulteriore volatilità nel ranking di Google Search e un possibile ritocco all’algoritmo di ricerca. Qualcosa è iniziato ieri, 15 gennaio, che gli strumenti di terze parti hanno rilevato.
— Barry Schwartz, SEO News Editor presso Search Engine Roundtable
Questa ammissione implicita che “qualcosa è cambiato” senza che nessuno sappia cosa, ci porta dritti al cuore del problema architetturale.
L’algoritmo non dorme mai (e non avvisa)
C’è una certa arroganza tecnica nel gestire un prodotto usato da miliardi di persone come se fosse un progetto hobbistico in beta perenne.
La mancanza di comunicazione da parte di Google su questi aggiornamenti intermedi — che tecnicamente potrebbero essere definiti hotfix o patch non documentate — è frustrante per chiunque apprezzi la trasparenza dei sistemi.
Se guardiamo sotto il cofano, è probabile che stiamo assistendo agli effetti collaterali dell’apprendimento automatico continuo.
A differenza degli algoritmi deterministici del passato (dove A + B dava sempre C), i moderni sistemi di ranking basati su reti neurali e Deep Learning sono fluidi. Un aggiornamento non è più necessariamente un ingegnere che cambia una riga di codice, ma potrebbe essere il modello stesso che, “digerendo” i dati del Core Update di dicembre, sta ricalibrando i propri vettori di pertinenza.
Tuttavia, c’è un limite a quanto si possa incolpare la “scatola nera” dell’AI. Le fluttuazioni del 15-16 gennaio 2026 mostrano segni di intervento manuale o di correzione di rotta.
È plausibile che i risultati del Core Update di dicembre non abbiano soddisfatto le metriche di qualità interne (CTR, tempo di permanenza, soddisfazione utente), costringendo gli ingegneri di Mountain View a intervenire sui parametri di soglia.
Immaginate di dover regolare il minimo di un motore mentre l’auto sta correndo a 130 all’ora in autostrada: questo è ciò che sembra accadere oggi nelle server farm di Google.
Ma c’è un dettaglio ancora più inquietante che sta emergendo tra le righe dei forum tecnici e che potrebbe spiegare perché questa volta il recupero sembra impossibile per molti.
La fine della stabilità deterministica
Siamo abituati a pensare al posizionamento su Google come a una classifica sportiva: se sei bravo, sali; se sbagli, scendi.
La volatilità di metà gennaio 2026 suggerisce che stiamo entrando in un’era diversa, quella della “classifica quantistica”.
I risultati di ricerca non sembrano più stabili per sessione o per utente, ma fluttuano in tempo reale in base a micro-segnali contestuali che rendono l’analisi SEO tradizionale quasi obsoleta.
L’eleganza tecnica vorrebbe che un sistema fornisse feedback chiari. Se un sito perde il 40% del traffico in una notte — come riportato da molti utenti il 6 e poi ancora il 15 gennaio — il sistema dovrebbe idealmente indicare perché.
Invece, ci troviamo di fronte a un muro di gomma.
L’approccio open source, dove i bug sono pubblici e le discussioni aperte, è l’antitesi di questo modello proprietario che decide vita e morte digitale delle aziende basandosi su metriche oscure.
La critica qui non è verso l’evoluzione tecnologica, ma verso la gestione del rilascio. È tecnicamente mediocre lanciare aggiornamenti che destabilizzano l’ecosistema senza fornire documentazione o strumenti di diagnosi.
Se un’API pubblica cambiasse endpoint senza avviso, gli sviluppatori insorgerebbero. Con la Search, accettiamo silenziosamente che le regole della fisica digitale vengano riscritte ogni due settimane.
Mentre chiudiamo questa analisi, i grafici della volatilità sono ancora in rosso profondo. Non sappiamo se questa sia la “nuova normalità” o solo l’ennesimo spasmo di un sistema che cerca di digerire la propria complessità crescente.
Resta però una domanda fondamentale che ogni sviluppatore dovrebbe porsi guardando questi dati: siamo sicuri che l’algoritmo stia ancora ottimizzando per la qualità dell’informazione, o sta semplicemente ottimizzando per se stesso?