Google e la volatilità della ricerca: un terremoto silenzioso il 21 gennaio 2026
Dietro le quinte del web si consuma un terremoto silenzioso, con Google che ridefinisce la visibilità online a colpi di algoritmi non confermati e margini di profitto
Se c’è una cosa che abbiamo imparato osservando i giganti della tecnologia nell’ultimo decennio, è che il caos non è quasi mai accidentale.
È il 21 gennaio 2026 e, mentre la maggior parte degli utenti digita le proprie interrogazioni nella barra di ricerca con l’ingenua fiducia di chi crede di accedere a una biblioteca universale neutrale, dietro le quinte si sta consumando l’ennesimo terremoto silenzioso.
I sismografi del web — quegli strumenti di terze parti che monitorano le fluttuazioni dei risultati di ricerca — sono impazziti.
Di nuovo.
Non stiamo parlando di un semplice aggiornamento di manutenzione. Stiamo assistendo a quella che sembra una ridefinizione chirurgica della visibilità online, un processo opaco che decide chi vive e chi muore nell’economia digitale.
Barry Schwartz ha documentato un’intensa volatilità e discussioni accese nella community SEO tra il 20 e il 21 gennaio, segnalando picchi che fanno impallidire le normali oscillazioni quotidiane.
Ma perché Google, dopo aver concluso un massiccio Core Update a fine dicembre 2025, sta scuotendo l’albero con tanta violenza proprio ora?
La risposta, come spesso accade quando si gratta la superficie lucida della Silicon Valley, ha probabilmente molto più a che fare con i margini di profitto e il controllo dei dati che con la “qualità dei contenuti”.
Il silenzio assordante di Mountain View
La tattica è ormai collaudata: rilasciare modifiche devastanti all’algoritmo senza conferme ufficiali.
Nel gergo tecnico si chiamano “aggiornamenti non confermati”, un eufemismo elegante per dire “facciamo quello che vogliamo e non siamo tenuti a spiegarvelo”. Tra il 6 e il 15 gennaio avevamo già visto le prime avvisaglie, ma l’evento di oggi, 21 gennaio, ha un sapore diverso.
È la conferma che l’instabilità è diventata la nuova norma, una strategia deliberata per mantenere l’ecosistema digitale in uno stato di perenne precarietà.
Se nessuno sa quali sono le regole, l’unico modo per vincere è pagare.
Ed è qui che la critica deve farsi affilata. In un contesto dove un sito web può perdere il 70% del traffico in una notte — come riportato da diversi webmaster disperati sui forum di settore — l’unica ancora di salvezza diventa Google Ads. Creare il problema (volatilità organica) e vendere la soluzione (visibilità a pagamento) è un modello di business tanto vecchio quanto efficace, ma nell’era del monopolio digitale assume contorni inquietanti.
Barry Schwartz, una delle voci più autorevoli nel monitoraggio di questi fenomeni, ha notato come la situazione sia degenerata rapidamente dopo un fine settimana apparentemente tranquillo:
La scorsa settimana, il 15 gennaio, ho riferito di un aggiornamento del ranking di ricerca di Google con molta volatilità accesa. La verità è che è continuato per tutto il fine settimana, ma ora sta picchiando di nuovo verso l’alto tra ieri e oggi, 20 e 21 gennaio.
— Barry Schwartz, Executive Editor presso Search Engine Roundtable
Questa “montagna russa” non è un bug tecnico.
È una funzionalità.
Mantenere i creatori di contenuti, le aziende e gli editori sulle spine significa costringerli a produrre di più, a ottimizzare ossessivamente (spesso a scapito della leggibilità) e, soprattutto, a dipendere totalmente dalla benevolenza dell’algoritmo. Ma c’è un aspetto ancora più insidioso che riguarda la privacy degli utenti e la manipolazione delle informazioni.
Chi paga il conto delle “correzioni”?
Quando l’algoritmo cambia, non cambiano solo le posizioni dei siti: cambia la dieta informativa di milioni di persone.
Se Google decide improvvisamente di penalizzare i siti indipendenti a favore di aggregatori o, peggio, delle proprie risposte generate dall’Intelligenza Artificiale, sta attivamente restringendo il pluralismo. I report indicano che la volatilità di gennaio 2026 sta colpendo duramente i piccoli editori.
E cosa succede quando un piccolo editore perde traffico?
Spesso, per sopravvivere, è costretto a riempire le proprie pagine di tracker pubblicitari ancora più invasivi, vendendo i dati dei propri utenti al miglior offerente nel disperato tentativo di monetizzare quel poco traffico rimasto.
È un circolo vizioso alimentato da Mountain View. Da un lato Google si erge a paladino della privacy con iniziative come la “Privacy Sandbox” (che, ricordiamolo, serve a consolidare il suo controllo sui dati, non a liberarcene), dall’altro crea le condizioni economiche affinché il web diventi una giungla di sorveglianza commerciale.
Le analisi video di esperti del settore confermano un surriscaldamento della volatilità nei ranking di ricerca per tutto il mese, suggerendo che non si tratta di assestamenti post-dicembre, ma di una nuova direzione algoritmica.
E qui entra in gioco il GDPR. Il Regolamento Generale sulla Protezione dei Dati dovrebbe tutelarci dalla profilazione aggressiva, ma se l’infrastruttura stessa della ricerca spinge verso modelli di business predatori, la normativa rischia di essere un’arma spuntata.
La volatilità odierna potrebbe essere il preludio a un’integrazione ancora più massiccia di sistemi AI che necessitano di “ripulire” le SERP (pagine dei risultati) da contenuti che Google non ritiene utili per l’addestramento dei propri modelli o per le risposte dirette.
L’ombra dell’ai e la fine della neutralità
Non possiamo ignorare l’elefante nella stanza: l’Intelligenza Artificiale.
Nel 2026, la battaglia non è più solo sui link blu, ma su chi fornisce la “risposta definitiva”. Ogni volta che l’algoritmo trema, come oggi, è lecito sospettare che Google stia facendo spazio ai propri prodotti. Se l’utente trova la risposta direttamente nell’interfaccia di Google (magari generata da un LLM che ha “imparato” leggendo proprio quei siti che ora vengono declassati), il traffico verso la fonte originale crolla a zero.
È il paradosso del vampiro: Google succhia la conoscenza dal web aperto per nutrire la sua AI, e poi nasconde o penalizza le fonti originali perché diventate “ridondanti”.
La volatilità del 21 gennaio potrebbe essere letta come un ulteriore passo verso questo giardino recintato. Le aziende che vedono crollare i loro posizionamenti oggi si chiederanno: cosa abbiamo sbagliato?
La risposta crudele è: probabilmente nulla.
Avete semplicemente smesso di essere utili al nuovo paradigma di Google.
Inoltre, c’è la questione della responsabilità. Quando un algoritmo decide in autonomia (o quasi) cosa è “vero” o “autorevole”, e lo fa con una volatilità tale da cambiare la realtà percepita da un giorno all’altro, chi ne risponde?
Non esiste un numero verde per l’algoritmo. Non esiste un appello trasparente. Esiste solo una scatola nera che oggi ha deciso di mescolare le carte in tavola.
Siamo di fronte a un sistema che non tollera vuoti di potere. La volatilità non è un segno di debolezza del sistema, ma una dimostrazione di forza. Ricorda a tutti chi è che detiene le chiavi dell’informazione.
E mentre noi ci preoccupiamo di ottimizzare i meta-tag o di rispettare le linee guida, loro stanno ottimizzando i loro bilanci e il loro controllo sull’infrastruttura cognitiva globale.
La domanda che dovremmo porci, guardando i grafici impazziti di oggi, non è “come recupero il mio posizionamento?”, ma “possiamo davvero permetterci che l’accesso alla conoscenza mondiale dipenda dall’umore di un singolo algoritmo commerciale?”.
Fino a quando considereremo questa instabilità come un fatto tecnico e non politico, saremo sempre ostaggi, non utenti.