Il declino di Google Search: La fine di un’era?
Il declino di Google non è un singolo evento, ma un cambiamento nel modo in cui gli utenti cercano informazioni, con i modelli di linguaggio che offrono risposte dirette e sintetizzate, mettendo in discussione l’efficacia del tradizionale modello “Blue Links”.
Per quasi due decenni, la barra di ricerca di Google è stata la porta d’ingresso predefinita di Internet, un monopolio di fatto costruito su un’infrastruttura di indicizzazione che non aveva rivali per velocità ed estensione. Per un tecnico, osservare il PageRank originale era come guardare un orologio svizzero: un meccanismo elegante, deterministico, basato sulla teoria dei grafi per ordinare il caos del web.
Ma l’eleganza tecnica, se non evolve, diventa obsolescenza.
Oggi, il 16 dicembre 2025, non stiamo solo osservando un calo statistico, ma la fine di un’era architetturale.
I numeri, per quanto asettici, raccontano una storia di erosione strutturale. Per la prima volta dal 2015, il dominio incontrastato di Mountain View mostra crepe sistemiche, non semplici fluttuazioni stagionali. Non è un crollo improvviso, ma una lenta emorragia di rilevanza tecnica.
Analizzando le metriche di fine anno, i dati indicano che Google è scesa sotto la soglia del 90% per tre mesi consecutivi, consolidando quella che nel gergo dell’analisi dati definiamo una tendenza, non un’anomalia (o outlier).
Questa discesa sotto la soglia psicologica e tecnica del 90% non è dovuta a un singolo “Google Killer”, ma a un cambiamento fondamentale nel protocollo mentale con cui gli utenti interrogano la rete.
Non cerchiamo più “documenti” contenenti parole chiave; cerchiamo risposte sintetizzate. E l’architettura classica dei motori di ricerca, basata sull’Information Retrieval (IR) tradizionale, sta faticando a competere con la capacità di inferenza dei Large Language Models (LLM).
L’inefficienza del modello “blue Links”
Dal punto di vista ingegneristico, il modello tradizionale di Google è diventato incredibilmente inefficiente per l’utente finale. Il processo richiede all’utente di: formulare una query (spesso “keywordese” innaturale), scansionare una lista di URL (SERP), cliccare, accettare i cookie, chiudere i pop-up, scansionare il contenuto, tornare indietro e ripetere.
È un ciclo con una latenza cognitiva altissima.
I nuovi attori, da ChatGPT a Perplexity, hanno sostituito l’indicizzazione pura con la generazione semantica.
Non ti danno una mappa della biblioteca; leggono i libri per te e ti riassumono il capitolo.
Questo spostamento ha un impatto misurabile: recenti analisi confermano che il traffico globale di Google è diminuito di quasi l’8% tra il 2023 e il 2024, una contrazione che in qualsiasi altro settore tecnologico farebbe scattare un codice rosso.
La reazione di Google, ovvero inondare le SERP di “AI Overviews”, appare tecnicamente goffa. È un tentativo di ibridare due architetture incompatibili: il vecchio motore basato sui clic pubblicitari e il nuovo oracolo basato sulle risposte dirette. Il risultato è spesso un’interfaccia utente (UI) confusa, dove l’allucinazione dell’AI si mescola ai risultati sponsorizzati, degradando l’esperienza utente (UX) che un tempo era il fiore all’occhiello di Google. Barry Schwartz, una voce storica nell’analisi dei motori di ricerca, ha inquadrato perfettamente la situazione statistica:
Come dice il vecchio detto: uno è un punto, due sono una linea e tre sono una tendenza. Chiaramente, stiamo vedendo una tendenza qui con Google che perde quote di mercato nella ricerca.
— Barry Schwartz, Contributing Editor presso Search Engine Land
Il paradosso demografico e tecnico
C’è un aspetto che va oltre la pura tecnologia: l’adozione. Se guardiamo ai log dei server e ai pattern di traffico, notiamo che l’abbandono di Google non è uniforme. È guidato da una demografia che considera la “ricerca per parole chiave” arcaica quanto noi consideriamo le schede perforate.
Per la Gen Z, l’interfaccia a riga di comando del futuro è il linguaggio naturale conversazionale.
I concorrenti non stanno vincendo perché hanno un indice migliore (nessuno ha l’indice di Google), ma perché hanno uno stack tecnologico diverso. Microsoft, integrando le capacità di OpenAI, ha lentamente eroso il margine, e oggi Bing si attesta al 4,19% mentre Yandex e altri player regionali guadagnano terreno. Può sembrare poco, ma in un mercato da miliardi di query giornaliere, ogni punto percentuale rappresenta un’enorme quantità di dati e introiti pubblicitari che cambiano server.
Inoltre, l’ascesa di motori “verticali” o basati su AI dimostra che l’approccio generalista (“un algoritmo per domarli tutti”) sta fallendo. La ricerca di codice avviene su GitHub o tramite Copilot; la ricerca di prodotti si sposta su Amazon o TikTok; la ricerca di conoscenza pura migra verso gli LLM.
Google è rimasta bloccata nel mezzo, cercando di servire tutti e finendo per non soddisfare pienamente nessuno, appesantita da un debito tecnico e da un modello di business che disincentiva la risposta diretta (perché riduce le visualizzazioni degli annunci).
Noam Dorros di Gartner offre una lettura lucida di questo fenomeno, sottolineando come la statistica nasconda una verità comportamentale più profonda:
Sebbene non possiamo attribuire direttamente i cambiamenti nelle quote di mercato a motori di ricerca basati sull’IA come Perplexity o SearchGPT, questo potrebbe essere un segnale che le fasce demografiche più giovani costituiscono una porzione più ampia dello spazio di ricerca e si stanno orientando verso motori di ricerca alternativi.
— Noam Dorros, Director Analyst presso Gartner
Il costo dell’inferenza e il futuro chiuso
C’è un’ombra inquietante su questa transizione, che ogni sviluppatore open source dovrebbe temere. Il passaggio dalla ricerca all’AI trasforma il web da una rete distribuita di nodi (siti web) a una serie di “giardini recintati” centralizzati. Quando Google (o ChatGPT) risponde direttamente, l’utente non visita più il sito fonte. Il protocollo HTTP, nato per collegare documenti, viene bypassato a favore di una chiamata API interna che genera testo.
Questo pone un problema di sostenibilità per l’intero ecosistema.
Se nessuno clicca sui link, chi scriverà i contenuti che le AI usano per addestrarsi?
Stiamo tecnicamente cannibalizzando la nostra stessa fonte di dati.
Google lo sa, ed è per questo che esita. I suoi concorrenti, che non hanno un ecosistema di publisher da proteggere (o da cui guadagnare), possono permettersi di essere distruttivi.
Il 2025 si chiude con una certezza tecnica: l’algoritmo di ranking statico è morto.
La battaglia ora è sulla latenza, sull’accuratezza dell’inferenza e sulla capacità di contestualizzare l’intento dell’utente senza costringerlo a navigare in un mare di pubblicità programmatica. Google ha ancora l’infrastruttura più potente del pianeta, ma nel software, come nella biologia, non sopravvive il più forte, ma chi si adatta meglio all’ambiente.
E l’ambiente, oggi, non parla più il linguaggio delle keyword.
Resta da chiedersi: in un futuro dove l’AI mastica e rigurgita il web per noi, avremo ancora bisogno di un motore di ricerca, o ci basterà un oracolo proprietario che decide quale verità servirci?