Google e il Web: la fine di un'era e l'avvento dell'AI

Google e il Web: la fine di un’era e l’avvento dell’AI

L’oracolo di Mountain View cerca di riscrivere le regole del web per sopravvivere alla sua stessa AI, mentre l’ecosistema rischia di implodere sotto il peso del “zero-click” e della proprietà della verità.

Siamo arrivati alla fine del 2025 e, se guardiamo i log dei server e le metriche di traffico globale, è evidente che qualcosa di fondamentale si è rotto nel patto implicito tra Google e il World Wide Web.

Per oltre due decenni, l’architettura di internet si è retta su uno scambio tecnicamente elegante: i crawler di Mountain View indicizzavano i contenuti, consumando banda e risorse dei server altrui, e in cambio restituivano utenti qualificati tramite i famosi link blu.

Era un sistema basato su un grafo deterministico, il PageRank, che premiava la rilevanza topologica. Oggi, quel grafo è stato offuscato da uno strato di inferenza probabilistica che sta cambiando per sempre la natura della ricerca online.

Non stiamo più parlando di un semplice aggiornamento dell’algoritmo, come i vecchi Panda o Penguin che terrorizzavano i SEO manager negli anni Dieci.

Quello a cui assistiamo oggi è un cambio di paradigma nel backend: il passaggio dal retrieval (recupero dell’informazione) alla synthesis (generazione della risposta).

L’integrazione massiccia di Gemini 2.5 e delle “AI Overviews” direttamente nella pagina dei risultati ha trasformato il motore di ricerca da un vigile urbano che dirige il traffico in un oracolo che trattiene l’utente nel proprio recinto recintato (walled garden).

Non è un caso che, per la prima volta nella storia recente, la quota di mercato globale di Google sia scesa stabilmente sotto la soglia del 90 per cento, segnalando che l’introduzione dell’intelligenza artificiale generativa ha paradossalmente aperto una crepa nella diga che sembrava indistruttibile.

Ma l’aspetto più affascinante, e tecnicamente inquietante, non è la perdita di qualche punto percentuale a favore di competitor come ChatGPT o Perplexity.

È il modo in cui Google sta cercando di riscrivere le regole della fisica del web per sopravvivere alla sua stessa innovazione.

L’illusione dell’oracolo onnisciente

Dal punto di vista ingegneristico, sostituire una query al database con una chiamata a un LLM (Large Language Model) è un’operazione incredibilmente costosa e rischiosa.

Invece di una lookup rapida su un indice invertito, Google ora deve gestire catene di ragionamento multi-step e “fan-out” delle query per assemblare una risposta coerente. Questo ha portato a un cambiamento nel comportamento dell’utente che i dati confermano in modo brutale: non cerchiamo più “keyword”, ma dialoghiamo con la macchina.

I report di fine anno indicano una crescita del 70 per cento anno su anno delle query conversazionali di tipo “parlami di”, un segnale inequivocabile che l’interfaccia utente sta addestrando gli umani a trattare il motore di ricerca come un consulente personale piuttosto che come un archivista.

Tuttavia, c’è un problema di fondo in questa architettura: l’allucinazione non è un bug, è una feature intrinseca dei modelli probabilistici.

Quando Google sintetizza una risposta, non sta “leggendo” e “riassumendo” nel senso umano del termine; sta predicendo il token successivo più probabile basandosi su vettori di similarità semantica. Il risultato è spesso plausibile, elegante, ma talvolta sottilmente errato. E mentre Google cerca di mitigare questo problema ancorando le risposte (grounding) ai risultati web tradizionali, l’effetto collaterale è la cannibalizzazione del traffico.

Sundar Pichai, CEO di Alphabet, continua a difendere questa strategia con una retorica che, agli occhi di un tecnico, appare quantomeno acrobatica. La narrazione ufficiale è che l’AI serve a smistare meglio il traffico, non a fermarlo.

Penso che più di ogni altra azienda, noi diamo priorità all’invio di traffico al web. Nessuno invia traffico al web nel modo in cui lo facciamo noi. Guardo altre aziende, realtà emergenti più nuove, che dichiarano apertamente che non è qualcosa che faranno. Noi siamo gli unici a renderlo una priorità assoluta, a tormentarci su questo, e così via.

— Sundar Pichai, CEO di Alphabet/Google

Eppure, basta guardare le analisi indipendenti per vedere che la realtà tecnica contraddice le dichiarazioni d’intenti. L’architettura stessa delle AI Overviews è progettata per soddisfare l’intento dell’utente on-page.

Se la risposta è completa, il click è superfluo.

È l’efficienza portata all’estremo, ma un’efficienza che rischia di affamare la fonte stessa dei dati.

Il paradosso del “zero-click”

Qui entriamo nel territorio dello scontro tra architettura software ed ecosistema economico. I dati del Pew Research Center del luglio 2025 hanno confermato ciò che molti sviluppatori sospettavano: gli utenti sono statisticamente meno propensi a cliccare sui link esterni quando appare un riassunto generato dall’AI.

Questo crea un loop di feedback negativo potenzialmente catastrofico.

I publisher creano contenuti, Google usa quei contenuti per addestrare i modelli e generare risposte in tempo reale (RAG – Retrieval-Augmented Generation), l’utente legge la risposta e non visita il publisher. Senza visite, il publisher non monetizza e smette di produrre contenuti. Senza nuovi contenuti, il modello di Google inizia a collassare su se stesso o a riciclare dati vecchi.

È il classico problema dell’Ouroboros digitale: il serpente che si mangia la coda.

Google sta cercando di risolvere questo problema introducendo i link all’interno delle risposte AI, promettendo che “AI Mode” avrà le fonti. Ma c’è una differenza sostanziale tra un link in una lista di dieci risultati (dove devi cliccare per sapere) e una citazione in nota a piè di pagina in un testo che ti ha già dato la soluzione. La frizione cognitiva introdotta dal riassunto AI è sufficiente a fermare la maggior parte degli utenti.

Tecnicamente, Google si trova in una posizione impossibile. Non può tornare indietro ai “dieci link blu” perché la concorrenza (OpenAI, Perplexity) offre risposte dirette che gli utenti sembrano preferire per la loro immediatezza.

Se Google non offre l’AI, perde utenti.

Se offre l’AI, distrugge l’ecosistema che alimenta la sua stessa AI.

La battaglia per la “verità” Computazionale

C’è un ultimo aspetto che merita un’analisi critica: la proprietà della verità.

Nel vecchio modello PageRank, la “verità” era delegata: Google diceva “questi siti sono autorevoli secondo i nostri calcoli, leggi loro”. Nel nuovo modello AI-centrico, Google diventa la fonte della verità. Questo sposta la responsabilità legale ed etica direttamente sui server di Mountain View.

Quando Pichai avverte di “non fidarsi ciecamente” dell’AI e che la ricerca tradizionale serve per avere informazioni “più ancorate”, sta ammettendo implicitamente i limiti dell’attuale stack tecnologico.

Stiamo costruendo interfacce utente che promettono onniscienza basate su backend che operano su probabilità statistiche.

È un disallineamento pericoloso.

La complessità dei nuovi modelli Gemini, capaci di ragionamento multimodale, maschera il fatto che sotto il cofano non c’è comprensione, ma solo una manipolazione simbolica estremamente sofisticata.

La tensione tra l’eleganza tecnica di un sistema capace di sintetizzare la conoscenza umana e la brutalità economica con cui questo sistema viene imposto al mercato è palpabile. I “guardrail” e i filtri di sicurezza implementati dagli ingegneri di Google sono cerotti su una ferita strutturale. L’open source, con modelli come Llama o Mistral, offre un’alternativa più trasparente dove almeno il codice di inferenza è visibile, ma non risolve il problema dei dati di training e della compensazione dei creatori.

La domanda che ci dobbiamo porre, mentre chiudiamo il 2025, non è se l’AI nella ricerca sia utile – lo è, indubbiamente, per scrivere codice, riassumere documenti o spiegare concetti complessi. La domanda è se possiamo permetterci un web dove l’unica entità che trae valore dai dati è quella che possiede le GPU per processarli.

Se il traffico verso il web aperto continua a prosciugarsi al ritmo attuale, cosa resterà da indicizzare per l’AI di Google nel 2030?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie