Gemini di Google: la fine del web come lo conosciamo?
Gemini non si limita a indicare le attività locali, ma suggerisce cosa pensarne, trasformando le opinioni umane in “fatti” generati dall’AI
Sembrava solo una questione di tempo prima che Google smettesse di fingere di essere un semplice intermediario per iniziare a fare il lavoro sporco: decidere per noi.
L’evoluzione di Gemini, l’intelligenza artificiale di Mountain View, non è più confinata a risposte creative o riassunti scolastici. Da qualche giorno, chi osserva con attenzione le pagine dei risultati di ricerca (SERP) ha notato un cambiamento sottile ma tettonico nel modo in cui vengono presentate le attività locali. Non si tratta più di dirvi dove si trova una pizzeria, ma di dirvi cosa dovete pensarne.
La promessa, come sempre, è la comodità. Perché leggere venti recensioni quando un algoritmo può masticarle e rigurgitare un verdetto sintetico?
Ma dietro questa facciata di efficienza si nasconde una ristrutturazione radicale dell’economia dell’attenzione locale, dove le opinioni umane diventano carburante grezzo per una macchina che non ha mai assaggiato una pizza in vita sua, eppure si arroga il diritto di dirvi che è “croccante al punto giusto”.
Il vero prodotto qui non è la ricerca, è la vostra capacità di giudizio, appaltata silenziosamente a un modello probabilistico.
L’appropriazione indebita del consenso
Per capire cosa sta succedendo, bisogna guardare oltre l’interfaccia utente luccicante. Esperti SEO e analisti hanno iniziato a segnalare che Gemini sta generando sezioni interpretative per le attività locali, categorie che non esistono nei dati strutturati forniti dai commercianti.
Etichette come “La gente parla soprattutto di…” o “I clienti amano ordinare…” non sono frutto di un sondaggio, ma di un’estrazione semantica aggressiva dai commenti degli utenti.
Qui sorge il primo, gigantesco conflitto di interessi. Le recensioni su Google Maps sono scritte da esseri umani che, teoricamente, possiedono il diritto morale sulla propria esperienza. Google sta prendendo questo capitale sociale, costruito faticosamente dai ristoratori e dai clienti, e lo sta trasformando in “fatti” generati dall’AI.
Se un algoritmo decide, basandosi su tre recensioni vecchie di due anni, che il servizio è “lento”, quella diventa la verità assoluta presentata in cima alla pagina, senza che l’utente debba mai scorrere verso il basso per verificare la fonte.
È la dittatura della sintesi: si perde la sfumatura, si perde il contesto, e soprattutto si perde la voce individuale a favore di un “consendo medio” calcolato da una macchina.
E non è tutto casuale. Se l’AI decide che il vostro locale è perfetto per “fare colpo a un appuntamento”, quella diventa la vostra identità digitale. Avete voce in capitolo? Probabilmente no. Google Business Profile sta diventando meno un pannello di controllo per i proprietari e più una semplice fonte di dati per addestrare Gemini.
Ma se l’appropriazione dei contenuti è preoccupante, l’impatto economico è potenzialmente devastante.
Il cannibalismo digitale
Per anni, il patto tra Google e il web è stato semplice: io ti do i miei dati, tu mi mandi traffico. Questo patto è ufficialmente rotto.
Con l’integrazione sempre più massiccia di Gemini nei risultati locali, l’obiettivo di Big G è trattenere l’utente all’interno del proprio ecosistema. Se l’AI mi dice già i prezzi, i piatti migliori, l’atmosfera e gli orari di punta, perché dovrei cliccare sul sito web del ristorante?
I dati, purtroppo, confermano questa tendenza al “giardino recintato”. Recenti analisi hanno evidenziato una riduzione del CTR organico del 34,5% dovuta agli AI Overviews, un numero che dovrebbe far tremare chiunque gestisca un’attività online.
Meno clic significano meno dati di prima parte per le aziende, meno possibilità di conversione diretta e una dipendenza totale dalla piattaforma di Google.
È il sogno bagnato di ogni monopolista: diventare l’unica interfaccia tra il desiderio e l’acquisto. Google non vuole più essere la mappa; vuole essere il territorio.
E mentre le conversioni all’interno dell’interfaccia AI sembrano aumentare, il costo per le aziende è la perdita di controllo sulla propria narrazione e sulla relazione col cliente. Siamo di fronte a un’estorsione algoritmica: o nutri la bestia con dati aggiornati e recensioni fresche, o sparisci nell’irrilevanza, sepolto da un riassunto generato automaticamente che favorisce il tuo concorrente.
Eppure, la parte più inquietante non è nemmeno quella economica, ma quella percettiva.
La realtà filtrata
L’ambizione di Google non si ferma al testo. Già a fine 2025, l’azienda aveva annunciato risultati locali in un formato visivo ricco, integrando foto e dati di Maps in un carosello che sembra progettato per ipnotizzare più che per informare. L’idea è di offrire una “vibrazione” del luogo prima ancora che ci mettiate piede.
Ma chi decide qual è la “vibrazione” giusta? Un’intelligenza artificiale che analizza i pixel delle vostre foto caricate su Maps. Se l’illuminazione è soffusa, Gemini potrebbe etichettare il locale come “romantico”; se c’è rumore visivo, potrebbe diventare “caotico”.
Stiamo delegando la percezione della realtà a un software che non ha corpo, non ha sensi e non ha gusto.
C’è un rischio enorme di appiattimento culturale. Se gli algoritmi premiano determinate caratteristiche visive o semantiche, i ristoratori inizieranno a ottimizzare i loro locali non per i clienti umani, ma per l’occhio digitale di Google.
Vedremo menù progettati per essere “riassumibili” da Gemini e arredamenti pensati per essere “interpretabili” dalla visione artificiale. È la gentrificazione algoritmica della realtà: tutto diventa più leggibile per la macchina, e probabilmente più sterile per noi.
La domanda che dovremmo porci, mentre scorriamo distrattamente questi nuovi riassunti intelligenti, non è se sono accurati. La domanda è: a chi giova questa sintesi?
Non certo al ristoratore che vede calare le visite al sito, e forse nemmeno all’utente, che viene nutrito con una pappa precotta di opinioni altrui. L’unico vero vincitore è il gatekeeper, che ora non possiede solo l’accesso all’informazione, ma anche la sua interpretazione.