La Rivoluzione Visiva: Come l’AI di Google Sta Riscrivendo le Regole dello Shopping
Google aggiorna Circle to Search e Lens con un nuovo modello di visione AI che esegue segmentazione semantica in tempo reale, trasformando la ricerca visiva in un motore di discovery attivo attraverso l'AI Mode.
Il sistema ora isola e codifica separatamente ogni elemento dell’immagine per lanciare ricerche parallele
Dietro l’ultimo aggiornamento di Circle to Search e Lens non c’è solo un miglioramento dell’interfaccia, ma un cambio di architettura nel modello di visione artificiale. Il sistema ora esegue una segmentazione semantica in tempo reale, isolando e codificando separatamente più entità all’interno di una singola scena prima di lanciare query di ricerca parallele. È come se per un’immagine di un outfit, il modello generasse non uno, ma diversi embedding vettoriali distinti per capo, ciascuno inviato al motore di prodotti.
La segmentazione semantica in tempo reale
Quando cerchi un outfit, il modello AI utilizza Lens per gestire più oggetti simultaneamente. Tecnicamente, l’aggiornamento sostituisce una pipeline sequenziale con un grafo computazionale che processa in un unico forward pass della rete neurale regioni diverse dell’immagine. Ogni componente—cappello, scarpe, giacca—viene mappato su uno spazio semantico condiviso con il catalogo prodotti, un’operazione di cross-modal retrieval che richiede una sincronizzazione millisecondo-perfetta tra i servizi.
Questa capacità di ricerca multipla in una singola immagine è il fondamento per l’AI Mode. Qui l’eleganza sta nell’orchestrazione: il sistema non si limita a restituire risultati, ma li usa come input per un nuovo ciclo iterativo. Parti da un prompt testuale come “visual inspo for work outfits” e poi, selezionando un elemento, con un comando vocale come “Show me more options like the second skirt”, attivi un processo fan-out generativo. In pratica, AI Mode esegue dozzine di ricerche in background, esplorando lo spazio delle possibilità in modo combinatorio.
Dall’immagine al carrello: il fan-out generativo
Il vero salto è la trasformazione della ricerca visiva da strumento di identificazione a motore di discovery attivo. L’utente non deve più sapere il nome di ciò che cerca; l’AI costruisce un albero di decisioni di prodotto al posto suo. Questo meccanismo cerca un intero outfit e ne scompone lo stile in attributi modificabili—colore, tessuto, silhouette—ricombinandoli in nuove proposte. La transazione commerciale inizia prima ancora che l’utente abbia formulato un intento d’acquisto chiaro.
Questa rivoluzione silenziosa sta già cambiando la percezione dei consumatori. Nel 2026, il 71% dei giovani crede di aver visto pubblicità create con l’IA, un balzo significativo rispetto al 54% di due anni prima. Il modello di advertising tradizionale, basato su annunci contestuali a parole chiave, diventa sempre più opaco per utenti che interagiscono tramite segnali visivi e conversazionali.
La sfida alla discovery tradizionale e il nuovo stack
Il punto di frizione non è solo tecnologico, ma di fiducia. Un rapporto sulla fiducia degli utenti di Reddit mostra come le comunità superino i motori tradizionali nella scoperta di nuovi brand. Google risponde spostando il baricentro dalla keyword alla visione AI, dove la “ricerca” è un dialogo continuo che genera il suo stesso contesto.
Per gli sviluppatori e i brand, questo significa ripensare lo stack di prodotto. Non basta ottimizzare i tag testuali; serve una libredia di immagini con metadati granulari e di alta qualità, processabili per l’estrazione di attributi visivi. L’API di Lens diventa un’infrastruttura critica quanto quella di ricerca testuale.
I cataloghi devono essere strutturati per essere interrogati non per SKU, ma per cluster di caratteristiche estetiche e funzionali estratte in tempo reale dall’AI. La partita si gioca sulla latenza del retrieval visivo e sulla pertinenza dei risultati generati, un problema di progettazione di sistemi distribuiti prima ancora che di marketing.