Google AI Mode: prezzi invisibili, design ingannevole e profitti occulti?

Google AI Mode: prezzi invisibili, design ingannevole e profitti occulti?

Dietro ogni modifica all’apparenza innocua si celano A/B test e modelli di business orientati al profitto, a scapito della trasparenza per l’utente.

Se c’è una cosa che abbiamo imparato osservando l’evoluzione delle Big Tech nell’ultimo decennio, è che il design non è mai innocente.

Quando un pulsante cambia colore, quando un menu si sposta o quando un’informazione diventa improvvisamente difficile da leggere, raramente si tratta di una svista di uno stagista distratto. Dietro ogni pixel c’è un A/B test, un’analisi comportamentale e, quasi invariabilmente, un modello di business che cerca di ottimizzare i profitti a scapito della trasparenza.

Siamo a gennaio 2026 e gli utenti che hanno attivato la “AI Mode” di Google Search si stanno trovando di fronte a un fenomeno curioso, quasi comico se non fosse tragicamente indicativo di dove stiamo andando: i prezzi dei prodotti e le informazioni sull’inventario sono diventati fantasmi.

Letteralmente.

Appaiono scritti in un font talmente chiaro da risultare quasi invisibile su sfondo bianco. Un “glitch”, direbbero i tecnici.

Un’opportunità, direbbero i cinici.

Ma per capire perché Google potrebbe avere interesse a rendere il prezzo l’elemento meno visibile della pagina, dobbiamo fare un passo indietro e guardare come siamo arrivati qui.

Un errore di design o un “dark Pattern” evoluto?

Tutto è iniziato nel maggio dello scorso anno, quando Google ha lanciato la AI Mode nei Search Labs americani, promettendo un’esperienza di ricerca potenziata dai modelli Gemini. L’idea era quella di trasformare il motore di ricerca da un semplice elenco di link a un’interfaccia dinamica capace di “ragionare” e presentare i dati in modo visivamente accattivante.

Sulla carta, una rivoluzione. Nella pratica, stiamo assistendo alla trasformazione della Ricerca in una vetrina curata dall’algoritmo, dove l’utente viene guidato non verso l’informazione più pertinente, ma verso il flusso di interazione più redditizio.

Il problema emerso in questi giorni è sottile ma pervasivo. Quando un utente clicca su un prodotto all’interno di questa nuova modalità AI, le informazioni cruciali per l’acquisto – quanto costa e se è disponibile – svaniscono nel contrasto insufficiente. Recentemente, siano emersi report su prezzi e inventari visualizzati con caratteri quasi invisibili, sollevando dubbi legittimi sulla reale utilità di questa interfaccia per il consumatore finale.

Perché è importante? Perché nel design delle interfacce utente (UI), la gerarchia visiva è tutto. Se rendo il titolo del prodotto enorme e il prezzo invisibile, sto manipolando la psicologia dell’acquisto.

Elimino l’attrito del “dolore del pagamento” (the pain of paying) e spingo l’utente a cliccare ulteriormente, a entrare nel tunnel di vendita, o peggio, a interagire con l’annuncio senza avere il quadro completo. È un classico esempio di quello che in ambito privacy e tutela dei consumatori chiamiamo Dark Pattern: un design ingannevole progettato per spingere l’utente a compiere azioni che forse, con informazioni chiare, non avrebbe compiuto.

E qui casca l’asino, o meglio, l’algoritmo.

L’alibi della complessità tecnica

La difesa d’ufficio di Mountain View è prevedibile: la colpa è della “Generative UI”. Con l’integrazione dei modelli Gemini 2.5 e 3, l’interfaccia non è più statica, ma viene generata in tempo reale dall’intelligenza artificiale. In sostanza, ci dicono che la macchina ha “deciso” autonomamente che quel grigio chiarissimo stava bene su quel bianco latte.

Ci viene chiesto di credere che l’azienda che ha indicizzato l’intero scibile umano non riesca a insegnare alla sua IA il concetto base di contrasto WCAG (Web Content Accessibility Guidelines).

Questa narrazione dell’IA “imprevedibile” è comoda, ma non regge alla prova dei fatti. Sappiamo che Google possiede strumenti di controllo del design estremamente sofisticati. Nel 2025, per esempio, la piattaforma Google Ads ha introdotto linee guida precise per i brand, permettendo agli inserzionisti di controllare colori e font per allinearli alla propria identità visiva.

Se Google è in grado di garantire che il logo di una multinazionale appaia del colore esatto in un annuncio pubblicitario, perché la sua “AI Mode” non riesce a garantire che il prezzo di un paio di scarpe sia leggibile per l’utente comune?

La risposta potrebbe risiedere nella volontà di testare i limiti della nostra attenzione. Strumenti come “Google Stitch”, aggiornati proprio il mese scorso con capacità di design ancora più granulari, dimostrano che la tecnologia per il controllo fine dell’interfaccia esiste.

Se i prezzi sono illeggibili, non è perché l’IA è stupida.

È perché, in questo specifico esperimento, la leggibilità del prezzo non è il KPI (Key Performance Indicator) che l’algoritmo sta cercando di massimizzare.

La privacy è anche trasparenza

C’è un aspetto normativo che viene spesso trascurato quando si parla di “glitch” grafici. Il GDPR (Regolamento Generale sulla Protezione dei Dati) e le recenti normative europee sui mercati digitali (DMA e DSA) pongono un forte accento sulla trasparenza. La privacy non riguarda solo il furto di password o i cookie; riguarda il diritto dell’utente di comprendere l’ambiente digitale in cui si muove.

Se un’interfaccia basata sull’IA nasconde informazioni commerciali rilevanti, sta alterando il contesto in cui l’utente prende decisioni.

Stiamo “addestrando” questi sistemi con i nostri clic.

Ogni volta che clicchiamo su un prezzo illeggibile per vederlo meglio, stiamo dicendo all’algoritmo: “Questo design funziona, genera engagement”. E l’engagement, nel modello di business basato sull’attenzione, è la valuta suprema.

L’uso dell’etichetta “Search Labs” o “Esperimento” è diventato un comodo scudo legale. Permette alle Big Tech di rilasciare prodotti immaturi o, peggio, predatori, scaricando la responsabilità sull’utente che ha “scelto di partecipare al test”.

Ma quando il test coinvolge milioni di persone e i loro comportamenti d’acquisto, non è più un laboratorio: è il mercato reale.

Resta da chiedersi: se l’intelligenza artificiale è così avanzata da poter ragionare su concetti complessi e multimodali, com’è possibile che “dimentichi” di rendere visibile l’unica informazione che, in un’economia di mercato, dovrebbe determinare la scelta razionale del consumatore?

O forse, il vero obiettivo di questi nuovi modelli non è aiutarci a scegliere meglio, ma aiutarci a smettere di guardare il cartellino del prezzo?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie