Google ha iniziato a prenotare i tavoli al posto tuo
Google ha trasformato la ricerca in azione con AI Mode, che prenota ristoranti autonomamente. La svolta agentica ridisegna il rapporto tra utenti e servizi digitali.
La nuova funzionalità, che parte dalle prenotazioni al ristorante, è alimentata da un modello Gemini ottimizzato per compiere azioni.
Immagina di chiedere al tuo assistente di trovare un ristorante giapponese libero sabato sera per quattro persone, e di ricevere non un elenco di link, ma una prenotazione confermata. È esattamente quello che Google ha avviato nell’agosto 2025: stando a l’annuncio ufficiale delle capacità agentiche di AI Mode, la ricerca non restituisce più solo informazioni — agisce. Oggi, nell’aprile 2026, quelle prime mosse stanno ridisegnando il rapporto tra utenti, sviluppatori e i servizi che costruiscono sopra Google Search.
La svolta agentica: da ricerca a azione
Per anni, un motore di ricerca ha funzionato come una biblioteca con un ottimo indice: tu fai una domanda, lui ti indica dove trovare la risposta. Con AI Mode, Google ha spostato il confine: l’agente non si ferma alla risposta, ma esegue il passo successivo. Nel caso concreto annunciato ad agosto 2025, questo significa trovare disponibilità nei ristoranti e completare la prenotazione senza che l’utente debba aprire un’altra scheda. Secondo il lancio di AI Mode di Google annunciato durante Google I/O 2025, la funzionalità era già stata introdotta per tutti gli utenti statunitensi a maggio, ma le capacità agentiche vere e proprie — quelle che trasformano una query in un’azione — sono arrivate con l’aggiornamento di agosto. Il rollout ha iniziato con le prenotazioni di ristoranti, con l’espansione prevista agli appuntamenti per servizi locali e ai biglietti per eventi. L’analogia più utile è quella con un assistente di viaggio: prima ti dava l’orario dei treni, ora compra anche il biglietto.
Sotto il cofano: il modello Gemini e l’architettura IA
Per capire il salto tecnico, bisogna tornare indietro di qualche anno. Già nel maggio 2024, Google aveva introdotto la variante Gemini per Search, un modello Gemini personalizzato e ottimizzato per il contesto specifico della ricerca. Non si trattava di prendere il modello di base e applicarlo a Search: il modello è stato adattato per gestire query aperte, navigare strutture di dati eterogenee e costruire risposte che integrano più fonti in tempo reale. Questo è il motore che abilita l’IA generativa a farsi carico di attività come ricerca, pianificazione e brainstorming, sgravando l’utente dalla parte operativa.
Il contrasto con l’approccio precedente è netto. Un motore classico opera su un grafo di pagine indicizzate: riceve una stringa di testo, calcola un ranking, restituisce URL. Un agente basato su un large language model con capacità agentiche opera in modo fondamentalmente diverso: mantiene uno stato della conversazione, pianifica sequenze di azioni, chiama API esterne — nel caso delle prenotazioni, sistemi come OpenTable o partner diretti — e gestisce il feedback risultante per decidere il passo successivo. È una pipeline con loop di controllo, non un semplice retrieve-and-rank. L’introduzione di un modello Gemini customizzato per Search non è quindi un aggiornamento cosmetico: è il prerequisito architetturale che rende possibile questo tipo di orchestrazione. Senza un modello capace di ragionare sui passaggi intermedi e gestire l’incertezza delle risposte esterne, l’agente si rompe al primo timeout di un’API o alla prima risposta ambigua di un servizio di prenotazione.
Implicazioni per i builder e la corsa competitiva
Mentre Google avanza, il panorama si affolla rapidamente. A gennaio 2025, OpenAI aveva già rilasciato l’agente Operator di OpenAI — oggi rinominato ChatGPT Agent — un agente capace di navigare il web in autonomia, interagire con pagine tramite click, digitazione e scroll, e completare task per conto dell’utente. A marzo 2025, le prenotazioni hotel di Perplexity avevano già dimostrato che il concetto era tecnicamente fattibile su scala: gli utenti potevano completare una prenotazione alberghiera senza mai lasciare l’interfaccia del motore. E ad agosto 2025, in parallelo con l’aggiornamento di Google, Microsoft Copilot Actions è entrato direttamente in competizione sullo stesso territorio — le prenotazioni al ristorante — mostrando che nessuno dei grandi player vuole cedere questa fetta di superficie utente.
Le ricadute per chi sviluppa prodotti in questi settori sono concrete. Secondo lo studio IDC sull’IA agentica, entro il 2026 i brand nel travel, nella ristorazione e nell’ospitalità opereranno in un contesto dove scoperta, confronto, prenotazione e servizio post-vendita saranno mediati da agenti che agiscono per conto degli utenti. La stessa analisi precisa un punto che i developer dovrebbero tenere a mente: questi agenti non si limiteranno a cercare, ma valuteranno le opzioni applicando le preferenze dell’utente per trovare l’offerta più appropriata. Per chi costruisce sistemi di prenotazione, CRM o motori di raccomandazione, questo cambia profondamente i requisiti: non basta avere un’API REST che risponde a query standard. Serve esporre dati strutturati leggibili da agenti, gestire sessioni con stato, e garantire che le risposte siano deterministiche abbastanza da non far impazzire un orchestratore che aspetta un JSON pulito e riceve HTML malformato.
La domanda che rimane aperta è quella più interessante: in un mondo dove l’agente decide per l’utente quale ristorante prenotare, chi controlla davvero la distribuzione? Per gli sviluppatori, il futuro non è più solo indicizzare informazioni, ma costruire per agenti che agiscono — il che significa ripensare ogni livello dello stack, dall’esposizione dei dati alla logica di business, fino a dove e come i propri servizi vengono resi disponibili a questi nuovi intermediari intelligenti.