Gemini 2.0 risponde a domande più difficili

Gemini 2.0 risponde a domande più difficili

Google ha integrato Gemini 2.0 in AI Overviews per gestire query complesse. Microsoft ha risposto con una demo pubblica di Copilot, mentre l'AI riduce i click-through verso i siti editoriali.

L’aggiornamento del modello mira a risolvere problemi complessi di matematica e codifica, mentre Microsoft risponde con una dimostrazione pubblica.

Un anno fa, nel marzo 2025, Google annunciava un aggiornamento che sembrava tecnico ma aveva implicazioni molto più ampie: secondo l’annuncio ufficiale su AI Mode Search, il motore di ricerca aveva integrato Gemini 2.0 direttamente in AI Overviews negli Stati Uniti, con l’obiettivo esplicito di gestire domande più difficili. Il focus iniziale era su codifica, matematica avanzata e query multimodali — tre categorie dove i modelli precedenti mostravano i limiti più evidenti. In parallelo, Google ampliava l’accesso: gli adolescenti potevano finalmente usare AI Overviews, e non era più necessario effettuare il login per ottenere i riassunti generati dall’IA. Una mossa di distribuzione, non solo di ingegneria.

Il potenziamento di Gemini 2.0: da AI Overviews a domande difficili

Per capire il peso di quel lancio, bisogna contestualizzarlo. Google aveva introdotto AI Overviews a maggio 2024, poi già nell’ottobre dello stesso anno aveva eseguito quella che definiva la sua espansione più grande di sempre: stando al blog ufficiale, la espansione globale di ottobre 2024 portava AI Overviews in oltre 100 paesi. In meno di un anno, quindi, Google era passata da un lancio pilota a una copertura globale, e stava già spingendo sul modello sottostante.

Il salto a Gemini 2.0 non era cosmético. I modelli precedenti di AI Overviews funzionavano bene su domande fattuali dirette — il tipo di query dove recuperare e sintetizzare un paragrafo di Wikipedia è sufficiente. Ma su problemi di calcolo simbolico, su query che richiedono ragionamento multi-step, o su input che combinano testo e immagini, le prestazioni degradavano in modo visibile. Gemini 2.0 introduce capacità di ragionamento più robuste e un contesto più lungo, il che si traduce, in pratica, nella possibilità di rispondere a domande che prima venivano semplicemente “scartate” verso i link organici. Il contrasto con la versione precedente è diretto: dove prima l’utente riceveva una lista di risultati, ora riceve una risposta strutturata. Per chi costruisce contenuti tecnici sul web, la differenza non è sottile.

La risposta di Microsoft: Copilot in campo con una dimostrazione pubblica

La mossa di Google non è passata inosservata in casa Microsoft. Secondo quanto riportato dal confronto Copilot vs Google AI pubblicato da Stan Ventures, il 21 luglio 2025 un alto dirigente di Microsoft ha fatto qualcosa di insolito nelle guerre tra motori di ricerca: ha confrontato pubblicamente l’esperienza di Copilot Search con la modalità AI di Google, pubblicando un video dimostrativo in tempo reale su LinkedIn. Non un comunicato stampa, non un benchmark oscuro in un whitepaper — un video su LinkedIn, il formato più diretto possibile per raggiungere il pubblico tech e i decision maker aziendali.

C’è una certa ironia nel fatto che la risposta competitiva di Microsoft a un aggiornamento di modello sia stata essenzialmente una demo pubblica. Ma la scelta del canale racconta qualcosa: la battaglia per la ricerca AI si combatte sempre più sulla percezione dell’utente finale, non solo sui benchmark interni. Mostrare dal vivo dove Copilot fa meglio — o almeno non peggio — di Google AI Mode è un messaggio preciso rivolto a chi valuta quale strumento adottare nei flussi di lavoro quotidiani.

Le conseguenze per utenti e editori: dati e riduzione dei click-through

Mentre i due giganti si sfidano a colpi di modelli e demo, i numeri descrivono una trasformazione silenziosa nel modo in cui le persone accedono alle informazioni online. Secondo i dati di una ricerca del Pew Research Center sul comportamento di ricerca, il 58% dei partecipanti ha ottenuto almeno un riassunto generato dall’IA nel corso delle proprie ricerche su motori come Google. Non è un fenomeno marginale: più della metà degli utenti monitörati ha già incontrato l’IA come primo punto di contatto con l’informazione, prima ancora di vedere un link tradizionale. Lo stesso studio evidenzia che le funzionalità AI di Google riducono i tassi di click-through verso i siti degli editori — un dato che, letto insieme all’espansione globale di AI Overviews, delinea una tendenza strutturale.

La domanda che rimane aperta è quella più scomoda: se il motore di ricerca diventa il punto terminale della query — la risposta arriva direttamente nel SERP, senza che l’utente debba cliccare — qual è il modello sostenibile per chi produce contenuti? I publisher che hanno investito per anni in SEO tecnica, in contenuti strutturati, in schema markup ottimizzati per i motori, si trovano ora a fare da training data per i modelli che, in teoria, dovrebbero distribuire il loro traffico. L’architettura di AI Overviews — che aggrega, sintetizza e presenta — funziona esattamente perché esiste una massa critica di contenuti di qualità su cui appoggiarsi. Ma ridurre i click-through significa erodere l’incentivo economico a produrli.

Il ciclo che va dall’integrazione di Gemini 2.0 nelle risposte AI fino alla demo pubblica di Microsoft su LinkedIn non è solo una sequenza di annunci competitivi. È la mappa di un cambiamento architetturale nella distribuzione dell’informazione online, dove ogni scelta sul modello sottostante — quale query gestire con l’IA, fino a che punto espandere l’accesso, dove tracciare il confine tra risposta e link — ha ricadute dirette su chi costruisce e su chi consuma contenuti sul web. La ricerca AI non è più un esperimento in Labs: è l’infrastruttura che sta ridefinendo come funziona la discovery online.

🍪 Impostazioni Cookie