Google Discover: focus qualità e local. Bing: controllo snippet AI e dati.
Da un lato, Google affina il suo feed di contenuti personalizzati per orientare gli interessi degli utenti e ridefinire la qualità, dall’altro, Microsoft punta su strumenti per gli editori e una maggiore sensibilità normativa dopo aver ritirato alcune funzioni AI.
Mentre Google continua a dominare incontrastato il mercato della ricerca con una quota superiore al 90 per cento, le sue mosse sono spesso dettate più da un’esigenza di perfezionamento interno che da una competizione diretta.
L’aggiornamento “core” di febbraio 2026 per Discover, il feed di contenuti personalizzati, ne è un esempio lampante.
Annunciato il 5 febbraio, l’update non modifica l’algoritmo di ricerca classico, ma i sistemi che selezionano articoli e notizie per la superficie di Discover.
L’obiettivo dichiarato è triplice: mostrare più contenuti locali dai siti basati nel paese dell’utente, ridurre il contenuto sensazionalistico e il clickbait, e privilegiare contenuti approfonditi, originali e tempestivi da siti con competenze riconosciute.
Un cambiamento che, dietro una narrazione di miglioramento dell’esperienza utente, cela una ricalibrazione significativa del potere di visibilità concessa agli editori.
La mossa di Google arriva in un momento in cui l’attenzione del pubblico e dei media è spesso catturata dalla sfida sull’intelligenza artificiale generativa.
Ma mentre Bing di Microsoft prova a scalfire il monopolio con chatbot e risposte sintetizzate, Google lavora silenziosamente su un fronte altrettanto cruciale: il controllo del flusso di attenzione e di traffico a monte della ricerca stessa.
Discover non è una semplice lista di link; è un ambiente curato che predice e orienta gli interessi dell’utente.
Modificarne i criteri significa influenzare direttamente la sopravvivenza di intere tipologie di siti web.
I primi dati della rollout, limitata per ora agli Stati Uniti in inglese, parlano già di fluttuazioni di traffico per alcuni siti di notizie e tech americani del 20-50%, mentre progetti internazionali basati su affiliazione e clickbait subiscono cali.
È una redistribuzione forzata della ricchezza digitale, gestita da un algoritmo la cui logica rimane opaca.
La risposta di Microsoft: strumenti per gli editori e una ritirata strategica
Dall’altro lato della barricata, Microsoft prosegue la sua strategia di accerchiamento, puntando su un mix di innovazione AI e servizi concreti per webmaster e advertiser.
Se nel 2023 Satya Nadella dichiarava che l’IA avrebbe “cambiato fondamentalmente ogni categoria di software, a partire dalla più grande di tutte – la ricerca”, oggi l’approccio sembra più pragmatico.
Gli annunci di febbraio 2026 per Bing includono funzionalità tecniche apprezzabili, come il supporto per l’attributo HTML data-nosnippet per controllare i contenuti nei snippet, e l’espansione a 24 mesi dei dati storici negli strumenti per webmaster.
Soprattutto, l’integrazione dello schema prodotto in IndexNow, con Shopify a bordo e Amazon in arrivo, promette un’indicizzazione quasi in tempo reale per aggiornamenti di prezzi e disponibilità.
Sono migliorie che semplificano la vita a chi il web lo costruisce, in netto contrasto con l’approccio a scatola chiusa di molti aggiornamenti Google.
Tuttavia, la notizia più rivelatrice è un’altra: Microsoft ha dismesso la funzione AI che creava “ricette Frankenstein” unendo passi da diversi publisher.
Quel tentativo di sintetizzare automaticamente procedure, scavalcando i siti di origine, aveva sollevato un vespaio di polemiche.
La ritirata è un’ammissione implicita dei limiti (e dei rischi legali) dell’estrazione aggressiva di contenuti.
Mentre Google spinge per “originalità”, Bing fa marcia indietro su una pratica che di originale non aveva nulla, mostrando una sensibilità diversa, forse dettata da una posizione di mercato che non permette troppi azzardi.
Le persone usano il Web per fare cose nel mondo reale, e questo è un grande cambiamento rispetto a dieci anni fa. E quindi i dieci link blu su cui la ricerca si è basata per l’ultimo decennio non hanno più senso.
In poche parole, non è così che si portano a termine le cose.
— Stefan Weitz, Senior Director di Bing
Tra algoritmi opachi e nuovi obblighi normativi
Il vero conflitto sotterraneo, però, non è solo tra Google e Microsoft.
È tra queste piattaforme e un ecosistema web sempre più stretto tra la dipendenza dal loro traffico e la necessità di sopravvivere.
L’update di Discover enfatizza l’“expertise” argomento per argomento, un concetto vago che Google afferma di valutare tramite i suoi sistemi.
Ma chi definisce cosa sia un’esperienza “più utile e preziosa”, come afferma Google nei suoi test?
La mancanza di trasparenza sugli indicatori specifici lascia gli editori nel buio, costretti a interpretare le conseguenze a rollout già avviato.
Nel frattempo, il quadro normativo si stringe.
Microsoft, con Bing sotto la lente del Digital Services Act (DSA) dell’UE come “motore di ricerca online molto grande”, ha dovuto pubblicare rapporti dettagliati sulle azioni contro la disinformazione.
Anche la privacy dell’AI è sotto esame: Microsoft ha sviluppato strumenti come “PrivacyChecker” per limitare la fuoriuscita di dati personali durante le inferenze dei modelli linguistici.
Queste non sono scelte etiche volontarie, ma risposte a pressioni legali precise.
Google, dal canto suo, naviga un territorio simile, dove ogni modifica algoritmica deve ora considerare potenziali accuse di pratiche anticoncorrenziali o di danneggiamento ingiustificato di terze parti.
La domanda che rimane, osservando questi paralleli aggiornamenti di febbraio, è se stiamo assistendo a una genuina corsa al miglioramento per l’utente o a una più cinica razionalizzazione dei rispettivi giardini recintati.
Google pulisce Discover per tenerlo dentro i confini della qualità (da essa definita), proteggendo il suo prodotto principale dalla deriva rumorosa del web aperto.
Microsoft, pur inseguendo il sogno AI di reinventare la ricerca con un Copilot integrato, dedica energie a costruire strumenti che rendano Bing più appetibile per chi produce contenuti, l’unico modo realistico per erodere quote di mercato.
In entrambi i casi, il potere di decidere cosa vediamo, e quindi cosa esiste finanziariamente online, si concentra ulteriormente.
L’open web, quello dei dieci link blu celebrato da Weitz come superato, forse non è mai stato così lontano.