Bing AI ha raggiunto i 100 milioni di utenti
Microsoft annuncia che Bing AI ha superato i 100 milioni di utenti attivi giornalieri nel marzo 2023, rivoluzionando la ricerca con chat AI e sollevando questioni sulla sostenibilità editoriale.
La crescita ha messo in luce il conflitto tra l’efficienza dell’AI e il modello economico basato sui click che finanzia
Già nel marzo 2023, tre anni fa, Microsoft annunciava sul blog ufficiale di Bing dedicato agli editori che il nuovo motore di ricerca potenziato dall’intelligenza artificiale aveva superato i 100 milioni di utenti attivi giornalieri, con oltre 100 milioni di conversazioni via chat. Un numero che, guardato oggi, dice molto meno sul successo di un prodotto e molto di più sulla tensione strutturale che l’AI introduce nel modello economico del web: se l’utente ottiene la risposta direttamente dalla chat, chi paga i giornalisti, i blogger, i database che quella risposta l’hanno resa possibile?
Il Boom Numerico e la Svolta AI
Il lancio era avvenuto il 7 febbraio 2023, quando Microsoft aveva presentato la nuova versione AI-powered di Bing e del browser Edge, descrivendoli esplicitamente come “un copilota AI per il web” — un posizionamento deliberato, opposto alla ricerca tradizionale basata su link blu e snippet. L’interfaccia conversazionale non restituisce dieci risultati da visitare, restituisce una sintesi. Il modello di acquisizione ha funzionato: un terzo degli utenti in anteprima era nuovo per Bing, utenti che Google dava per scontati e che invece erano disposti a sperimentare un’alternativa purché offrisse qualcosa di qualitativamente diverso. Microsoft poteva contare anche su una rete di oltre 7.500 brand partner in Microsoft Start, una dorsale editoriale non banale su cui costruire l’integrazione dei contenuti. Ma proprio qui emergeva la contraddizione tecnica e commerciale: più la chat è efficace nel rispondere, meno l’utente ha bisogno di cliccare. E il click è ancora l’unità fondamentale su cui si misura il traffico — e quindi il fatturato — di quasi ogni editore online.
Il Contrasto tra Innovazione e Sostenibilità Editoriale
Il 29 marzo 2023 Microsoft pubblicò un post specificamente indirizzato alle preoccupazioni degli editori, ammettendo apertamente il problema: le risposte generate dalla chat AI rischiavano di ridurre il traffico verso i siti web di chi aveva prodotto i contenuti su cui il modello era stato addestrato — o che comunque venivano citati nelle risposte. Non è una preoccupazione astratta. Il meccanismo è preciso: un Large Language Model che sintetizza informazioni provenienti da fonti esterne opera come uno strato di astrazione tra il contenuto e il lettore finale. Dal punto di vista architetturale, è simile a un proxy cache che risponde sempre con un hit: il backend (il sito dell’editore) non viene mai raggiunto, il contatore di visualizzazioni resta fermo, le impression pubblicitarie non vengono servite.
La risposta di Microsoft è stata esplorare l’inserimento di annunci direttamente nell’interfaccia di chat, con un meccanismo di revenue sharing: i ricavi pubblicitari generati da quella conversazione verrebbero condivisi con i partner il cui contenuto ha contribuito alla risposta. L’idea ha una logica tecnica interessante — tracciare quali fonti hanno alimentato la risposta e attribuire una quota proporzionale — ma solleva domande non banali sull’implementazione. Come si calcola il peso di ciascuna fonte in una risposta sintetizzata? Quale percentuale dell’annuncio viene attribuita a chi ha scritto un paragrafo incorporato nel testo generato? Microsoft non ha dettagliato le metriche di attribuzione, e questo lascia aperto il rischio che il modello di distribuzione riproduca le asimmetrie già presenti nel programmatic advertising tradizionale, dove la quota che arriva all’editore finale tende a restringersi a ogni passaggio dello stack.
La Competizione e le Implicazioni Future per lo Stack
Mentre Microsoft cercava di costruire un ponte con gli editori, Google manteneva una postura diversa sul proprio strumento AI. In un incontro interno — riportato in un report CNBC sul meeting interno all’azienda — Jack Krawczyk, product lead di Bard, aveva dichiarato senza ambiguità: «Voglio essere molto chiaro: Bard non è una ricerca». Il posizionamento è rivelatore. Google stava separando concettualmente il proprio chatbot dal core business della ricerca, probabilmente per evitare di cannibalizzare il prodotto che genera la maggior parte dei suoi ricavi pubblicitari. Microsoft, arrivando da una posizione di sfidante con quote di mercato molto inferiori, poteva permettersi un approccio più aggressivo e integrato. Per chi sviluppa applicazioni o gestisce architetture web, la divergenza tra i due approcci non è solo di marketing: implica stack tecnici diversi, API con semantiche diverse, e soprattutto modelli di attribuzione del traffico profondamente incompatibili tra loro.
La lezione che emerge da quell’accelerazione del 2023 è che integrare un LLM in un motore di ricerca non è semplicemente un aggiornamento dell’interfaccia. È una riscrittura del contratto implicito su cui regge l’intera catena di valore del web aperto: i contenuti vengono prodotti perché generano traffico, il traffico genera pubblicità, la pubblicità finanzia i contenuti. Spezzare uno qualsiasi di questi anelli — per quanto con buone intenzioni tecnologiche — richiede di riprogettare gli altri. Il revenue sharing sulla chat è un tentativo in quella direzione, ma la sostenibilità del modello dipenderà da quanto sarà trasparente, verificabile e proporzionale. Per chi costruisce prodotti su questo stack, la domanda non è se l’AI entrerà nel flusso di ricerca — è già dentro — ma quali meccanismi di attribuzione e distribuzione sopravviveranno alla transizione.