L'ia generativa e il futuro incerto dell'editoria online

L’ia generativa e il futuro incerto dell’editoria online

L’IA sta riscrivendo le regole dell’editoria digitale, ma a quale costo per chi crea i contenuti online?

Siamo nel gennaio 2026 e il modo in cui cerchiamo informazioni online è cambiato radicalmente, forse più di quanto siamo disposti ad ammettere.

Aprite il browser, digitate una domanda complessa e, invece di una lista di link blu da spulciare con pazienza, ricevete una risposta confezionata, completa, quasi umana.

È la magia dell’intelligenza artificiale generativa applicata alla ricerca, una tecnologia che ci fa risparmiare minuti preziosi ogni giorno.

Ma dietro questa comodità per l’utente finale si nasconde un paradosso che sta scuotendo le fondamenta dell’editoria digitale: se l’IA legge il web per noi e ci serve il riassunto su un piatto d’argento, chi ha ancora bisogno di visitare i siti originali?

La questione non è filosofica, è brutalmente economica.

Da quando l’IA è entrata nei motori di ricerca, editori e creatori di contenuti si trovano in una posizione scomoda: forniscono la materia prima (i testi) per addestrare e alimentare i modelli, ma ricevono in cambio sempre meno visite.

È un patto che scricchiola.

Microsoft, con il suo Bing Copilot, ha cercato di differenziarsi fin da subito promettendo trasparenza e citazioni, inserendo quei piccoli numeri cliccabili accanto alle affermazioni dell’IA.

Un bel gesto, sulla carta. Tuttavia, la realtà dei dati — o meglio, l’assenza di essi — racconta una storia diversa, fatta di numeri oscurati e metriche impossibili da tracciare.

Ed è proprio qui che l’entusiasmo per l’innovazione si scontra con la dura realtà dei bilanci.

Il mistero dei clic fantasma

Il problema tecnico è sottile ma devastante. Quando un utente interagisce con Copilot, il sistema utilizza una tecnica chiamata RAG (Retrieval-Augmented Generation): l’IA cerca le informazioni nell’indice di Bing in tempo reale, le elabora e genera una risposta.

In teoria, le fonti vengono citate.

In pratica, per chi gestisce un sito web, capire se quelle citazioni si trasformano in visite reali è diventato un indovinello senza soluzione.

Gli strumenti che i webmaster usano da decenni per monitorare il traffico, come Google Search Console o i Bing Webmaster Tools, sembrano improvvisamente obsoleti di fronte a queste nuove dinamiche.

Mancano i dati granulari. Un editore può vedere che il suo sito è stato usato per generare una risposta, ma non sa se l’utente ha effettivamente cliccato sul link o si è accontentato del riassunto.

È come avere un negozio in una strada trafficata, ma con le vetrine oscurate: sai che la gente passa, ma non sai se qualcuno si ferma a guardare la merce.

Questa opacità è diventata evidente quando Microsoft ha annunciato Copilot Search potenziando le risposte con l’IA, promettendo citazioni più dettagliate e fonti aggregate.

L’intenzione dichiarata era quella di aumentare la trasparenza, ma per gli addetti ai lavori il risultato è stato un aumento della frustrazione: più visibilità teorica, zero certezza sul ritorno dell’investimento.

Glenn Gabe, analista SEO di lunga data, ha sollevato il velo su questa problematica con un pragmatismo disarmante. La sua preoccupazione non è astratta, ma si basa sull’osservazione diretta di come l’interfaccia utente scoraggi l’approfondimento.

Con gli snippet nelle chat AI la situazione non sarà nemmeno paragonabile: ci saranno meno clic.

— Glenn Gabe, SEO Analyst presso Gabe Consulting

Se l’interfaccia risponde già a tutto, il clic diventa superfluo.

E se il clic non c’è, il modello di business basato sulla pubblicità o sugli abbonamenti crolla.

Ma c’è di più: anche quando i clic avvengono, spesso non vengono categorizzati correttamente, finendo nel calderone del traffico “diretto” o sconosciuto, rendendo impossibile per un’azienda capire se la sua strategia SEO per l’era dell’IA sta funzionando o meno.

Davide, Golia e i numeri che non tornano

Per comprendere la scala del problema, dobbiamo guardare i numeri. Nonostante gli sforzi titanici di Microsoft per rendere Bing e Copilot competitivi, il divario con Google resta un abisso.

Questo non significa che Bing non sia un prodotto tecnologicamente affascinante — per certi versi, l’integrazione dell’IA è stata più audace e rapida qui che altrove — ma le abitudini degli utenti sono dure a morire.

E per un editore, questo significa che ottimizzare per Copilot è una scommessa rischiosa: si investe tempo e risorse per una fetta di traffico che è ancora minoritaria.

I dati analizzati dagli esperti del settore mostrano una sproporzione allarmante. In alcuni casi monitorati, a fronte di 13 milioni di clic provenienti dai “featured snippet” di Google (i riquadri in evidenza nei risultati classici), Bing ne portava appena 400.000, e in altri scenari ancora meno, scendendo a poche decine di migliaia.

Questo scenario era prevedibile fin da quando Microsoft ha lanciato Bing Chat integrando GPT-4 nell’indice di ricerca, segnando l’inizio di un’era in cui la conversazione avrebbe sostituito la navigazione.

Tuttavia, il problema non è solo il volume di traffico, ma la cecità indotta dagli strumenti di analisi.

Gabe sottolinea come in passato, con i motori di ricerca tradizionali, fosse facilissimo capire quando si perdeva o si guadagnava visibilità. Oggi, con l’IA, siamo tornati a navigare a vista.

Abbiamo discusso la nostra preoccupazione sul fatto che l’utente medio non voglia cliccare per convalidare ciò che legge. Bing dovrebbe aggiungere questi dati ai Webmaster Tools.

— Glenn Gabe, SEO Analyst presso Gabe Consulting

La richiesta è semplice: dateci i dati.

Se l’IA sta usando il nostro lavoro per sembrare intelligente, il minimo che si possa chiedere è sapere quante persone stanno effettivamente leggendo la fonte originale.

Senza queste metriche, l’ottimismo tecnologico si scontra con un muro di diffidenza commerciale.

Ma la situazione potrebbe essere ancora più complessa di quanto appaia.

Siamo carburante gratuito per l’algoritmo?

C’è un aspetto di questa vicenda che viene spesso trascurato: il meccanismo di scambio alla base del web. Fino a ieri, il patto era “contenuti gratis in cambio di traffico”.

Oggi, con funzioni come la Deep Research di Copilot, l’IA è in grado di condurre ricerche complesse, incrociare decine di fonti e produrre report dettagliati che rendono la visita ai siti originali praticamente inutile per l’utente frettoloso.

È un capolavoro di ingegneria, un assistente personale instancabile che tutti vorremmo avere. Ma per chi scrive quei contenuti, è l’equivalente digitale di un vampiro energetico.

La tensione è palpabile, come evidenziato da Glenn Gabe in una recente analisi video sui flussi di traffico generati dalle nuove funzionalità di ricerca.

Gli editori si trovano costretti a partecipare al gioco — tramite protocolli come IndexNow che inviano istantaneamente i nuovi contenuti a Bing — per paura di sparire del tutto dall’orizzonte digitale.

È una corsa agli armamenti dove l’unica certezza è che l’IA ha bisogno di dati freschi, ma non è detto che l’IA abbia bisogno di restituire il favore.

Siamo di fronte a una tecnologia che migliora la nostra vita quotidiana, rendendo l’accesso alla conoscenza più democratico e veloce.

Non si può non essere entusiasti di un assistente che sintetizza in secondi ciò che richiederebbe ore di lettura.

Tuttavia, dobbiamo chiederci se questo modello sia sostenibile a lungo termine. Se togliamo l’incentivo economico a produrre informazioni di qualità, chi scriverà i testi su cui le IA del 2030 si alleneranno?

Stiamo forse costruendo la biblioteca più intelligente del mondo bruciando i libri per scaldarla?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie