L'autopsia del web: come l'ai sta inondando internet di spazzatura

L’autopsia del web: come l’ai sta inondando internet di spazzatura

Nel 2025 un’inondazione di pagine create dall’intelligenza artificiale ha cambiato il web, con Grokipedia come esempio di un sistema che si autoalimenta e dove Google e Microsoft lasciano le porte aperte.

Se c’è una data da segnare sul calendario per l’autopsia del web come lo conoscevamo, è probabilmente l’autunno del 2025.

Mentre noi eravamo distratti a dibattere sulle normative europee e sulle spunte blu a pagamento, qualcuno ha premuto un interruttore e ha inondato la rete con quasi un milione di pagine generate sinteticamente.

Siamo al 25 gennaio 2026 e il caso “Grokipedia” non è più un’anomalia tecnica: è il nuovo standard industriale.

Quello che sta accadendo sotto i nostri occhi è la perfetta rappresentazione di un ecosistema digitale che ha smesso di servire l’utente per iniziare a nutrirsi di se stesso, in un ciclo di cannibalismo algoritmico che le Big Tech ci vendono come “innovazione”.

La premessa era che l’intelligenza artificiale avrebbe ripulito il web; la realtà è che lo sta riempiendo di spazzatura ad alta fedeltà, e i guardiani dei cancelli – Google e Microsoft in testa – hanno deciso di lasciare le porte spalancate.

Ma andiamo con ordine, perché il diavolo, come sempre, si nasconde nei dettagli tecnici e nei silenzi dei comunicati stampa.

Il cortocircuito dell’indicizzazione

Tutto è iniziato in sordina lo scorso ottobre. Grokipedia, un progetto palesemente basato su contenuti generati da AI (probabilmente sfruttando i modelli di xAI di Elon Musk, data la nomenclatura, anche se la proprietà resta opaca), ha lanciato circa 900.000 pagine in un colpo solo.

In un mondo ideale, o almeno in quello che Google ci ha raccontato per due decenni, un sito del genere sarebbe stato confinato nel limbo dello spam, bollato come “contenuto di scarsa qualità” e sepolto alla pagina 50 dei risultati.

Invece, è successo l’opposto. Dopo un’esitazione iniziale, i motori di ricerca hanno iniziato a divorare queste pagine. Martin Jeffrey, un professionista SEO indipendente che monitora queste dinamiche, ha notato quasi subito l’anomalia.

Grokipedia è stata appena lanciata con 900.000 pagine generate dall’IA, e stanno già apparendo su Google.

— Martin Jeffrey, SEO Professional

Perché è rilevante?

Perché dimostra che i filtri di qualità di Google, sbandierati come baluardo contro la disinformazione, sono quantomeno permeabili quando si tratta di volumi massicci di dati strutturati.

Martin Jeffrey ha commentato la rapida indicizzazione delle pagine generate dall’IA di Grokipedia sottolineando come questo abuso di contenuti su scala si scontri con la retorica ufficiale di Mountain View sulla qualità. Se Google indicizza spazzatura sintetica, non è per errore: è perché ha fame.

Fame di pagine fresche da servire, fame di dati per addestrare i propri modelli Gemini, e terrore di lasciare che Bing o altri competitor abbiano un indice più vasto.

La situazione è precipitata con l’aggiornamento algoritmico di dicembre 2025. Invece di penalizzare questi aggregatori sintetici, l’update sembra aver aperto i rubinetti. Glenn Gabe, analista SEO, ha osservato come, dopo un inizio lento, la visibilità di Grokipedia sia esplosa.

Il numero di pagine indicizzate è triplicato stamattina (per Google). È ancora basso nel complesso ma in aumento. E Bing è ora a 52.000, in crescita rispetto alle 33.000 di ieri.

— Glenn Gabe, Analista SEO

Questo ci porta a una domanda scomoda: se l’algoritmo premia chi inonda il web di testo sintetico, che incentivo rimane per la creazione di contenuti umani originali?

E soprattutto, cosa succede ai nostri dati personali quando finiscono in questi frullatori digitali?

L’illusione della “navigazione pulita”

Mentre Google gioca a nascondino con i propri algoritmi, OpenAI ha cercato di posizionarsi come l’alternativa “curata” e sicura. Con il lancio delle funzionalità di ricerca integrate in ChatGPT (e il passaggio a GPT-5.2), la promessa era quella di fornire risposte dirette, saltando la giungla dei link blu e degli annunci pubblicitari.

Adam Fry, responsabile di OpenAI, ha dipinto un quadro idilliaco di questa nuova era della ricerca, dove l’utente viene guidato dolcemente verso la soluzione.

Adam Fry, responsabile di OpenAI, ha spiegato come le ricerche su ChatGPT permettano ora di trovare ristoranti, negozi e attrazioni direttamente dall’interfaccia, con una navigazione pulita e senza annunci.

— Adam Fry, Responsabile presso OpenAI

Ma “pulita” non significa “vera”.

E qui il cerchio si chiude in modo preoccupante. Adam Fry di OpenAI ha descritto le capacità di ricerca di ChatGPT come un modo per accedere direttamente a informazioni in tempo reale, ma queste informazioni da dove arrivano?

Grazie alla partnership con Bing, ChatGPT pesca dallo stesso stagno inquinato che Microsoft sta riempiendo con pagine come quelle di Grokipedia.

Ci troviamo di fronte a un fenomeno di “riciclaggio di informazioni”: un’IA (Grokipedia) scrive una sciocchezza plausibile; un motore di ricerca (Bing/Google) la indicizza conferendole autorità; un’altra IA (ChatGPT) la legge e la serve all’utente come fatto comprovato, citando la fonte sintetica come se fosse l’Enciclopedia Britannica.

È la validazione automatizzata della falsità.

E la privacy? In questo schema, il concetto di “diritto all’oblio” o di rettifica dei dati (artt. 16 e 17 del GDPR) diventa una barzelletta.

Se un’allucinazione AI su di voi finisce su Grokipedia, viene indicizzata da Google e poi recitata da ChatGPT, chi è il titolare del trattamento? A chi inviate la raccomandata per la rimozione? A un algoritmo che non ha sede legale?

Il prezzo nascosto della sintesi

Non illudiamoci che tutto questo sia casuale. Le Big Tech sanno perfettamente cosa stanno facendo.

L’aggiornamento di dicembre 2025 di Google non è stato un incidente di percorso, ma una ricalibrazione necessaria. Le analisi tecniche mostrano che l’aggiornamento Broad Core di Google di dicembre 2025 ha alterato significativamente le classifiche di ricerca favorendo proprio quei siti capaci di intercettare le nuove query conversazionali, indipendentemente dalla loro origine umana o sintetica.

Il modello di business è chiaro: eliminare l’intermediazione.

Se l’utente trova la risposta direttamente nella pagina dei risultati (Google AI Overviews) o nella chat (ChatGPT), non clicca sul sito originale. Ma per mantenere l’illusione di onniscienza, questi sistemi hanno bisogno di una quantità infinita di dati.

E se gli umani smettono di produrli gratis perché non ricevono più traffico, le aziende tecnologiche devono accontentarsi dei surrogati sintetici.

Siamo entrati nella fase del “Web Idroponico”: un internet coltivato artificialmente, senza terra, dove i frutti sembrano perfetti ma non hanno sapore.

E noi utenti? Noi non siamo più nemmeno il prodotto. Siamo diventati l’inefficienza del sistema, il vecchio hardware biologico che insiste ancora a voler verificare le fonti.

La domanda che dovremmo porci non è se Grokipedia sia affidabile, ma chi ci guadagna quando la distinzione tra vero e falso diventa tecnicamente irrilevante.

La risposta, temo, la troverete guardando i bilanci trimestrali di chi vi prometteva di “organizzare l’informazione mondiale”.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie