Pagine Zombie: l’industrializzazione dell’oblio digitale secondo Ahrefs
Dietro l’operazione di pulizia di Ahrefs si nasconde un modello di business che crea il problema dell’eccesso di contenuti per poi venderti la soluzione, sollevando questioni di privacy e sorveglianza digitale
Il termine Zombie Pages evoca scenari da film horror di serie B, ma nel 2026 descrive perfettamente lo stato di salute di gran parte del web.
È un cimitero digitale di URL indicizzati che non portano traffico, non convertono e, soprattutto, continuano a raccogliere polvere sui server.
La recente operazione condotta da Patrick Stox per Ahrefs — un audit in tempo reale del loro stesso blog per epurare questi contenuti morti — viene venduta come una lezione di igiene digitale.
Tuttavia, se grattiamo via la patina di efficienza aziendale, emerge una questione molto più spinosa che riguarda l’economia dell’attenzione, la privacy e il paradosso di un’industria che prima ci ha spinto a produrre contenuti compulsivamente e ora ci vende gli strumenti per distruggerli.
Siamo onesti: l’idea che un colosso dell’analisi SEO debba fare pulizia in casa propria ha un retrogusto ironico.
Per anni, la narrazione dominante è stata content is king, spingendo aziende e creatori a inondare la rete di articoli, guide e post nella speranza di accontentare l’algoritmo di Google.
Il risultato?
Un sovraffollamento digitale insostenibile.
Ora, figure come Stox ci dicono che gran parte di quel lavoro è inutile.
Anche se metti il cuore e l’anima nei tuoi contenuti, spesso questi non riusciranno a posizionarsi, convertire o fare nulla per la tua attività. È frustrante. Ma non devi lasciare che queste pagine muoiano di una morte lenta e dolorosa. Puoi rivisitarle, capire cosa è andato storto e agire per migliorare le loro prestazioni.
— Patrick Stox, Head of Outreach presso Ahrefs
Il messaggio è seducente nella sua logica spietata: uccidi ciò che non funziona.
Stox ha delineato una guida dettagliata sui processi di audit dei contenuti che spiega come identificare queste pagine zombi e decidere se aggiornarle, consolidarle o eliminarle definitivamente.
Ma c’è un dettaglio che sfugge ai più: per sapere che una pagina è “morta”, bisogna monitorarla costantemente.
E qui entriamo nel campo minato della sorveglianza dei dati.
La pulizia digitale come strategia di sorveglianza?
Per diagnosticare una “pagina zombi”, non basta guardare se il link è rotto. Bisogna analizzare il traffico, il comportamento dell’utente, i tempi di permanenza e i cosiddetti Core Web Vitals.
Significa che ogni singola interazione (o mancata interazione) viene tracciata, storicizzata e analizzata.
L’audit non è un’operazione neutra; è un processo che richiede un’ingestione massiccia di dati comportamentali.
Quando strumenti come Ahrefs eseguono queste scansioni, non stanno solo “controllando i link”. Stanno mappando l’infrastruttura del web.
Nel 2024, il team di Stox ha pubblicato uno studio su oltre un milione di domini per mappare gli errori tecnici, rivelando che il 72,3% dei siti soffriva di pagine lente e oltre il 60% aveva problemi di reindirizzamento. Questi dati sono oro colato per le aziende di analisi, ma sollevano dubbi legittimi sulla privacy.
Se un sito mantiene online migliaia di pagine inutilizzate che però contengono script di tracciamento di terze parti, stiamo esponendo i (pochi) visitatori a rischi di profilazione inutile su contenuti che nemmeno l’azienda proprietaria cura più.
Il GDPR parla chiaro in termini di minimizzazione dei dati: dovremmo raccogliere e conservare solo ciò che è necessario.
Una pagina zombi, per definizione, non è necessaria.
Eppure, resta lì, spesso con cookie attivi, in attesa di un visitatore errante da tracciare.
L’audit promosso da Stox, paradossalmente, diventa un favore alla privacy solo se l’obiettivo finale è la cancellazione totale (404 o 410), non il semplice “recupero” SEO per spremere qualche visita in più.
L’illusione dell’efficienza e il costo nascosto
C’è poi l’aspetto economico della questione, che puzza di conflitto di interessi lontano un miglio.
Le stesse aziende che ci vendono abbonamenti costosi per trovare le parole chiave su cui scrivere, ora ci vendono strumenti ancora più costosi per dirci che quello che abbiamo scritto non vale nulla.
È un modello di business circolare perfetto: crea il problema (la necessità di volume), vendi la soluzione al problema (l’audit e la pulizia).
Consiglio di seguire la regola dell’80/20 e di esaminare il 20% delle pagine con il maggior traffico organico o backlink. Probabilmente otterrete l’80% dei risultati facendo così.
— Patrick Stox, Head of Outreach presso Ahrefs
Questa logica dell’efficienza, applicata brutalmente alla produzione culturale e informativa, trasforma il web in un centro commerciale sterilizzato.
Se manteniamo solo il “top 20%” che performa, chi dà spazio ai contenuti di nicchia, sperimentali o semplicemente non ottimizzati per la vendita?
La visione di Stox è tecnicamente ineccepibile per il fatturato di un’azienda, ma culturalmente devastante.
Stiamo delegando la memoria del web a metriche di performance a breve termine.
Inoltre, l’evoluzione tecnologica ha reso questi audit sempre più invasivi.
L’azienda ha recentemente introdotto funzionalità avanzate di audit potenziate dall’intelligenza artificiale che permettono di scalare questi processi a livelli inimmaginabili fino a pochi anni fa.
L’IA non si limita a segnalare un errore; analizza semanticamente il contenuto per decidere se è “di valore”.
Ma “valore” per chi?
Per l’utente che cerca informazioni o per l’inserzionista che vuole posizionarsi?
Chi decide cosa merita di sopravvivere?
La narrativa dell’audit in tempo reale di Ahrefs nasconde una realtà più inquietante: il web si sta chiudendo.
Mantenere un sito “pulito” secondo gli standard di Google e Ahrefs richiede risorse tecniche ed economiche che tagliano fuori i piccoli editori e i blogger indipendenti. Le zombie pages sono spesso il risultato di risorse limitate, non di negligenza dolosa.
Quando Stox suggerisce di utilizzare strumenti automatizzati per decidere il destino delle pagine, sta implicitamente dicendo che l’algoritmo è il miglior redattore capo possibile.
È una visione tecnocratica che ignora il contesto.
Una vecchia pagina di un blog del 2015 senza traffico potrebbe contenere un’informazione storica unica, un’opinione divergente o una testimonianza rara.
Per l’algoritmo di audit è dead weight, peso morto da tagliare per migliorare il crawl budget (le risorse che Google dedica alla scansione del tuo sito).
Stiamo ottimizzando il web per le macchine, non per gli umani.
L’ossessione per i Core Web Vitals, la velocità di caricamento e la struttura dei link interni serve primariamente a facilitare il lavoro dei bot di Google, non a migliorare la vita dell’utente, che forse preferirebbe un sito più lento ma con archivi storici intatti.
In conclusione, l’operazione di pulizia di Ahrefs è tecnicamente affascinante e commercialmente astuta. Ma non scambiamola per una buona azione.
È l’industrializzazione dell’oblio digitale.
Mentre cancelliamo le nostre pagine zombi per risparmiare qualche millisecondo di caricamento e compiacere i motori di ricerca, dovremmo chiederci: stiamo rendendo il web più utile, o lo stiamo solo rendendo più facile da digerire per le intelligenze artificiali che presto lo riempiranno nuovamente di spazzatura sintetica?