Ahrefs e il futuro inquietante della SEO: tra automazione e perdita di controllo
La deriva autoritaria degli algoritmi SEO: Ahrefs automatizza il web, ma a quale prezzo?
Se c’è una cosa che il 2025 ci ha insegnato, è che la promessa di un web decentralizzato e democratico è stata definitivamente sepolta sotto tonnellate di parametri algoritmici.
Siamo alla fine di dicembre e l’industria della SEO (Search Engine Optimization), un tempo arte sottile di posizionamento, assomiglia sempre più a una corsa agli armamenti in un bunker sotterraneo.
L’ultima mossa arriva da Ahrefs, uno dei giganti dell’analisi dei dati web, che chiude l’anno con una serie di aggiornamenti che dovrebbero farci riflettere non tanto sulla tecnologia in sé, quanto sulla direzione inquietante che sta prendendo l’intera infrastruttura di Internet.
Non stiamo parlando di semplici ritocchi all’interfaccia. Qui siamo di fronte a un cambiamento di paradigma che trasforma gli strumenti di analisi in entità attive, capaci di mettere le mani nel codice dei nostri siti.
Patrick Stox, Tech Advisor dell’azienda, ha recentemente svelato nuove funzionalità di correzione automatica chiamate Patches, che permettono di risolvere problemi tecnici come redirect e canonicalizzazioni senza intervento umano diretto.
Comodo? Forse.
Inquietante? Decisamente.
L’idea che un software di terze parti abbia “permesso di scrittura” per modificare la struttura tecnica di un sito web apre scenari che farebbero impallidire qualsiasi responsabile della protezione dati.
Fino a ieri, il webmaster era il guardiano del cancello; oggi, stiamo consegnando le chiavi di casa a un algoritmo perché siamo troppo pigri o troppo sopraffatti per gestire la complessità che le stesse Big Tech hanno creato.
Se un aggiornamento automatico dovesse creare un loop di reindirizzamento o esporre dati sensibili, di chi sarebbe la responsabilità legale ai sensi del GDPR? Del proprietario del sito o del fornitore del software?
La normativa europea sulla privacy è chiara sulla responsabilità del titolare del trattamento, ma la pratica tecnica sta rendendo questa linea sempre più sfumata.
Il grande disaccoppiamento: quando i clic svaniscono
Ma perché questa frenesia di automazione? La risposta risiede in quello che gli analisti stanno iniziando a chiamare il “grande disaccoppiamento”.
I dati presentati agli eventi di settore di quest’anno dipingono un quadro a tinte fosche per chiunque viva di traffico organico. Google e i suoi cugini basati su LLM (Large Language Models) hanno smesso di essere motori di ricerca per diventare motori di risposta.
L’utente non clicca più; legge la risposta generata dall’IA e se ne va.
I dati sono impietosi. Le presentazioni di settore hanno evidenziato un calo drammatico dei clic organici da Google, scesi al 34,5% già a marzo 2025, mentre le panoramiche generate dall’IA sono quadruplicate.
Siamo di fronte a un ecosistema parassitario: le IA addestrate sui nostri contenuti (senza consenso e senza compenso) ora rispondono alle domande degli utenti rubando il traffico che spettava ai creatori originali.
In questo scenario apocalittico per gli editori, Ahrefs introduce strumenti per tracciare la “visibilità AI” e le menzioni nei prompt.
È ironico, quasi crudele.
Ti vendono lo strumento per misurare quanto sei diventato irrilevante. E qui emerge il lato grottesco della tecnologia attuale: le allucinazioni.
Controllate i gap dei concorrenti… Si tratta principalmente di ChatGPT che ha allucinazioni. Quando abbiamo controllato, tra il 3,6% e il 6% del nostro traffico proveniente dalla ricerca AI andava verso URL che non esistono, che non sono mai esistiti su ahrefs.com.
— Patrick Stox, Tech Advisor presso Ahrefs
Rileggete bene.
Fino al 6% del traffico generato dall’intelligenza artificiale punta a pagine fantasma. L’IA si inventa le fonti.
E la soluzione proposta dall’industria tech non è “aggiustiamo l’IA”, ma “create strumenti per gestire i redirect delle pagine inventate”. Stiamo costruendo infrastrutture reali per gestire fantasie digitali.
È un dispendio di risorse computazionali ed energetiche che serve solo a tamponare l’incompetenza strutturale dei modelli generativi.
L’illusione del controllo e la fame di dati
Un altro tassello di questo puzzle è l’integrazione sempre più spinta con Google Analytics 4 (GA4). La nuova possibilità di importare i dati di GA4 direttamente dentro piattaforme SEO esterne viene venduta come una “visione unificata”.
In realtà, è l’ennesimo accentramento di dati comportamentali.
Incrociando i dati di scansione proprietari con i dati di traffico di Google, si crea un profilo digitale del sito web e dei suoi utenti di una profondità spaventosa. Chi garantisce che questi dati aggregati non vengano utilizzati per addestrare ulteriormente altri modelli?
Il conflitto di interessi è strutturale: le aziende che ci vendono la visibilità sono le stesse (o partner stretti di quelle) che necessitano dei nostri dati per sopravvivere.
Il mercato sta spingendo gli operatori del settore ad adattarsi a strategie creative come il framework PIPE, cercando di andare oltre la semplice parola chiave, ma la verità è che stiamo solo cercando di indovinare cosa piace alla scatola nera.
L’introduzione del “Prompt Tracker” è emblematica: non stiamo più ottimizzando per le persone, stiamo ottimizzando per piacere a una macchina che decide, in base a calcoli probabilistici opachi, se il nostro marchio merita di essere menzionato o meno.
Chi paga il conto dell’automazione?
C’è un aspetto economico che spesso sfugge in queste analisi tecniche. Strumenti come “Patches” e le nuove suite di audit non sono nati per filantropia.
Sono nati perché il modello di business precedente – basato sull’aiutare i siti a posizionarsi su Google per ottenere clic – sta crollando. Se i clic diminuiscono, diminuisce il valore della SEO tradizionale.
Per restare rilevanti, aziende come Ahrefs devono trasformarsi in piattaforme di “manutenzione dell’infrastruttura” e di “intelligence sui brand”. Devono convincerti che, anche se nessuno visita il tuo sito, è fondamentale che il tuo sito sia tecnicamente perfetto per essere “letto” dalle IA.
È un gioco di prestigio notevole: ti convincono a curare il giardino anche se l’unico visitatore è un drone che scatta foto dall’alto per venderle a qualcun altro.
Inoltre, l’automazione delle correzioni tecniche (“Patches”) elimina, in teoria, la necessità di sviluppatori junior o consulenti SEO tecnici per le operazioni di base.
Un risparmio per le aziende? Forse.
Ma è anche un impoverimento delle competenze.
Se deleghiamo la comprensione del codice a un pulsante “Fix it”, cosa succederà quando l’algoritmo sbaglierà in modo catastrofico e non ci sarà più nessuno capace di capire perché?
In realtà abbiamo appena rilasciato venerdì alcune funzionalità aggiuntive all’interno di Patches e… site audit. Se non avete usato Patches, si tratta fondamentalmente di correzioni tecniche automatizzate. Quindi abbiamo rilasciato correzioni per i canonical, i reindirizzamenti e il linking interno automatizzato proprio venerdì.
— Patrick Stox, Tech Advisor presso Ahrefs
La facilità con cui viene annunciata la modifica automatizzata dei link interni e dei canonical dovrebbe far suonare un campanello d’allarme.
Stiamo standardizzando il web secondo le regole dettate da pochi attori privati. La diversità strutturale del web viene appiattita per renderla più digeribile alle macchine.
Siamo di fronte a un paradosso tecnologico: per sopravvivere in un ecosistema inquinato da contenuti sintetici e risposte allucinate, ci viene chiesto di adottare strumenti ancora più invasivi, di cedere ancora più dati e di automatizzare processi che dovrebbero richiedere giudizio umano.
La domanda che dovremmo porci non è se questi nuovi strumenti funzionino, ma per chi stiano lavorando davvero.
Stiamo ottimizzando il web per gli utenti, o lo stiamo solo impacchettando meglio per il pasto dell’Intelligenza Artificiale?