Negative seo e ai: come la diffamazione algoritmica sta minacciando le aziende
Benvenuti nell’era del “sabotaggio algoritmico”, dove la reputazione online è minacciata da manipolazioni subdole dell’Intelligenza Artificiale e la corsa al posizionamento si sposta verso nuovi, oscuri territori.
Per anni ci hanno raccontato che l’unico modo per sopravvivere nel darwinismo digitale fosse apparire primi su Google. Ci siamo ossessionati con le parole chiave, abbiamo ottimizzato i meta-tag fino alla nausea e abbiamo pregato l’algoritmo di Mountain View affinché il nostro business non finisse a pagina due, il moderno cimitero degli elefanti.
Ma mentre eravamo tutti impegnati a lustrare la nostra vetrina digitale per apparire più belli, qualcuno nell’ombra stava lavorando per rendere gli altri più brutti.
Siamo nel 2026 e la nuova frontiera non è più l’ottimizzazione per i motori di ricerca, ma la manipolazione delle risposte dell’Intelligenza Artificiale.
E se pensavate che le “fake news” sui social fossero un problema, aspettate di vedere cosa succede quando è l’oracolo digitale a cui affidiamo ciecamente ogni domanda a iniziare a diffamare la concorrenza.
Il fenomeno si chiama “Negative SEO” applicata all’AI, o più brutalmente sabotaggio algoritmico, ed è la dimostrazione lampante di come l’entusiasmo per i Large Language Models (LLM) abbia ampiamente superato la valutazione dei rischi di sicurezza.
Non stiamo parlando di semplici recensioni negative su Trustpilot, facilmente individuabili da un utente attento.
Stiamo parlando di inserire informazioni tossiche direttamente nel “cervello” dei modelli che generano le risposte di Google, ChatGPT o Perplexity, convincendo la macchina che un’azienda è inaffidabile, che un CEO è un truffatore o che un prodotto è difettoso.
La parte inquietante? Funziona, e le Big Tech sembrano non avere idea di come fermarlo senza rompere il giocattolo.
Il sabotaggio della verità sintetica
L’idea che i modelli di intelligenza artificiale siano imparziali aggregatori di conoscenza umana è una favola che piace molto agli uffici marketing della Silicon Valley, ma che regge poco alla prova dei fatti. Un recente esperimento condotto da Reboot Digital PR ha svelato quanto sia relativamente semplice “avvelenare il pozzo”.
I ricercatori hanno creato dal nulla un profilo per una persona inesistente, costruendo una narrazione digitale fittizia. L’obiettivo non era renderla famosa, ma renderla infame. Hanno disseminato il web di articoli e segnali negativi, attendendo che i crawler delle AI assimilassero questi dati.
Il risultato è stato agghiacciante: interrogando i modelli su questa persona immaginaria, le AI non si sono limitate a riportare i fatti, ma hanno elaborato risposte che incorporavano la diffamazione come verità assodata.
Non è un bug, è una caratteristica del sistema: i modelli linguistici sono macchine probabilistiche, non motori di verità.
Se la probabilità statistica associa un nome a termini negativi in contesti che la macchina reputa “autorevoli”, l’output sarà negativo.
Tuttavia, c’è un dettaglio tecnico che rende la questione ancora più insidiosa. L’esperimento condotto da Reboot Online ha evidenziato come l’IA tenda a favorire fonti autorevoli rendendo il sabotaggio difficile ma non impossibile, suggerendo che per manipolare con successo un modello non basta lo spam di bassa lega, ma serve una strategia coordinata che simuli autorità.
Questo significa che il ragazzino nello scantinato probabilmente non riuscirà a distruggere la reputazione di una multinazionale, ma un concorrente spregiudicato con un budget adeguato per comprare spazi su domini considerati “trustworthy” (affidabili) potrebbe riuscirci eccome.
L’ironia è palpabile: i sistemi costruiti per filtrare le “fake news” basandosi sull’autorità delle fonti sono diventati il vettore stesso della disinformazione, a patto che la bugia sia vestita con abiti costosi.
L’autorità come arma a doppio taglio
Per capire come siamo arrivati a questo punto, bisogna guardare indietro alle decisioni prese da Google e dagli altri giganti tech negli ultimi anni. La lotta allo spam tradizionale ha spinto i motori di ricerca a dare un peso sproporzionato all’autorevolezza del brand e del dominio.
Se un sito è “famoso”, ciò che dice è vero.
Questa logica, ereditata dai modelli AI, ha creato una vulnerabilità strutturale. Cyrus Shepard, noto analista del settore, ha osservato da vicino questa evoluzione. La transizione da un web fatto di “dieci link blu” a un web di “risposte dirette” ha eliminato la necessità per l’utente di verificare la fonte.
Se l’AI Overview di Google mi dice che il Ristorante Da Mario ha problemi sanitari, io non clicco per verificare: cambio ristorante.
Il danno è istantaneo, invisibile e, spesso, irreversibile.
Cyrus Shepard ha discusso in diverse interviste lo spostamento dell’attenzione SEO verso le panoramiche AI avvertendo sulla facilità di influenzare le risposte, sottolineando come una fetta sempre più consistente del lavoro di ottimizzazione miri proprio a manipolare quella singola, definitiva risposta che appare in cima allo schermo.
Il problema è che l’AI non ha il concetto di “contraddittorio”. Non esiste il diritto di replica nell’output di un LLM.
Se i dati di addestramento o i risultati in tempo reale (RAG – Retrieval-Augmented Generation) pendono da una parte, l’AI penderà da quella parte con la sicurezza di un fanatico.
È un ritorno ai giorni del Far West della SEO, ma con una posta in gioco più alta. I rischi di spam nelle risposte dell’AI ricordano le prime vulnerabilità di Google, dove l’autorità poteva essere simulata per ingannare il sistema.
— Cyrus Shepard, Analista SEO e Fondatore di Zyppy SEO
Le aziende si trovano così in una posizione paradossale: devono investire risorse non solo per promuoversi, ma per “difendersi” preventivamente da attacchi che potrebbero non essere ancora avvenuti.
È la nascita di un racket digitale perfetto, dove le agenzie di reputazione possono vendere protezione contro minacce che l’ecosistema stesso ha reso possibili.
Cyrus Shepard ha rivisitato i cambiamenti SEO del 2021 sottolineando come i rischi di spam nelle risposte AI siano reminiscenti dei primi giorni di Google, evidenziando un ciclo storico in cui ogni nuova tecnologia di ricerca apre falle che vengono sfruttate per profitto prima di essere (forse) chiuse.
Chi paga il conto della diffamazione algoritmica?
Qui entriamo nel campo minato della privacy e delle normative. Il GDPR (Regolamento Generale sulla Protezione dei Dati) europeo garantisce, in teoria, il diritto alla rettifica e all’oblio.
Ma come si applica questo diritto a una rete neurale?
Se un modello AI ha “imparato” che Mario Rossi è un truffatore perché è stato nutrito con dati avvelenati, non basta cancellare un record in un database SQL. Quell’informazione è diffusa nei pesi e nei parametri del modello, come una goccia di inchiostro in una piscina.
Le Big Tech, al momento, offrono soluzioni che assomigliano più a cerotti su una ferita d’arma da fuoco. Possono inserire filtri post-generazione (“guardrails”) per impedire al modello di rispondere a certe domande, ma non possono facilmente “disimparare” il concetto senza costosi ri-addestramenti.
E mentre i giuristi discutono sul sesso degli angeli, le aziende colpite vedono crollare i fatturati.
C’è poi l’aspetto economico. Chi guadagna da questo caos?
Ovviamente le piattaforme stesse, che possono vendere strumenti di “brand safety” o posizionamenti garantiti che bypassano l’organico (e quindi il rischio di manipolazione). È il classico schema: creare il problema (o ignorarlo colpevolmente) per poi vendere la soluzione.
Inoltre, fiorisce un sottobosco di servizi di “Negative SEO” nel dark web o sui forum specializzati, pronti a lanciare campagne di discredito automatizzato per poche migliaia di euro.
La realtà è che stiamo affidando la nostra reputazione a sistemi opachi, gestiti da aziende che hanno dimostrato più volte di privilegiare la velocità di rilascio rispetto alla sicurezza.
L’utente finale, abituato alla comodità della risposta pronta, perde la capacità critica di confrontare le fonti, diventando il bersaglio ideale di queste manipolazioni.
Siamo passati dal “Googlalo” al “Chiedilo all’AI”, ma nessuno ci ha spiegato che l’AI potrebbe essere stata imboccata dal nostro peggior nemico.
La domanda da porsi non è se il sistema sia fallibile, ma quanto siamo disposti a pagare, in termini di verità e privacy, per la comodità di non dover più cercare nulla.
E se la risposta che ricevete vi sembra troppo sicura di sé, forse dovreste iniziare a chiedervi chi ha pagato per renderla tale.