Ahrefs e la sorveglianza dell’ia: come le aziende manipolano chatgpt
La nuova frontiera del marketing digitale mira a influenzare le risposte di ChatGPT, Gemini e Perplexity, aprendo scenari inquietanti sulla manipolazione algoritmica e la sorveglianza dei modelli di intelligenza artificiale.
Se pensavate che l’era dell’ottimizzazione ossessiva per i motori di ricerca fosse giunta al termine con l’avvento dell’intelligenza artificiale, vi sbagliavate di grosso.
Anzi, la situazione sta per diventare decisamente più inquietante.
Il 20 gennaio scorso, Ahrefs — un colosso da oltre 100 milioni di dollari di fatturato annuo che ha costruito un impero sull’analisi dei backlink — ha lanciato una nuova funzionalità all’interno del suo strumento Brand Radar: il tracciamento dei “prompt personalizzati”.
In parole povere?
Le aziende ora possono pagare per spiare sistematicamente cosa ChatGPT, Gemini e Perplexity dicono di loro quando vengono interrogati con domande specifiche e sfumate. Non si tratta più di apparire nella prima pagina di Google, ma di infiltrarsi nella “coscienza” sintetica dei chatbot che centinaia di milioni di utenti interrogano quotidianamente.
E se questo vi sembra solo un altro strumento di marketing, forse non state guardando il quadro completo: stiamo assistendo alla nascita di una sorveglianza algoritmica progettata per manipolare le risposte dell’IA.
Finora, i brand navigavano alla cieca. Sapevano di dover essere presenti nelle risposte dell’IA, ma non avevano idea di come o quando venissero menzionati.
Ora, il velo è stato squarciato.
L’ossessione per il controllo della narrazione
Il problema fondamentale di questa tecnologia non è l’analisi in sé, ma l’incentivo perverso che crea. Fino a ieri, il monitoraggio della “visibilità AI” era limitato a query generiche e ad alto volume.
Ma l’aggiornamento di Ahrefs permette di scendere nel dettaglio microscopico, tracciando query a coda lunga (long-tail) che simulano il comportamento reale e imprevedibile degli utenti.
Tim Soulo, Chief Marketing Officer di Ahrefs, ha venduto la novità come un passo avanti necessario per la precisione dei dati:
I prompt personalizzati riguardano la granularità. L’indice nativo di Brand Radar offre ai marchi un’ampia visione sugli argomenti più cercati, ma i prompt personalizzati consentono ai team di diventare molto più specifici su dove vogliono misurare la loro visibilità AI.
— Tim Soulo, Chief Marketing Officer presso Ahrefs
La parola chiave qui è “misurare”, ma nel gergo del marketing digitale, misurare è quasi sempre il preludio a “manipolare”. Tim Soulo ha sottolineato l’importanza di monitorare i dettagli nelle risposte dell’IA, suggerendo che le aziende non si accontenteranno più di sapere se il loro brand esiste per l’IA, ma vorranno dettare il contesto in cui appare.
Se un’azienda scopre che a fronte della domanda “Qual è il miglior software per la privacy?”, ChatGPT suggerisce un concorrente, l’obiettivo immediato diventerà inondare il web di contenuti sintetici progettati specificamente per alterare quella risposta.
Stiamo passando dalla SEO (Search Engine Optimization) alla AIO (Artificial Intelligence Optimization), un terreno scivoloso dove la verità fattuale rischia di essere sacrificata sull’altare della persuasione algoritmica.
E tutto questo avviene in una scatola nera: nessuno sa esattamente perché un LLM (Large Language Model) cambi idea, ma ora tutti hanno un cruscotto per tentare di forzarla.
Una nuova economia basata sull’interrogatorio continuo
C’è poi l’aspetto economico e strutturale di questa operazione. Per far funzionare questo sistema, Ahrefs deve interrogare costantemente i modelli di OpenAI, Google e Perplexity.
Non stiamo parlando di qualche ricerca sporadica, ma di un bombardamento sistematico di prompt automatizzati per verificare “chi dice cosa”.
È ironico, se non tragico, considerare l’impatto ambientale e computazionale di tutto ciò. Mentre ci preoccupiamo del consumo energetico dei data center per addestrare i modelli, stiamo creando un’industria parallela che consuma risorse solo per interrogare quei modelli milioni di volte al giorno, non per ottenere informazioni utili, ma per vanità aziendale.
Negli ultimi anni sono nate decine di piattaforme di visibilità AI in risposta a ChatGPT, creando un ecosistema parassitario che si nutre delle output delle Big Tech per vendere rassicurazioni ai direttori marketing.
Ma chi ci guadagna davvero?
Ahrefs, certamente, che monetizza l’ansia dei brand. E paradossalmente, le stesse Big Tech che forniscono le API (o subiscono lo scraping) su cui si basano queste analisi. È un circolo vizioso in cui il valore informativo per l’utente finale — voi, che fate una domanda a Gemini sperando in una risposta onesta — è l’ultima delle priorità.
Se la risposta che ricevete è stata ingegnerizzata a monte grazie ai dati forniti da uno strumento di tracking, la “magia” dell’IA si riduce a un cartellone pubblicitario glorificato e conversazionale.
E la privacy? Qui entriamo in una zona grigia normativa.
Il rischio privacy nascosto nei “check”
Il GDPR ci ha insegnato a diffidare di chi raccoglie dati, ma spesso dimentichiamo che anche gli output dell’IA possono contenere dati personali.
Quando strumenti come Brand Radar scansionano le risposte per analizzare il “sentiment” o le menzioni, stanno processando enormi quantità di testo generato. Se un modello di IA “allucina” e inserisce dati personali errati o diffamatori in risposta a un prompt tracciato da un’azienda, chi è responsabile?
L’azienda che usa il tool per monitorare il proprio brand potrebbe trovarsi tra le mani dati sensibili riguardanti terzi menzionati nelle comparazioni. Ahrefs fornisce lo strumento, ma la responsabilità dell’uso ricade sul cliente. Inoltre, il sistema di “crediti” e check puntuali introduce una dinamica pay-to-play inquietante: più paghi, più sai come l’oracolo digitale ti percepisce.
È interessante notare come Ahrefs abbia già raccolto mesi di storico su piattaforme come ChatGPT e Perplexity, costruendo un database proprietario di “reazioni dell’IA”. Questo archivio diventerà presto una miniera d’oro per capire non solo come posizionare un prodotto, ma come sfruttare i bias cognitivi dei modelli linguistici.
Non è più “Google ha detto”, è “l’IA pensa”.
E cambiare il pensiero di un’IA è molto più pericoloso che scalare una classifica di link blu.
Siamo di fronte all’industrializzazione del bias.
Le aziende non vogliono che l’IA sia imparziale; vogliono che sia dalla loro parte. Con strumenti così granulari, il rischio non è solo commerciale, ma epistemologico: finiremo per interagire con chatbot che non sono assistenti intelligenti, ma portavoce inconsapevoli del miglior offerente, addestrati non sui fatti, ma sulle metriche di vanità di un report di marketing?