Geo: La strategia llms.txt porterà davvero profitto?

Geo: La strategia llms.txt porterà davvero profitto?

Dalla SEO alla GEO: l’industria del marketing si interroga sul futuro in un panorama dominato dalle intelligenze artificiali e dai modelli linguistici

C’è una vecchia gag di South Park, diventata ormai un meme archeologico dell’internet pre-AI, che riassume perfettamente lo stato di confusione, panico e avidità che stiamo vivendo in questo inizio di 2026.

Gli gnomi rubano le mutande con un piano in tre fasi: 1. Raccogliere mutande, 2. ?, 3. Profitto.

Nessuno sa cosa succeda nella fase due, ma tutti sono convinti che il profitto sia inevitabile.

Cyrus Shepard, veterano della SEO e fondatore di Zyppy, ha riadattato questo schema con un sarcasmo tagliente per descrivere la “Strategia SEO/AI per il 2026”: 1. LLMs.txt, 2. ?, 3. Profitto.

Dietro la battuta si nasconde una critica feroce, e forse l’avvertimento più onesto che il settore del marketing digitale abbia ricevuto negli ultimi mesi.

Mentre le aziende si affannano a compilare file di testo per “parlare” con le intelligenze artificiali, la domanda che nessuno sembra volersi porre è: a chi stiamo regalando le chiavi di casa, e perché siamo così sicuri che ci pagheranno l’affitto?

Il panorama tecnologico odierno ci vede nel mezzo di una transizione brutale dalla SEO alla GEO.

Non si tratta più di posizionare un link su Google, ma di convincere un modello linguistico probabilistico a “allucinare” il nome del nostro brand invece di quello di un concorrente. E in questa corsa all’oro, la merce di scambio siamo noi: i nostri dati, i nostri contenuti, la nostra privacy.

Il miraggio della “generative Engine Optimization”

L’industria del marketing ha una capacità quasi patologica di inventare nuove sigle per vendere vecchie insicurezze. La GEO è l’ultima arrivata.

L’idea di base è che, ottimizzando i contenuti in un certo modo (più autorità, dati strutturati, citazioni), si possa influenzare l’output di ChatGPT, Perplexity o delle AI Overviews di Google.

È un concetto affascinante, se non fosse che si basa su una premessa fondamentalmente fallata: l’idea che abbiamo il controllo su una scatola nera.

Non è un caso che questa ironia arrivi proprio mentre il settore cerca di darsi un tono di rispettabilità istituzionale.

Solo un mese fa, quasi 700 professionisti si sono registrati al primo summit online su AI SEO e GEO, cercando disperatamente di capire come non scomparire dai radar di ChatGPT.

L’evento, organizzato da Chris Raulf, ha segnato uno spartiacque psicologico: la presa di coscienza che il vecchio traffico web sta morendo e che la sopravvivenza dipende dalla benevolenza di algoritmi che nessuno comprende appieno.

Eppure, c’è un’ingenuità di fondo nel credere che “ottimizzare” per l’AI sia come ottimizzare per i motori di ricerca del 2015.

Google aveva bisogno dei siti web per mostrare annunci; le AI hanno bisogno dei siti web solo per addestrarsi, per poi rendere quei siti obsoleti.

La GEO, in molti casi, rischia di essere l’arte di apparecchiare la tavola per chi verrà a mangiarsi il tuo pranzo.

L’evoluzione della ricerca sta passando dai backlink ai Large Language Models, ma dobbiamo chiederci se stiamo costruendo visibilità o semplicemente alimentando la macchina che ci sostituirà.

— Cyrus Shepard, Fondatore di Zyppy SEO (durante il summit AI SEO & GEO)

Il cavallo di Troia chiamato llms.txt

Il fulcro della battuta di Shepard è quel file: llms.txt.

Per i non addetti ai lavori, è una proposta di standard tecnico (simile al vecchio robots.txt) che dovrebbe dire ai crawler delle intelligenze artificiali: “Ehi, prendi pure questi contenuti, sono ottimizzati per te”. Viene venduto come uno strumento di controllo, un modo per assicurarsi che l’AI legga le informazioni corrette sul tuo business.

Ma analizziamo la cosa con la lente della privacy e del diritto. Creare un file llms.txt equivale, di fatto, a un invito esplicito al data scraping.

In un’epoca in cui il GDPR (Regolamento Generale sulla Protezione dei Dati) impone limitazioni severe sul trattamento dei dati, dire a un’azienda come OpenAI o Google “scansiona tutto questo” è un azzardo legale enorme.

Se all’interno di quei contenuti ci sono dati personali, opinioni, o proprietà intellettuale sensibile, quel file di testo potrebbe essere interpretato come un consenso al trattamento.

E qui sta il paradosso: le aziende big tech ci chiedono di strutturare i nostri dati per rendergli la vita più facile nel prelevarli. Noi facciamo il lavoro sporco, puliamo i dati, li impacchettiamo con il fiocco del llms.txt, e loro li usano per addestrare modelli che venderanno a noi l’anno prossimo.

La fase 2 del piano di Shepard, il punto interrogativo, è proprio questo vuoto normativo ed economico.

Basta guardare la registrazione integrale di tre ore del summit per percepire l’ansia palpabile del settore: si passa dal costruire link al pregare che un modello linguistico ci citi, senza alcuna garanzia di ritorno sull’investimento o protezione dei propri asset digitali.

Chi controlla il rubinetto dei dati?

La narrazione dominante è che dobbiamo adattarci o morire. Ma adattarci a cosa?

A un modello di business predatorio dove il creatore di contenuti si assume tutti i rischi (legali, di produzione, di costo) mentre la piattaforma di AI incassa tutto il valore.

Quando un utente ottiene una risposta completa direttamente da un’AI, non clicca sul sito fonte. Il “Profitto” della fase 3, nella battuta di Shepard, è ironico perché per l’editore o l’azienda quel profitto non esiste, o è marginale.

Mentre Zyppy pubblica liste delle migliori aziende di ricerca generativa per aiutare i professionisti a orientarsi, è evidente che stiamo assistendo alla nascita di una nuova industria di intermediari. Consulenti che ti spiegano come farti scansionare meglio. Esperti che ti dicono come regalare i tuoi dati in modo più efficiente.

C’è poi l’aspetto inquietante del feedback loop.

Se tutti ottimizzano i contenuti per piacere alle AI (scrivendo in modo semplice, schematico, prevedibile), e le AI si addestrano su questi contenuti, stiamo andando incontro a un appiattimento culturale e informativo senza precedenti.

Stiamo modificando il nostro linguaggio non per comunicare con altri esseri umani, ma per essere digeribili da macchine statistiche.

Il rischio per la privacy è subdolo. Un sito che implementa queste “strategie GEO” potrebbe inavvertitamente esporre dati dei propri utenti o dipendenti in modi che le vecchie scansioni di Google non avrebbero mai evidenziato.

Una volta che un dato entra nei pesi di un modello neurale, “dimenticarlo” (il famoso diritto all’oblio sancito dall’art. 17 del GDPR) è tecnicamente un incubo, se non impossibile.

Il punto interrogativo di Shepard non è solo una gag. È il buco nero dove finiscono i nostri diritti digitali e la sostenibilità economica del web aperto.

Se la strategia per il 2026 è “LLMs.txt -> ? -> Profitto”, l’unica certezza è che il profitto sarà di chi possiede i server, non di chi scrive il file di testo.

Resta da chiedersi: siamo davvero disposti a barattare tutto il nostro archivio digitale per la vaga promessa di una citazione in una chatbox?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie