Ai Seo: Quando l'ottimizzazione si trasforma in auto-sabotaggio

Ai Seo: Quando l’ottimizzazione si trasforma in auto-sabotaggio

Tra Schema markup e file per l’AI, l’industria del web si interroga sull’utilità di ottimizzare i dati per i modelli di linguaggio, con il rischio di lavorare gratis per addestrare le macchine che potrebbero sostituirla

C’è una certa ironia, quasi crudele, nel guardare l’industria del web affannarsi per servire la colazione a letto ai giganti della tecnologia, sperando in cambio di ricevere almeno le briciole.

Siamo all’inizio del 2026 e la febbre per la “AI SEO” – l’ottimizzazione dei siti per i modelli di linguaggio – ha raggiunto livelli di parossismo che ricordano la corsa all’oro, se l’oro fosse fatto di dati personali e il setaccio fosse algoritmo opaco di Mountain View.

Per mesi, consulenti e aziende hanno investito risorse ingenti per strutturare i propri dati, etichettare ogni virgola con lo standard Schema.org e creare file speciali per le intelligenze artificiali, convinti che questo fosse il biglietto d’oro per la visibilità nel nuovo mondo dominato dai chatbot.

Poi arriva John Mueller di Google e, con la consueta flemma di chi detiene le chiavi del regno, smonta il castello di carte.

O almeno, ne toglie le fondamenta di certezza.

La narrazione secondo cui “più strutturi i dati, più piaci all’AI” si è scontrata con un muro di realtà: a Google, dei vostri sforzi per rendere i dati leggibili, importa solo quando serve a loro.

E spesso, non serve quanto credete.

Non è un caso isolato, ma il sintomo di una relazione tossica in cui i creatori di contenuti lavorano gratis per addestrare le macchine che, potenzialmente, li sostituiranno. Ma andiamo con ordine, perché il diavolo si nasconde nei dettagli tecnici.

Il miraggio della comprensione universale

La questione centrale ruota attorno allo “Schema markup” (o dati strutturati), quel codice invisibile agli utenti ma prezioso per le macchine, che dice a Google: “Questa stringa di testo è un prezzo, questa è una data, questo è l’autore”.

La speranza del mercato era che, nutrendo i Large Language Models (LLM) con dati così ordinati, si ottenesse un vantaggio competitivo enorme.

La realtà? È molto più ambigua.

In una discussione recente su Reddit, diventata rapidamente il centro del dibattito tecnico, Mueller ha chiarito che l’utilità di questi dati per i modelli di Google non è assoluta. Anzi.

Google ha ufficialmente dichiarato che i dati strutturati non sono un fattore di ranking diretto, ma servono piuttosto per identificare funzionalità specifiche come le recensioni dei prodotti.

In pratica: usate lo Schema se volete apparire nei box dello shopping (dove Google guadagna), ma non illudetevi che questo renda il vostro sito “più intelligente” agli occhi dell’algoritmo generale per il posizionamento.

La doccia fredda è arrivata quando Mueller ha specificato che l’uso di questi markup “dipende”. Dipende dalla funzione, dalla lingua, dal contesto.

Non è un lasciapassare universale.

Esattamente. Comprendete che i tipi di markup vanno e vengono, ma sono pochi quelli preziosi a cui dovreste aggrapparvi, come il title e i meta robots.

— John Mueller, Google Search Advocate

Questa affermazione è un campanello d’allarme che molti preferiscono ignorare. Significa che l’infrastruttura semantica che state costruendo oggi potrebbe essere obsoleta domani, appena Google deciderà che i suoi modelli sono abbastanza bravi da capire il testo grezzo senza il vostro “aiuto”.

E qui sorge il dubbio legittimo: stiamo ottimizzando per il futuro o stiamo solo facendo i bibliotecari non pagati per un archivio che non ci appartiene?

Ma se lo Schema markup è un terreno scivoloso, c’è un’altra innovazione che è stata liquidata con ancora meno cerimonie.

La trappola dei file per l’ai

Nel tentativo di ingraziarsi le macchine, qualcuno aveva proposto l’idea di file specifici (come llms.txt o versioni Markdown dei siti) pensati esclusivamente per essere letti dai bot di intelligenza artificiale.

L’idea, apparentemente logica, era di fornire una versione “pulita” del sito, priva di design e fronzoli, pronta per l’ingestione dei dati.

Un tappeto rosso digitale.

La risposta di Google è stata tagliente. Non solo non supportano questi file, ma li considerano concettualmente superflui, se non dannosi.

John Mueller ha annunciato nuove annotazioni nella Search Console e chiarito che Google non supporta file di testo speciali per LLM, ribadendo che le pratiche web standard sono più che sufficienti.

Il messaggio è chiaro: “Sappiamo leggere l’HTML meglio di voi, non provate a riassumerlo”.

Il paragone utilizzato da Mueller per descrivere questi tentativi di semplificazione è stato impietoso, evocando uno degli spettri più vecchi della SEO: il meta tag keywords, diventato inutile decenni fa a causa dello spam.

Per quanto ne so, nessuno dei servizi AI ha dichiarato di utilizzare LLMs.TXT (e l’esame dei log del server conferma che non lo stanno cercando). Per me, assomiglia al meta tag keywords – indicando ciò che un proprietario del sito sostiene che il suo sito riguardi… Perché non ispezionare direttamente il sito?

— John Mueller, Google Search Advocate

C’è un sottotesto di diffidenza in questa posizione. Google non vuole la versione che voi volete dare all’AI; vuole la versione grezza, quella che vede l’utente, per poterla analizzare con i propri bias e i propri filtri.

Creare versioni alternative del contenuto per le macchine (il cosiddetto cloaking, anche se in buona fede) puzza di manipolazione agli occhi di Mountain View.

E, dal punto di vista della privacy, c’è un rischio aggiuntivo: fornire dati pre-masticati facilita il lavoro non solo a Google, ma a qualsiasi attore malevolo o concorrente che voglia fare scraping del vostro database senza fatica.

Eppure, non tutti i giganti la pensano allo stesso modo, rivelando una frattura ideologica e commerciale interessante.

Chi paga il conto dei dati?

Mentre Google gioca a fare la difficile, Microsoft ha un approccio diametralmente opposto, dettato dalla sua posizione di inseguitore affamato.

Se Google può permettersi di dire “ci arrangiamo”, Bing e il suo ecosistema Copilot hanno bisogno di tutto l’aiuto possibile per colmare il divario.

Fabrice Canel di Microsoft ha confermato che lo Schema markup aiuta i loro LLM a comprendere i contenuti, ammettendo esplicitamente quella dipendenza che Google cerca di minimizzare.

Qui emerge il vero conflitto di interessi. Da una parte, vi si chiede di implementare dati strutturati complessi (JSON-LD) per soddisfare Microsoft e ottenere visibilità su Bing/ChatGPT; dall’altra, Google vi dice che è uno sforzo relativo, utile solo quando decide di attivare una “rich feature” per vendere meglio un prodotto.

Nel mezzo, ci sono i vostri dati: impacchettati, etichettati e pronti per essere assorbiti.

Il rischio, spesso sottovalutato, è che strutturando eccessivamente le informazioni, si trasformi il proprio sito in un database a cielo aperto.

Quando marcate ogni dettaglio di un articolo o di un prodotto, state rimuovendo l’ambiguità del linguaggio naturale. Ottimo per la macchina, pessimo per il vostro business model se il vostro valore risiede nell’unicità dell’informazione.

Una volta che l’AI ha estratto il “fatto” pulito dal vostro markup, l’utente non ha più bisogno di cliccare sul vostro sito.

Avete appena regalato la vostra merce.

È la contraddizione suprema dell’era dell’AI generativa: per essere trovati, dovete rendervi così leggibili da diventare superflui.

Google vi incoraggia a farlo “per le recensioni” o “per lo shopping”, scenari in cui mantiene il controllo del traffico transazionale. Ma sull’informativo puro?

Lì l’interesse è predatorio.

Ci troviamo di fronte a un bivio normativo ed etico. Il GDPR ci impone di proteggere i dati personali, ma le best practice tecniche ci spingono a renderli leggibili dalle macchine.

Chi controlla come questi dati strutturati vengono poi riassemblati da un LLM allucinato?

Nessuno.

Stiamo costruendo l’infrastruttura semantica del futuro o stiamo solo scavando la fossa alla proprietà intellettuale, un tag JSON-LD alla volta?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie