Aleyda Solis segnala Glippy: il checker AI gratuito per la SEO generativa.

Aleyda Solis segnala Glippy: il checker AI gratuito per la SEO generativa.

Glippy, nuova estensione Chrome, valuta la prontezza dei siti per l'AI. Inizia l'era della Generative Engine Optimization (GEO) e del WebMCP.

In questo nuovo scenario, essere citati dagli agenti di intelligenza artificiale diventa più importante del traffico diretto, spingendo verso un web più strutturato e leggibile dalle macchine.

Il 18 febbraio 2026, la pagina di un’estensione per Chrome chiamata Glippy è stata aggiornata nella vetrina ufficiale. Non è un evento che fa notizia di per sé, ma il suo scopo è un segnale dei tempi: analizzare quanto un sito web sia pronto per essere letto e citato da agenti di intelligenza artificiale.

Non si tratta più solo di posizionarsi per gli utenti umani che scorrono le pagine dei risultati di Google, ma di ottimizzare contenuti, codice e metadati per i crawler dei grandi modelli linguistici che alimentano ChatGPT, Perplexity o le AI Overview di Google.

È l’ultima frontiera di una corsa all’ottimizzazione che, dopo aver plasmato il web per i motori di ricerca tradizionali, si adatta ora alle esigenze delle macchine generative.

L’estensione, che offre una versione gratuita con 11 analisi complete, promette di valutare una pagina web su dieci categorie, da dati strutturati e HTML semantico fino alla cosiddetta “citabilità” e all’interattività per agenti.

Il concetto di fondo è noto come GEO, Generative Engine Optimization. Mentre l’SEO classico mirava a essere in cima alla prima pagina per una parola chiave, il GEO punta a essere la fonte autorevole, chiara e strutturata che un LLM sceglierà per costruire una risposta sintetica.

La differenza è sottile ma cruciale: in un mondo di ricerca conversazionale, essere citati è il nuovo essere cliccati.

Dalle keyword alle entità: come cambia la visibilità online

Per capire la posta in gioco, bisogna guardare all’evoluzione tecnica della ricerca. Per anni, l’ottimizzazione si è basata su un patto implicito: i siti fornivano contenuti ricchi di parole chiave e segnali di autorità (backlink), e Google li ricompensava con traffico.

Il modello di business di interi settori, dal publishing all’e-commerce, si è costruito su questo equilibrio.

L’avvento dei LLM come interfaccia primaria di ricerca sta alterando radicalmente questo patto.

Un utente che chiede a ChatGPT “Quali sono le migliori cuffie per gaming sotto i 100 euro?” non riceve una lista di link da esplorare, ma una risposta composta, spesso sintetizzata da più fonti.

Il sito che fornisce le informazioni potrebbe ottenere una menzione testuale, ma perde il click diretto, il momento in cui avveniva la monetizzazione.

La risposta dell’industria SEO non si è fatta attendere.

Start-up come Digispot AI o ZipTie.dev sono nate con il preciso scopo di analizzare le risposte generative per capire chi viene citato e perché.

Glippy si inserisce in questo filone, ma con un approccio più tecnico e preventivo.

Invece di misurare dopo il fatto se si è stati citati, promette di diagnosticare in anticipo se un sito ha le caratteristiche giuste per essere un’ottima fonte per un LLM.

Dietro questa diagnostica c’è un’analisi approfondita del codice e della struttura del sito. Non basta più avere un testo ben scritto.

Un agente AI, che spesso opera con contesti limitati e necessità di efficienza, preferisce contenuti facilmente “digeribili”. Questo significa HTML semantico corretto (uso appropriato di tag come <article>, <section>, <header>), che fornisce già una prima gerarchia logica dei contenuti.

Significa dati strutturati in JSON-LD che chiariscono esplicitamente relazioni e tipologie di contenuto (è una ricetta? un prodotto? un articolo di blog?).

Significa una performance di caricamento elevata, perché un crawler ha tempo limitato per processare una pagina.

E significa, soprattutto, una struttura che facilita la citazione: paragrafi introduttivi chiari, liste, tabelle, FAQ.

In sostanza, Glippy e strumenti simili spingono verso un web più ordinato, accessibile e machine-readable, un obiettivo tecnicamente nobile che coincide, non a caso, con gli interessi delle grandi piattaforme AI.

La standardizzazione del dialogo tra siti e agenti AI

C’è però una categoria di controllo di Glippy che va oltre l’ottimizzazione passiva e suggerisce una direzione più ambiziosa: “Agent Interactivity”, legata allo standard WebMCP (Web Model Context Protocol).

Questo protocollo, sviluppato congiuntamente da Google e Microsoft e in via di standardizzazione al W3C, non si limita a permettere a un agente di leggere un sito, ma di interagirvi.

In teoria, un sito di e-commerce potrebbe esporre tramite WebMCP uno strumento strutturato per cercare prodotti nel suo catalogo; un sito di viaggi potrebbe esporre un’API per verificare la disponibilità di voli.

L’agente AI, invece di dover “ragionare” sul come compilare un form umano, troverebbe un’interfaccia programmatica dichiarativa pronta all’uso.

Il controllo di Glippy per il WebMCP è quindi un tentativo di misurare quanto un sito sia pronto per questo futuro interoperativo, dove i confini tra applicazioni si sfumano e gli agenti AI agiscono da intermediari onnipotenti.

È un salto concettuale enorme: dall’ottimizzare per essere una fonte di informazioni, all’ottimizzare per essere un servizio invocabile direttamente da un modello linguistico.

Questo solleva domande fondamentali sul controllo e sull’economia del web.

Se un agente AI può prenotare un volo direttamente tramite WebMCP, che ne è dei portali di viaggio il cui business si basa sull’intermediazione e sulla pubblicità?

Se può comprare un prodotto direttamente dal sito del produttore, che ruolo resta per i marketplace?

La mossa di offrire uno strumento come Glippy in versione gratuita è una classica tattica di mercato in ambito software: abbattere le barriere all’ingresso, educare il mercato a un nuovo standard (in questo caso, il GEO e il WebMCP) e creare una base di utenti da cui convertire i clienti più esigenti verso un piano Pro a pagamento.

Aleyda Solis, SEO consultant di fama internazionale che ha segnalato il lancio, rappresenta perfettamente il canale di diffusione ideale: influencer tecnici che legittimano lo strumento presso una comunità di early adopter sensibile a queste tematiche.

L’obiettivo non è solo vendere licenze, ma accelerare l’adozione di pratiche che rendono il web più facile da consumare per gli agenti AI, a beneficio delle stesse aziende che quei modelli li costruiscono.

Tuttavia, questa spinta verso la machine-readability estrema nasconde una tensione.

Da un lato, produce un web tecnicamente più robusto, accessibile e strutturato, benefici che andrebbero a vantaggio anche di utenti con disabilità o di sistemi di indicizzazione più sofisticati.

Dall’altro, rischia di omogeneizzare la creatività e la serendipità del web in favore di uno standard rigido dettato dalle necessità computazionali dei LLM.

Inoltre, mentre strumenti come Glippy forniscono il “come” tecnico, il “perché” strategico rimane opaco: ottimizzare per essere la perfetta fonte per un agente AI significa accettare un ruolo di subordinazione in un ecosistema controllato da poche grandi piattaforme.

L’estensione ci dice come preparare il nostro sito per il futuro, ma non ci dice chi deciderà le regole di quel futuro, e a quale prezzo per l’autonomia e la diversità della rete.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie