Aeo e geo: Microsoft riscrive le regole del web nel 2026
L’era dell’AEO e della GEO: Microsoft riscrive le regole del web, trasformando la ricerca in competizione per l’attenzione dell’AI
Se credevate che l’apocalisse del web sarebbe arrivata con un’esplosione, vi sbagliavate.
Sta arrivando sotto forma di un PDF aziendale ben impaginato, pieno di acronimi rassicuranti e promesse di “visibilità”. Siamo nel gennaio 2026 e Microsoft ha appena deciso di spiegare ai rivenditori come sopravvivere nel mondo che essa stessa ha contribuito a rendere inospitale per i vecchi motori di ricerca.
Il vecchio patto del web era semplice, anche se imperfetto: io (motore di ricerca) indicizzo i tuoi contenuti, tu (sito web) ottieni traffico. Quel patto è carta straccia.
Con la pubblicazione della sua nuova guida, il colosso di Redmond ha ufficializzato il cambio di paradigma: non si tratta più di portare le persone sul vostro sito, ma di addestrare l’Intelligenza Artificiale a rispondere al posto vostro.
Benvenuti nell’era della AEO (Answer Engine Optimization) e della GEO (Generative Engine Optimization), due sigle che suonano come un progresso tecnico ma che, a ben guardare, assomigliano più a una richiesta di riscatto.
Per chi si occupa di privacy e diritti digitali, la lettura di questo documento è illuminante quanto inquietante.
Microsoft Advertising ha pubblicato una guida strategica per i rivenditori che svela, senza troppi giri di parole, come i marchi debbano ora strutturare i propri dati non per essere letti dagli umani, ma per essere “digeriti” dagli agenti AI.
Il messaggio tra le righe è chiaro: dateci i vostri dati, strutturati esattamente come vogliamo noi, e forse la nostra AI menzionerà il vostro prodotto quando un utente farà una domanda. Non fatelo, e sparirete nell’oblio digitale.
Il funerale del clic (e la nascita dell’influenza artificiale)
Per anni ci hanno detto che l’AI avrebbe “migliorato la ricerca”. La realtà che emerge da questo playbook è diversa: l’AI sta sostituendo la ricerca.
La distinzione è fondamentale e pericolosa. Nella SEO tradizionale (Search Engine Optimization), l’obiettivo era il clic. L’utente vedeva un elenco, sceglieva, cliccava e atterrava su un sito dove vigevano le regole (e le privacy policy) del proprietario.
Con la AEO e la GEO, il clic è un fallimento del sistema.
L’obiettivo è trattenere l’utente nell’ecosistema dell’AI. Come spiega candidamente il team di Microsoft:
L’AEO (Answer Engine Optimization) e la GEO (Generative Engine Optimization) sono il modo in cui si vince la raccomandazione nella scoperta guidata dall’AI.
— Microsoft Advertising Team
Notate la parola “vincere”.
La ricerca di informazioni non è più un processo neutro di recupero dati, ma una competizione per essere l’unica “verità” recitata da un assistente digitale. Questo solleva una questione gigantesca sui conflitti di interesse.
Se un agente AI come Copilot deve scegliere quale prodotto raccomandare, sceglierà quello oggettivamente migliore o quello che ha meglio “ottimizzato” i suoi dati secondo i capricci dell’algoritmo proprietario? E, cosa ancora più critica, l’utente medio capirà la differenza?
La storia recente ci insegna a essere scettici.
Tutto è iniziato quando Microsoft ha lanciato Bing Chat, poi rinominato Copilot, trasformando per sempre l’interfaccia di ricerca in una conversazione. Ora, tre anni dopo, quella conversazione è diventata un canale di vendita diretta dove la trasparenza rischia di diventare la prima vittima.
Se l’AI mi dice “Il miglior aspirapolvere è X”, non vedo le dieci alternative che avrei visto su una pagina di risultati classica. Vedo solo ciò che il modello ha deciso di mostrarmi, basandosi su metriche opache di “autorità” e “fiducia” che le aziende possono, e dovranno, manipolare.
Ma c’è un aspetto ancora più insidioso di questa “ottimizzazione”, ed è il modo in cui le Big Tech intendono nutrirsi dei nostri comportamenti per affinare queste raccomandazioni.
Nutrire la bestia con i propri dati
La guida di Microsoft identifica tre “percorsi dati” fondamentali: i feed dei prodotti, i dati scansionati dai siti e, attenzione, i “dati offsite”.
Qui il discorso privacy si fa scivoloso. Per dati offsite si intendono recensioni, menzioni sociali, discussioni nei forum. In pratica, tutto ciò che viene detto su un prodotto ovunque nel web.
L’idea è che l’AI legga tutto, interpreti il “sentiment” e decida se un marchio è degno di essere raccomandato. Sulla carta sembra meritocratico. Nella pratica, è un incubo di sorveglianza commerciale.
Significa che per “vincere” nella GEO, le aziende saranno incentivate a monitorare e, verosimilmente, a manipolare la conversazione pubblica ovunque essa avvenga.
Le recensioni false non spariranno; diventeranno solo più sofisticate, scritte da altre AI per convincere l’AI di Microsoft.
Inoltre, c’è il problema della proprietà dei dati. I rivenditori sono invitati a fornire feed di dati strutturati sempre più dettagliati. Stanno letteralmente regalando il loro inventario, i prezzi e le specifiche tecniche a Microsoft, affinché Microsoft possa usare quelle informazioni per rispondere all’utente senza mandarlo sul sito del rivenditore.
È un suicidio commerciale assistito.
Il rivenditore diventa un semplice fornitore di database per l’interfaccia di Copilot.
E non dimentichiamo che Microsoft non è sola in questa corsa. Anche Google ha annunciato la Search Generative Experience (SGE) quasi in contemporanea, creando un duopolio di fatto in cui le regole per essere visibili sono dettate da scatole nere impenetrabili.
Se il vostro sito non è “ottimizzato per gli agenti AI” — ovvero, se non è facile da saccheggiare per i loro algoritmi — per il mercato del 2026 non esistete.
L’illusione dell’autorità e il costo della verità
La guida insiste molto sul concetto di “autorità” e “affidabilità”. La GEO serve a rendere i contenuti “citabili”. Ecco un’altra definizione che dovrebbe farci riflettere:
[La GEO] Ottimizza i contenuti per gli ambienti di ricerca dell’IA generativa (come i motori basati su LLM) per renderli scopribili, affidabili e autorevoli.
— Microsoft Advertising Team
“Renderli affidabili”. Non “essere affidabili”. La sfumatura è tutto.
Stiamo entrando in un’era in cui la verità è una funzione del budget di marketing.
Le grandi aziende avranno le risorse per strutturare i propri dati, inserire i markup corretti e “ottimizzare” la propria reputazione digitale affinché l’AI la consideri “autorevole”. I piccoli produttori, i negozianti locali, le voci indipendenti che non hanno un team dedicato alla AEO? Saranno invisibili. O peggio, saranno considerati “meno affidabili” dall’algoritmo semplicemente perché il loro codice non è formattato secondo lo standard gradito a Redmond.
Stiamo costruendo un web a due velocità: quello visibile alle AI, curato, asettico e dominato dai grandi budget, e quello “umano”, caotico e sempre più difficile da trovare.
E la privacy dell’utente finale?
In questo schema, l’utente è solo un prompt da monetizzare. Ogni domanda fatta a un assistente AI viene registrata, analizzata e usata per affinare il modello di vendita. Se prima i cookie ci tracciavano tra i siti, ora è l’interfaccia stessa a conoscerci meglio di noi stessi.
La domanda che dovremmo porci, mentre le aziende corrono ad adeguarsi a questi nuovi standard, non è “come facciamo a comparire nelle risposte dell’AI?”.
La domanda vera è: vogliamo davvero un futuro in cui l’unica finestra sul mondo è mediata da un algoritmo che finge di darci risposte, mentre in realtà ci sta solo leggendo un comunicato stampa ottimizzato?