Il futuro della ricerca online: Sydney crocevia tra SEO e AI
A Sydney si discuterà di come l’evoluzione dell’AI stia trasformando l’architettura della ricerca online, spostando l’attenzione dalle keyword all’ottimizzazione del Knowledge Graph
Siamo a metà gennaio 2026 e l’industria della ricerca online si trova in una fase di stallo tecnico che definirei “interessante”, usando un eufemismo per non dire caotica. Mentre la maggior parte dei professionisti del marketing sta ancora cercando di capire come integrare i Large Language Models (LLM) nei loro flussi di lavoro senza generare tonnellate di spam, dall’altra parte del mondo, in Australia, si sta preparando un evento che sembra voler tracciare una linea netta tra chi fa SEO “per sentito dire” e chi comprende l’architettura dei sistemi.
Il prossimo marzo, Sydney diventerà per qualche giorno l’epicentro di questa discussione tecnica. Non è tanto la location a sorprendere, quanto la convergenza di figure e strumenti che, storicamente, hanno definito lo standard dell’ottimizzazione per i motori di ricerca. Parliamo di un allineamento che vede Aleyda Solis, una delle menti più analitiche del settore, e Tim Soulo di Ahrefs, condividere lo stesso palco in un momento in cui gli algoritmi di ranking tradizionali stanno lasciando il passo ai sistemi di retrieval neurale.
Non è un caso che questi nomi si ritrovino proprio ora. La transizione da un web basato su link e parole chiave a uno basato su entità e vettori semantici richiede un ripensamento radicale degli strumenti di analisi. E se guardiamo ai dettagli degli interventi previsti, emerge chiaramente che l’obiettivo non è più “posizionarsi”, ma “essere citati” da un modello probabilistico.
Oltre la keyword: l’architettura della ricerca semantica
Per anni abbiamo trattato Google come un bibliotecario molto veloce: tu chiedi un libro (keyword), lui controlla l’indice e ti dà lo scaffale (URL). Con l’avvento della AI Search e dei modelli generativi integrati nei risultati di ricerca, questo paradigma è tecnicamente morto. Il motore non recupera più solo documenti; genera risposte sintetizzando informazioni distribuite.
Questo sposta il focus dall’ottimizzazione della pagina all’ottimizzazione del Knowledge Graph.
Aleyda Solis, fondatrice di Orainti, ha compreso questa dinamica molto prima che diventasse una buzzword. La sua presenza in Australia non è una semplice tappa di un tour promozionale, ma un segnale di dove si sta spostando l’attenzione tecnica. Aleyda Solis terrà un keynote specifico sul futuro della ricerca basata sull’IA al Future Media Forum di Sydney, previsto per il 19 marzo. Il titolo del suo intervento suggerisce un’analisi di come i brand debbano ristrutturare i propri dati per essere “leggibili” non più solo dai crawler tradizionali, ma dai processi di inferenza degli LLM.
La differenza è sottile ma sostanziale: un crawler legge l’HTML, un LLM processa token e relazioni semantiche. Se il vostro sito è tecnicamente impeccabile ma privo di dati strutturati (Schema.org) che definiscono in modo inequivocabile chi siete e cosa fate in relazione ad altre entità nel grafo della conoscenza, per un’IA siete invisibili.
O peggio, siete un’allucinazione in attesa di accadere.
Il paradosso dei dati proprietari
Qui entra in gioco Ahrefs. Per chi scrive codice o gestisce infrastrutture web, Ahrefs non è solo un tool SEO, è una delle poche entità al mondo che possiede un indice del web paragonabile per dimensioni a quello dei giganti della ricerca. La loro sponsorizzazione e partecipazione attiva all’evento di Sydney non è beneficenza; è posizionamento strategico.
Tim Soulo, CMO di Ahrefs, porta sul tavolo una prospettiva basata sui dati grezzi. Mentre noi speculiamo su come ChatGPT o Google Gemini scelgano le fonti, Ahrefs ha i dati di clickstream e di link graph per validare queste ipotesi. La Sydney SEO Conference vedrà la partecipazione di figure chiave come Tim Soulo e James Norquay per discutere queste metriche. Il punto cruciale è che le metriche di vanità stanno crollando. Il volume di ricerca di una keyword non ha senso se la risposta viene fornita direttamente nella SERP (Search Engine Results Page) senza generare un click.
Ci troviamo di fronte a un paradosso tecnico: per addestrare e affinare le loro risposte, le IA hanno bisogno dei nostri contenuti, ma fornendoglieli rischiamo di perdere il traffico diretto che giustifica la produzione di quei contenuti. La soluzione tecnica che sembra emergere da questi incontri non è il blocco dei bot (che equivarrebbe all’oscurità digitale), ma un’ottimizzazione selettiva che costringa l’IA a citare la fonte per validare la propria “trustworthiness” (affidabilità).
È interessante notare come l’evoluzione professionale di Solis rispecchi fedelmente questo cambiamento tecnologico. Già in passato Solis ha analizzato l’uso dei chatbot AI per la ricerca di parole chiave e l’ottimizzazione dei flussi di lavoro, dimostrando un approccio pragmatico.
L’IA non è magia, è uno strumento che può essere reverse-engineered.
Ottimizzare per l’inferenza, non per l’indice
La vera sfida che verrà discussa a Sydney, e che dovrebbe preoccupare chiunque gestisca un’infrastruttura web oggi, riguarda il concetto di E-E-A-T (Esperienza, Competenza, Autorevolezza, Affidabilità) tradotto in segnali macchina. Non basta più scrivere “siamo esperti”; bisogna dimostrarlo attraverso una rete di citazioni, link e menzioni che un modello vettoriale possa associare al concetto di “verità” nel suo spazio latente.
Le sessioni previste, che includono panel sulla “Brand Authority”, suggeriscono che il futuro della SEO è molto più simile alle pubbliche relazioni digitali che alla manipolazione dei metadati. Tuttavia, il substrato rimane profondamente tecnico. Implementare il markup Organization, Person e SameAs in modo corretto diventa fondamentale per disambiguare il brand in un mare di contenuti sintetici.
Se un LLM non riesce a distinguere il vostro e-commerce originale da dieci siti clone generati dall’IA, il problema non è del modello, è della vostra architettura dell’informazione.
C’è un’eleganza perversa in tutto questo: siamo tornati alle origini del web, dove la qualità e la reputazione contano più dei trucchi tecnici, ma per dimostrare quella qualità dobbiamo utilizzare una sintassi tecnica sempre più complessa e rigorosa.
Siamo pronti ad accettare che il nostro pubblico primario non sia più umano, ma un algoritmo che decide se valiamo la pena di essere menzionati in una nota a piè di pagina?