Direct Online Marketing lancia GEO: conversioni AI 23x superiori alla ricerca tradizionale
L’agenzia Direct Online Marketing ha già lanciato servizi specifici per aiutare i brand a mantenere la visibilità in un contesto dove gli utenti preferiscono le chat AI ai motori di ricerca tradizionali.
La prossima frontiera del marketing digitale non si chiama più SEO, ma GEO. E non riguarda più Google, ma i suoi eredi sintetici.
Il 13 febbraio 2026, l’agenzia Direct Online Marketing (DOM) ha lanciato ufficialmente i suoi “GEO Services for AI Search Visibility”, un pacchetto di servizi progettato per aiutare i brand a rimanere visibili mentre gli utenti abbandonano i motori di ricerca tradizionali per le chat con l’intelligenza artificiale.
L’obiettivo dichiarato è aiutare le aziende a mantenere traffico, consapevolezza e ricavi in un panorama in rapida mutazione.
Ma dietro l’entusiasmo per questa “evoluzione naturale del nostro lavoro SEO”, come lo definisce un portavoce dell’azienda, si nasconde una corsa agli armamenti per influenzare le fonti stesse della conoscenza digitale.
Se i grandi modelli linguistici diventano i nuovi gatekeeper dell’informazione, chi decide quali brand diventano “fonti attendibili” citate nelle risposte generate?
L’ottimizzazione per un mondo a zero click
Il problema che DOM e altre agenzie simili affermano di risolvere è reale e misurabile: le cosiddette “ricerche a zero click”. Con l’avvento degli AI Overviews di Google e delle risposte dirette di ChatGPT o Perplexity, una percentuale crescente di query si conclude senza che l’utente clicchi su un link esterno. L’informazione viene sintetizzata e servita direttamente nella chat.
Per un brand, essere escluso da quella risposta significa essere tagliato fuori dalla fase più precoce del processo decisionale del consumatore.
Il servizio GEO promette quindi di posizionare i contenuti del brand come fonti attendibili utilizzate dai grandi modelli linguistici, concentrandosi su come i sistemi di IA interpretano e valutano le informazioni.
Le tecniche vanno dalla ristrutturazione dei contenuti esistenti in formati “amichevoli per l’IA” all’implementazione di markup semantici avanzati, dalla costruzione di autorità tematica alla creazione strategica di menzioni sul web. L’obiettivo finale è apparire, e essere citati, nelle risposte generate da piattaforme come ChatGPT, Google Gemini o Copilot.
DOM promette che il suo approccio ibrido, che combina strumenti basati sull’IA con strategia e copywriting esperto, può migliorare le risposte alle query dei clienti e aumentare la visibilità su queste piattaforme.
Ma cosa significa, in concreto, “costruire autorità” per un algoritmo?
Il prezzo della visibilità sintetica e il conflitto di interessi nascosto
Il modello di business del GEO solleva interrogativi spinosi. I pacchetti di ottimizzazione hanno prezzi che, secondo le analisi di settore, possono variare da 1.500 a 10.000 dollari al mese, con casi enterprise che superano i 30.000.
Si paga per una visibilità che non è più garantita da un ranking trasparente (per quanto opaco fosse l’algoritmo di Google), ma dalla capacità di essere selezionati come fonte da un modello la cui logica è per definizione opaca e in continua evoluzione.
C’è un evidente conflitto di interessi: le aziende che vendono servizi di GEO hanno tutto l’interesse a dipingere un quadro in cui l’ottimizzazione tradizionale è obsoleta e la sopravvivenza digitale dipende dall’investire in queste nuove e costose pratiche.
Inoltre, la retorica del “diventare una fonte attendibile” nasconde una realtà più cinica: si tratta spesso di un gioco di segnali digitali progettati per ingannare – o quantomeno per soddisfare – i criteri di valutazione dell’IA.
Si costruisce un’aura di autorevolezza attraverso una rete di menzioni, contenuti strutturati e dati semanticamente perfetti, non necessariamente attraverso un reale, verificabile expertise.
Questo crea un rischio di “autorità sintetica”, dove brand con budget sostanziosi possono apparire più credibili di esperti reali o fonti pubbliche che non giocano questo gioco.
L’etica di questo approccio è traballante. Se da un lato alcuni esperti sottolineano che dichiarare l’utilizzo dell’IA permette ai consumatori di fare scelte informate, dall’altro l’intero settore del GEO si basa sull’influenzare silenziosamente il processo di generazione della conoscenza senza che l’utente finale ne sia mai consapevole.
I brand che non sono rappresentati all’interno delle risposte dell’IA stanno perdendo opportunità in una fase decisionale precoce.
— Portavoce di Direct Online Marketing
La citazione del portavoce di DOM è illuminante: il focus non è sulla qualità intrinseca dell’informazione, ma sulla “rappresentazione” all’interno di un sistema chiuso.
È una logica di puro marketing applicata al cuore della diffusione della conoscenza.
Chi controllerà i guardiani dell’ia?
La domanda finale, quindi, non è tecnica ma di potere e governance. Se il GEO diventerà una pratica standard, rischiamo di creare un ecosistema informativo digitale a due livelli: un livello superficiale, pulito e sintetico, dominato dai brand che possono permettersi di ottimizzarsi, e un livello profondo, caotico e umano, sempre più difficile da raggiungere per l’utente comune.
I modelli linguistici, addestrati su questo web già distorto dal SEO tradizionale, rischiano di perpetuarne e amplificarne le distorsioni in una forma ancora più concentrata e apparentemente autorevole.
Le aziende come DOM stanno semplicemente rispondendo a un cambiamento del mercato, offrendo un servizio che i loro clienti richiedono.
La vera responsabilità, però, ricade sui creatori dei modelli di IA e sui regolatori. Con quale trasparenza OpenAI, Google o Anthropic selezionano e pesano le fonti? Quali garanzie ci sono che un servizio a pagamento come il GEO non diventi un canale privilegiato per inquinare il pool di conoscenze su cui questi modelli si basano?
Il GDPR e le legislazioni sulla trasparenza algoritmica si stanno già dimostrando inadeguate di fronte alla sfida delle scatole nere generative.
Mentre le agenzie di marketing svelano le loro nuove armi per migliorare la visibilità del brand all’interno delle risposte generate dall’IA, la domanda per utenti, società civile e autorità di vigilanza diventa: siamo disposti ad affidare la curatela della conoscenza collettiva a sistemi la cui influenza può essere silenziosamente acquistata?