Google ha trovato migliaia di link che non doveva vedere
Google Search Console rileva migliaia di link da conversazioni ChatGPT condivise, teoricamente noindexate. Il fenomeno solleva questioni tecniche e di privacy per OpenAI.
Le conversazioni condivise, pur non indicizzate, lasciano tracce misurabili nei report SEO dei siti citati.
Immagina di scoprire che un link che non dovrebbe essere visibile a nessun motore di ricerca compare migliaia di volte nel pannello di controllo del tuo sito. Non è un errore tecnico, non è un bug isolato: è quello che sta succedendo con le conversazioni condivise di ChatGPT. Secondo l’analisi GSQI sulle conversazioni ChatGPT, alcune aziende si sono ritrovate nel proprio Google Search Console migliaia di link provenienti da conversazioni condivise sulla piattaforma di OpenAI — conversazioni che, in teoria, i motori di ricerca non dovrebbero nemmeno sapere che esistono. La scoperta è iniziata quasi per caso: un consulente ha verificato i dati di un cliente, poi ha controllato gli altri, e ChatGPT era lì, presente per molti di loro.
Il Paradosso dei Link Fantasma
Il punto di partenza è semplice e, per certi versi, imbarazzante: le conversazioni condivise di ChatGPT sono noindexate. Significa che OpenAI ha esplicitamente istruito i motori di ricerca a non indicizzarle. Eppure Google Search Console le traccia come link in entrata verso i siti web. Come può un link “invisibile” generare segnali misurabili in uno strumento di analisi SEO? La risposta sta in una distinzione tecnica sottile ma rilevante: una pagina può essere noindexata — cioè non apparire nei risultati di ricerca — ma i crawler possono comunque rilevare i link che contiene, registrandoli come riferimenti esterni. Le conversazioni condivise di ChatGPT contengono citazioni che collegano a siti web terzi, e queste citazioni vengono intercettate. Il risultato è paradossale: un contenuto teoricamente opaco per i motori di ricerca diventa una fonte misurabile di link. Non è visibile nei risultati, ma lascia comunque tracce.
Chi gestisce siti web si è così trovato davanti a un fenomeno inaspettato: conversazioni reali di utenti reali, con citazioni che puntano ai propri contenuti, registrate in un report che avrebbe dovuto raccontare solo link “legittimi”. Migliaia di esse, in alcuni casi. La domanda che ne segue è ovvia: di cosa stavano parlando quegli utenti? Quali informazioni condividevano, prima di premere il tasto “condividi”?
Lo Smontaggio di un Esperimento Rimosso
Per capire come si è arrivati a questa situazione, bisogna tornare indietro. Nel luglio 2025 — quasi nove mesi fa — il report TechCrunch sull’indicizzazione delle conversazioni ChatGPT aveva già documentato come le conversazioni condivise fossero diventate rintracciabili su Google, Bing e altri motori di ricerca. Bastava filtrare i risultati per includere solo URL dal dominio “chatgpt.com/share” per trovare le conversazioni di perfetti sconosciuti. OpenAI aveva risposto rimuovendo la funzionalità che permetteva agli utenti di rendere le proprie conversazioni scopribili dai motori di ricerca, definendola “un esperimento di breve durata” che aveva “introdotto troppe opportunità per condividere involontariamente cose che non si intendeva condividere”. Una formulazione curiosamente passiva: non “abbiamo sbagliato”, ma “le opportunità si sono introdotte da sole”.
Quella rimozione avrebbe dovuto chiudere la questione. E invece no. Le conversazioni condivise continuano a generare link tracciabili, anche se il meccanismo diretto di indicizzazione è stato spento. Il che suggerisce che il problema non fosse solo quella funzionalità specifica, ma qualcosa di più strutturale nel modo in cui OpenAI gestisce la distinzione tra “condiviso” e “privato”. Nel frattempo, OpenAI ha continuato a potenziare ChatGPT come strumento di ricerca web, sottolineando come possa fornire “risposte rapide e tempestive con link a fonti web pertinenti” — un’ambizione che, per funzionare, richiede che il sistema legga, elabori e citi contenuti da tutta la rete. Più ChatGPT diventa bravo a cercare e citare fonti, più le conversazioni condivise diventano potenzialmente ricche di riferimenti tracciabili.
C’è quindi una tensione strutturale: da un lato OpenAI vuole che ChatGPT sia uno strumento di ricerca potente e affidabile, con citazioni precise e verificabili; dall’altro, quella stessa precisione — le citazioni con link — è esattamente ciò che rende le conversazioni condivise intercettabili. Non è una contraddizione accidentale. È il prodotto di due obiettivi di design che non sono stati mai messi in dialogo con le promesse di privacy.
Le Domande Irrisolte sulla Sovranità dei Dati
Cosa può fare, concretamente, un utente? OpenAI offre la possibilità di accedere alle conversazioni condivise dalle impostazioni del proprio account e di eliminarle. È una misura di controllo, certo, ma parziale: presuppone che l’utente sappia che esiste il problema, che abbia condiviso conversazioni in passato, e che abbia il tempo e la consapevolezza di andarle a cercare. Non è una soluzione sistemica. È una correzione individuale a un problema collettivo.
E qui entrano in gioco domande che vanno ben oltre la SEO. In Europa, il GDPR impone che il trattamento dei dati personali sia trasparente, limitato alla finalità dichiarata e controllabile dall’utente. Il fatto che conversazioni — potenzialmente contenenti informazioni sensibili — generino segnali tracciabili da parte di terzi è compatibile con questi principi? Chi ha condiviso una conversazione pensando di renderla accessibile solo a chi avesse il link diretto, sapeva che quella condivisione avrebbe lasciato tracce misurabili in strumenti di analisi SEO? Con ogni probabilità no. E l’ignoranza dell’utente non è una giustificazione: è precisamente ciò che la normativa europea cerca di prevenire, imponendo che il consenso sia informato.
Mentre OpenAI continua a sviluppare le capacità di ricerca web di ChatGPT, questo caso rimane aperto come una finestra su qualcosa di più grande: la distanza tra ciò che un’azienda tecnologica dichiara di fare con i dati e ciò che effettivamente accade. La noindex è una promessa tecnica. Ma la rete è piena di strumenti che leggono ciò che i crawler trovano, prima ancora che i risultati di ricerca vengano filtrati. In un mondo dove l’intelligenza artificiale gestisce quantità crescenti di conversazioni private, chi controlla che quelle promesse vengano mantenute davvero? E soprattutto: siamo sicuri di sapere cosa stiamo condividendo, ogni volta che premiamo “condividi”?