Google penalizza i listicle auto-promozionali: impatto su SEO e ChatGPT
La penalizzazione colpisce i “listicle” auto-promozionali, articoli in cui le aziende si auto-posizionano al primo posto, con un impatto che si estende anche ai modelli di intelligenza artificiale come ChatGPT.
A metà gennaio 2026, diverse aziende SaaS hanno iniziato a vedere i loro siti web scivolare nelle classifiche di Google, con perdite di visibilità organica fino al 50% in poche settimane. Il filo conduttore, secondo l’analisi di esperti SEO come Lily Ray, non era un bug tecnico o un aggiornamento generale, ma una precisa categoria di contenuti: i “listicle” auto-promozionali.
Si tratta di quegli articoli del tipo “I 10 migliori software per X nel 2026” in cui, puntualmente, il prodotto dell’azienda che pubblica l’articolo si piazza al primo posto. Per anni, questa è stata una tattica SEO consolidata, un modo per catturare traffico da query commerciali e posizionare il proprio brand come leader.
Ora, sembra che Google abbia deciso di stringere i cordoni.
L’aspetto più significativo, però, non è solo la penalizzazione su Google.
Come sottolinea Ray, questi cali nei risultati organici di Google probabilmente influenzeranno la visibilità anche su altri LLM che utilizzano i risultati di ricerca di Google, e questo include ChatGPT. In un colpo solo, una strategia di marketing digitale rischia di essere delegittimata sia nel regno dei link tradizionali che in quello nascente delle citazioni AI.
La mossa di Google non arriva in un vuoto. È l’ultimo passo in una guerra decennale contro i contenuti creati principalmente per i motori di ricerca, piuttosto che per le persone. L’aggiornamento “Panda” del 2011 prese di mira le “content farm” e i siti a contenuto sottile, stabilendo un principio chiaro: la qualità, intesa come utilità per l’utente, è un segnale fondamentale. Negli anni, questo principio si è evoluto nel concetto di E-E-A-T (Esperienza, Competenza, Autorevolezza, Affidabilità).
I listicle auto-promozionali sono l’antitesi di questo ideale: sono intrinsecamente di parte, spesso privi di metodologia di test trasparente o di validazione di terze parti, e aggiornati in modo superficiale solo per aggiungere l’anno corrente al titolo. Per Google, che punta a classificare i contenuti più pertinenti e utili per una query, questa forma di spam “sofisticato” era diventata un rumore da eliminare.
L’azienda non ha confermato ufficialmente un aggiornamento specifico a gennaio, ma il pattern osservato dagli analisti è inequivocabile. Glenn Gabe, un altro esperto del settore, ha speculato che potrebbe trattarsi di un aggiornamento del sistema di valutazione delle recensioni, basato su tutta la spazzatura di listicle auto-referenziali che inondava l’indice di Google.
Il ponte invisibile tra Google e ChatGPT
Qui la faccenda diventa tecnicamente affascinante. Per decenni, l’SEO è stato un gioco a due: creare contenuti e segnali che piacessero all’algoritmo di Google. L’avvento dei chatbot di ricerca come ChatGPT introduce un terzo attore, ma non uno indipendente.
ChatGPT, quando utilizza la modalità “Naviga con Bing” per risposte in tempo reale, non parte da zero.
Fa affidamento su un indice del web e, come rivelato da analisi, utilizza anche i risultati di ricerca di Google, acquisiti tramite SerpAPI, per alimentare le sue risposte. Non è una semplice copia, ma c’è una correlazione. I segnali che Google usa per valutare l’autorevolezza – come i domini di riferimento (backlink) e il traffico – sono gli stessi che ChatGPT e altri motori AI analizzano per decidere quali fonti citare.
Uno studio di SE Ranking ha mostrato che i domini con oltre 350.000 domini di riferimento ricevevano in media 8,4 citazioni da AI, contro 1,6-1,8 di quelli con circa 2.500 riferimenti.
Presumibilmente, questi cali nei risultati organici di Google influenzeranno anche la visibilità su altri LLM che sfruttano i risultati di ricerca di Google, il che va oltre l’ecosistema di prodotti di ricerca AI di Google come Gemini e AI Mode, ma probabilmente includerà anche ChatGPT.
— Lily Ray, VP of SEO Strategy and Research presso Amsive
Quindi, quando Google declassa un sito perché giudica i suoi contenuti inaffidabili o auto-promozionali, non sta solo rimuovendo un risultato dalla sua SERP. Sta, di fatto, rimuovendo un mattone dalla potenziale base di conoscenza su cui si costruiscono le risposte di ChatGPT.
È un effetto a cascata algoritmico: il giudizio di un sistema (Google) diventa un segnale di input per un altro (ChatGPT). Questo crea una concentrazione di potere informativo senza precedenti.
Un sito penalizzato da Google non scompare solo da una lista di link; rischia di essere escluso dalla conversazione stessa, diventando invisibile non solo per chi cerca, ma per chi chiede.
La doppia vita dei contenuti nell’era dell’ai
La risposta istintiva di molti marketer potrebbe essere: “Allora ottimizziamo per ChatGPT!”.
È qui che si nasconde la trappola. OpenAI è esplicito sul fatto che ChatGPT classifica i risultati in base alla pertinenza con la query dell’utente, non in base alla popolarità, al traffico o al potere del brand. Il suo “equivalente del PageRank” è il giudizio contestuale interno dell’LLM, che parte da segnali di retrieval (come l’analisi dei link) ma li rielabora.
Inoltre, come ha dichiarato Danny Sullivan di Google, il motore di ricerca è tarato per classificare i contenuti scritti per gli esseri umani e ottimizzare per LLM specifici potrebbe ritorcersi contro.
La strategia emergente, quindi, non è il “ChatGPT SEO” come tattica separata, ma un ritorno forzato ai fondamentali della qualità, applicati però con una consapevolezza duplice.
I contenuti devono essere progettati per soddisfare l’utente umano (rispettando i principi E-E-A-T di Google), ma anche strutturati in modo che un agente AI possa interpretarli facilmente: sezioni chiare, informazioni aggiornate (gli aggiornamenti freschi quasi raddoppiano le possibilità di essere citati), dimostrazione di competenza.
Le aziende colpite dal declassamento di gennaio ne stanno già pagando il prezzo. Un brand B2B ha visto il 77% della sua visibilità, concentrata nel blog, evaporare. Un altro, con circa 2800 articoli indicizzati in una cartella /guide/, ha perso il 43% della visibilità totale; 228 di quegli articoli erano listicle auto-promozionali.
La soluzione non è una quick fix tecnica, ma una revisione editoriale profonda.
I casi di studio mostrano che il recupero passa attraverso la potatura di contenuti di bassa qualità, l’implementazione rigorosa dei principi E-E-A-T e la creazione di cluster tematici approfonditi. In sostanza, bisogna smettere di fingere di essere una guida imparziale e diventarlo, oppure cambiare completamente strategia di contenuto.
La domanda finale, allora, non è solo tecnica ma filosofica. Stiamo costruendo un ecosistema informativo in cui il giudizio sulla qualità e l’affidabilità di una fonte è delegato in ultima istanza a due-tre sistemi algoritmici profondamente interconnessi?
L’“autorevolezza” diventa un parametro che, se violato in un punto (Google), porta all’esclusione automatica da un altro (ChatGPT), in un processo opaco e difficilmente contestabile.
Per i publisher, la posta in gioco non è più solo il traffico, ma la stessa possibilità di essere considerati una fonte della conoscenza.
L’alternativa, però, è forse peggiore: un web in cui i listicle auto-promozionali, privi di valore, continuano a inquinare sia i risultati di ricerca che le risposte dell’AI.
Google e OpenAI, in questo strano duopolio collaborativo, stanno scrivendo le nuove regole.
E la prima regola è: niente più trucchi.