Content Chunking: Quando Google Dice di Non Preoccuparsi, Preoccupati
Dietro l’avvertimento di Google sul “content chunking” si nasconde una battaglia per la sopravvivenza dei dati degli utenti e per i profitti dell’azienda.
Se c’è una cosa che la storia recente della Silicon Valley ci ha insegnato, è che quando una Big Tech vi dice di “non preoccuparvi” e di “comportarvi in modo naturale”, è il momento esatto in cui dovreste iniziare a preoccuparvi seriamente.
Siamo all’inizio del 2026 e il nuovo psicodramma che sta consumando il mondo dell’editoria digitale riguarda i cosiddetti “bocconcini” di contenuto, o content chunking.
La scena è grottesca: da una parte ci sono editori e creatori di contenuti, ridotti alla fame dai motori di ricerca che ormai trattengono tutto il traffico, che cercano disperatamente di smembrare i loro articoli in frammenti digeribili per le intelligenze artificiali. Dall’altra c’è Google, il padrone di casa, che agita il dito ammonitore intimando di smetterla.
Il motivo ufficiale? Google vuole “qualità”.
Il motivo reale, se si ha la pazienza di unire i puntini di un modello di business predatorio, è che se smettiamo di scrivere come esseri umani complessi, le loro macchine smettono di imparare.
E se le macchine smettono di imparare, il giocattolo da miliardi di dollari si rompe.
È un paradosso affascinante: l’azienda che ha spinto l’intero ecosistema web verso l’ottimizzazione meccanica ora si lamenta perché il web è diventato troppo meccanico per i suoi gusti raffinati. Ma andiamo con ordine, perché dietro questo avvertimento tecnico si nasconde una battaglia per la sopravvivenza dei dati (i vostri) e dei profitti (i loro).
La trappola dei “bocconcini” digitali
La tendenza, nata come risposta disperata all’avvento della Search Generative Experience (SGE) e dei riassunti AI, è semplice: ristrutturare gli articoli non più come narrazioni fluide, ma come liste della spesa di dati, frammentati in micro-sezioni, domande e risposte secche. L’idea dei “guru” della SEO (un termine che nel 2026 suona sempre più come “venditori di olio di serpente”) è che servendo il contenuto già masticato, l’IA di Google (Gemini) sarà più propensa a citarlo.
Google, tuttavia, ha deciso di intervenire a gamba tesa. In un recente intervento pubblico, i portavoce dell’azienda hanno chiarito che la SEO per l’intelligenza artificiale è sostanzialmente identica alla SEO tradizionale, smontando l’idea che esistano trucchi magici per manipolare i nuovi algoritmi generativi.
Danny Sullivan, Public Liaison for Search di Google, non ha usato mezzi termini durante il podcast ufficiale dell’azienda Search Off the Record. La posizione di Mountain View è che l’industria editoriale stia inseguendo fantasmi, sprecando risorse per rendere i contenuti illeggibili agli umani nella speranza di compiacere un bot.
Non vogliamo che facciate questo. […] Google non vuole che riscriviate i contenuti in bocconcini solo per compiacere i modelli linguistici di grandi dimensioni (LLM).
— Danny Sullivan, Public Liaison for Search presso Google
L’ironia di questa dichiarazione è tagliente. Per quasi due decenni, Google ha addestrato gli editori come cani di Pavlov: fai questo e ti darò traffico. Ora che gli editori hanno imparato a servire esattamente ciò che sembra volere un’IA (risposte secche, zero sfumature), Google cambia le carte in tavola.
Perché?
Perché un web fatto di frammenti sconnessi è inutile per l’addestramento dei futuri modelli AI. Se tutti scriviamo come robot, i robot non avranno più “umanità” da copiare.
Il paradosso del cannibale
Qui entriamo nel cuore oscuro della questione. Google non è preoccupata per la “user experience” nel senso romantico del termine. È preoccupata per la qualità della sua materia prima. I modelli linguistici come Gemini si nutrono di testo naturale, di argomentazioni complesse, di sfumature umane.
Se il web si trasforma in una serie di elenchi puntati ottimizzati (il famoso chunking), il set di dati su cui Google allena le sue intelligenze artificiali si impoverisce drasticamente.
È interessante notare come diversi portavoce di Google abbiano respinto le tattiche di ottimizzazione specifiche per i motori generativi, insistendo sul fatto che non esiste una disciplina separata per l’IA.
Ma questo nasconde un conflitto di interessi colossale. Google ha bisogno che noi continuiamo a produrre contenuti “umani” e gratuiti affinché possa estrarne il valore, rielaborarlo e servirlo direttamente all’utente, rendendo di fatto inutile la visita al sito originale.
Ci chiedono di cucinare un pasto gourmet affinché possano rubarne l’odore e venderlo, lasciandoci con le pentole sporche.
La pratica del chunking è, in un certo senso, uno sciopero bianco degli editori: se vuoi solo i dati, ti do solo i dati, brutti e slegati. E a Google questo non piace, perché rompe l’illusione che l’IA stia “pensando” invece di limitarsi a ricombinare statisticamente il nostro lavoro.
Inoltre, c’è un aspetto normativo che viene spesso ignorato. Frammentare i contenuti rimuove il contesto. In un’era in cui il GDPR e le normative sulla privacy (come l’AI Act europeo) richiedono trasparenza e accuratezza, ridurre l’informazione a “pillole” aumenta esponenzialmente il rischio di disinformazione e allucinazioni da parte dell’IA.
Ma a Google non interessa il rischio legale dell’editore; interessa che l’editore continui a fornirgli benzina di alta qualità, gratis.
L’illusione del controllo editoriale
La narrazione che Google sta spingendo è che l’ottimizzazione per i motori di ricerca non sia cambiata. Ci dicono di concentrarci sull’utente, sulla “utilità”.
Ma “utile” per chi?
Per l’utente che cerca una risposta rapida o per l’algoritmo che deve trattenerlo sulla pagina dei risultati?
L’agenzia W3era ha riportato che Google sconsiglia vivamente l’uso di strumenti automatizzati per creare contenuti frammentati, avvertendo che tali pratiche potrebbero non portare alcun vantaggio nel posizionamento. Eppure, la realtà empirica che molti osservano è diversa: spesso sono proprio le risposte brevi e schematiche a finire nei riquadri dell’IA.
Questa dissonanza cognitiva tra ciò che Google dice (“scrivete per gli umani”) e ciò che il suo algoritmo premia (spesso contenuti sintetici o aggregati da piattaforme come Reddit) crea un ambiente tossico.
È la classica strategia del gaslighting tecnologico: se il tuo sito crolla, è colpa tua che hai cercato di “ingannare” l’IA, non di Google che ha deciso di sostituire i tuoi link con le sue risposte sintetiche.
Sullivan ha detto di aver visto ripetutamente consigli che esortano i creatori a riformattare i loro contenuti specificamente per i modelli linguistici di grandi dimensioni, ma ha sottolineato che Google non utilizza tali segnali per determinare il posizionamento nei risultati di ricerca.
— Report di Moneycontrol sulle dichiarazioni di Danny Sullivan
Siamo di fronte a un bivio inquietante. Se seguiamo il consiglio di Google e scriviamo articoli profondi e strutturati, forniamo ottimo materiale di addestramento per l’IA che un giorno ci renderà obsoleti. Se proviamo a “giocare” con il sistema frammentando i contenuti, veniamo penalizzati o ignorati oggi stesso.
La verità è che non esiste una “partnership” tra editori e Big Tech. Siamo fornitori non pagati in un ecosistema che sta cercando di automatizzare la nostra esclusione.
L’avvertimento contro il content chunking non è un consiglio amichevole di un partner preoccupato per la qualità della prosa online; è l’ordine di un caporale che vuole assicurarsi che le truppe continuino a marciare ordinatamente verso il precipizio, producendo dati puliti fino all’ultimo secondo.
Dovremmo chiederci: stiamo scrivendo per informare le persone, o stiamo semplicemente lavorando gratis per migliorare il dataset di chi ci sta togliendo il lavoro?