L’AI di Google crea ricette Frankenstein: Solis denuncia danni a brand e SEO.
Questi ibridi culinari, nati dalla fusione automatica di ingredienti e procedimenti presi da fonti diverse, rappresentano un sintomo della trasformazione del motore di ricerca che sta erodendo la fiducia e smantellando l’ecosistema dei creatori di contenuti.
Il piatto che vi state apprestando a cucinare potrebbe essere un esperimento non autorizzato, assemblato da un algoritmo che non ha mai acceso un fornello.
È questa l’inquietante prospettiva sollevata da un numero crescente di chef, food blogger e, ora, anche da esperti di marketing digitale come Aleyda Solis, che in un recente intervento su CNBC ha puntato il dito contro le cosiddette “ricette Frankenstein” generate dall’intelligenza artificiale di Google.
Questi ibridi culinari, nati dalla fusione automatica di ingredienti e procedimenti presi da fonti diverse, non sono solo un potenziale disastro gastronomico.
Sono il sintomo più evidente di una trasformazione epocale del motore di ricerca che sta erodendo la fiducia degli utenti e smantellando, pezzo dopo pezzo, l’ecosistema dei creatori di contenuti.
Mentre Sundar Pichai celebra le opportunità della piattaforma AI per il retail, qualcuno si sta chiedendo chi pagherà il conto di questa rivoluzione.
La posta in gioco, infatti, va ben oltre una torta bruciata o un condimento improbabile.
Al centro del dibattito c’è Google AI Mode, lanciato per tutti gli utenti statunitensi nel giugno 2025 e poi espanso a livello globale, che integra risposte generative direttamente nella pagina dei risultati.
Il sistema, alimentato dai modelli Gemini, promette di sintetizzare la conoscenza del web per offrire risposte immediate.
Nel caso delle ricette, però, questa sintesi si traduce spesso in un collage pericoloso: l’algoritmo prende gli ingredienti da un blog affidabile, i passaggi da un forum anonimo e le foto da un terzo sito, cucendo insieme un’istruzione mai testata che però porta il marchio di un editore riconosciuto.
Adam Gallagher del popolare sito Inspired Taste ha denunciato proprio questo: le sue ricette, frutto di 15 anni di lavoro, vengono smembrate e ricombinate in “varianti Frankenstein” che rischiano di rovinare la reputazione del suo brand quando il risultato finale è immangiabile.
Il modello di business dietro il piatto pronto
Perché Google spingerebbe verso risposte “zero-click” che, in apparenza, sottraggono traffico ai siti web?
La risposta è nel modello pubblicitario.
Un utente che trova la soluzione direttamente nella SERP (Search Engine Results Page) di Google non abbandona l’ecosistema del gigante di Mountain View.
Ogni interazione rimane all’interno del suo giardino recintato, dove può essere profilata, analizzata e monetizzata con maggiore precisione.
L’azienda sta già lavorando per standardizzare gli acquisti tramite AI Mode, trasformando la ricerca in un assistente commerciale che non solo suggerisce, ma completa la transazione.
In questo quadro, i contenuti dei publisher—dalle testate giornalistiche ai blog di ricette—diventano semplicemente materia prima gratuita per alimentare il motore delle risposte generative.
Più l’AI trattiene l’utente, più i dati si accumulano e più il valore si sposta dai creatori originali alla piattaforma che aggrega e rielabora.
Il conflitto è esploso in sede legale.
L’11 febbraio 2026, l’European Publishers Council (EPC) ha presentato un’accusa formale alla Commissione Europea, sostenendo che Google abusa della sua posizione dominante utilizzando i contenuti degli editori senza autorizzazione, meccanismi di opt-out efficaci o un equo compenso.
La replica di Google è stata netta: quelle accuse sono “inesatte” e mirano a bloccare funzionalità utili agli utenti.
Ma la questione tocca un nervo scoperto del GDPR e del diritto d’autore: fino a che punto un’azienda può utilizzare opere protette per addestrare i propri modelli e generare nuovo contenuto che, di fatto, compete con l’originale?
Intanto, dall’altra parte dell’oceano, il senatore Chris Murphy invoca una regolamentazione internazionale e misure come la watermarking per i contenuti AI, segno che la preoccupazione politica sta crescendo.
Tra rischi per la salute e “allucinazioni” culinarie
Il problema delle ricette Frankenstein non è solo una questione di copyright o di traffico web; è, in alcuni casi, un pericolo per la salute pubblica.
Cosa succede quando un algoritmo, nel tentativo di essere creativo, combina ingredienti che possono fermentare in modo pericoloso o suggerisce tempi di cottura errati per la carne?
Gli esempi non mancano: da consigli su come cucinare con la colla non tossica (presi da un thread satirico su Reddit scambiato per fonte affidabile) a istruzioni che avrebbero potuto portare a intossicazioni alimentari.
Google afferma di avere un approccio per proteggere gli utenti dai rischi dei media generati dall’IA, ma la natura stocastica e non cosciente di questi modelli rende impossibile un controllo preventivo su miliardi di potenziali output.
Una ricerca accademica ha provato a quantificare l’affidabilità, analizzando ricette generate dall’IA per diabetici e trovando una corrispondenza variabile tra il 64% e l’88% con quelle umane.
Un margine di errore del 12-36% in una lista di ingredienti o nelle istruzioni, però, in cucina può fare la differenza tra un piatto riuscito e un fallimento totale, se non peggio.
E mentre l’azienda rilascia aggiornamenti sempre più potenti, come la modalità “Deep Think” per Gemini 3, la domanda è: questa capacità di ragionamento complesso sarà applicata per garantire la sicurezza di base delle informazioni quotidiane, come una ricetta, o sarà riservata a compiti più “nobili” e redditizi?
La guida ufficiale di Google per i webmaster recita che i contenuti generati dall’IA sono accettabili se di alta qualità.
Ma chi definisce la qualità quando il contenuto è un ibrido non supervisionato?
E soprattutto, chi ne assume la responsabilità quando qualcosa va storto?
Il publisher il cui brand è stato associato erroneamente alla ricetta difettosa, o la piattaforma che l’ha generata e pubblicata senza verifica?
Il caso delle ricette è un microcosmo perfetto per osservare il più ampio scontro tra l’urgenza delle big tech di integrare l’AI in ogni prodotto e i diritti fondamentali di attribuzione, remunerazione e sicurezza degli utenti e dei creatori.
La transizione verso un web mediato dall’intelligenza artificiale sembra inarrestabile.
Google stessa vede il 2026 come un anno di consolidamento, dopo le innovazioni della ricerca del 2025.
Ma mentre l’azienda costruisce il futuro, sta anche, consapevolmente o meno, smantellando le fondamenta del presente: quella rete di siti, blog e professionisti che per decenni ha popolato il web di contenuti verificati, passion-based e, nel caso del cibo, testati e perfezionati con cura.
La domanda finale è se il prezzo per avere una risposta immediata—spesso approssimativa e potenzialmente rischiosa—valga la distruzione della diversità, dell’affidabilità e dell’economia stessa della creazione di contenuti online.
O, per dirla in termini culinari: vogliamo davvero sostituire le ricette di nonna, collaudate nel tempo, con un esperimento di laboratorio che nessuno ha assaggiato?