Ricette di Natale: l’intelligenza artificiale non ha sostituito le nonne nel 2023
Nonostante l’allarme “AI slop”, le ricette di Natale online sono rimaste saldamente in mano agli umani, ma con sorprendenti paradossi sulla sicurezza alimentare
Siamo sopravvissuti a un altro Natale e, con buona pace delle previsioni catastrofiche che circolavano negli ultimi due anni, il tacchino nel forno non è esploso e il panettone non è stato farcito con il dentifricio.
Se guardiamo indietro al 2023, quando testate come Fortune lanciavano l’allarme sul “fango algoritmico” (AI slop) che stava inondando i siti di cucina, l’aspettativa per queste festività appena trascorse era quella di una guerriglia digitale: algoritmi contro nonne, GPT-4 contro il quaderno unto di ricette di famiglia.
Eppure, i dati ci raccontano una storia diversa, tecnicamente più sfumata e decisamente più ironica.
Contrariamente al panico diffuso sull’imminente sostituzione dei food blogger con server farm ronzanti, l’ecosistema delle ricette online ha mostrato una resilienza inaspettata. Uno studio condotto su un dataset di oltre 600 ricette natalizie ha rivelato che la stragrande maggioranza dei contenuti indicizzati dai motori di ricerca per le feste è rimasta saldamente in mani umane.
Non stiamo parlando di impressioni soggettive, ma di analisi statistiche basate su classificatori di testo. Il team di ricerca di Originality.ai ha analizzato 636 URL posizionati per keyword competitive come “Christmas” e “holiday”, scoprendo che l’invasione dell’IA è stata, al massimo, una scaramuccia di confine.
Oltre il 95% delle ricette di Natale e delle festività sono scritte da esseri umani.
— Team di Ricerca, Originality.ai
Il paradosso della sicurezza
Per noi tecnici, il dato più interessante non è tanto la percentuale di adozione dell’IA (ferma a un modesto 4,1%), quanto il tasso di errore critico.
Siamo abituati a pensare alle “allucinazioni” dei modelli linguistici come al pericolo principale: il chatbot che inventa ingredienti tossici o tempi di cottura impossibili. La realtà emersa dall’analisi del codice — o meglio, del testo — delle ricette inverte completamente questa narrazione.
Il vero bug nel sistema, a quanto pare, siamo ancora noi.
Lo studio ha isolato 39 ricette contenenti “food safety flags”, ovvero istruzioni pericolose per la salute, come temperature interne insufficienti per il pollame o la gestione scorretta di uova crude. Il dato scioccante è che tutte queste ricette pericolose erano state scritte da esseri umani. Nessuna delle ricette generate dall’IA presentava questi rischi specifici.
Il punto chiave? Anche gli esseri umani possono commettere errori quando si tratta di sicurezza alimentare.
— Team di Ricerca, Originality.ai
Questo solleva una questione fondamentale sull’affidabilità delle fonti.
Mentre passiamo il tempo a perfezionare filtri e guardrail per impedire a un LLM (Large Language Model) di generare contenuti dannosi, tendiamo a dare per scontata l’autorevolezza del contenuto biologico. Un tasso di errore del 6% nel contenuto umano è una metrica che, in un contesto di sviluppo software, porterebbe a un immediato refactoring del codice o a una revisione delle procedure di QA (Quality Assurance).
Da un punto di vista tecnico, la metodologia utilizzata per distinguere il contenuto sintetico da quello organico merita un approfondimento. Non si tratta di magia nera, ma di analisi probabilistica.
Le ricette sono state classificate come Probabilmente IA se il loro punteggio di confidenza IA era pari a 0,5 (o superiore) con il rilevatore IA di Originality.ai.
— Team di Ricerca, Originality.ai
La verbosità come feature SEO
Perché l’IA non ha invaso le nostre cucine digitali?
La risposta potrebbe risiedere nella struttura stessa del web semantico e nelle logiche SEO (Search Engine Optimization) che governano la visibilità su Google. Gli sviluppatori e i content creator sanno bene che un LLM tende, per sua natura, alla sintesi o a una struttura molto schematica se non pesantemente “promptato”.
Al contrario, le ricette che si posizionano meglio sui motori di ricerca sono famose (e spesso odiate dagli utenti) per la loro estrema lunghezza.
Prima di arrivare alla lista degli ingredienti, l’utente deve spesso scrollare attraverso chilometri di narrazione sulla storia dell’infanzia dell’autore o sulla consistenza della neve quel particolare mattino di dicembre. Questa “verbosità”, che per un ingegnere è inefficienza, per l’algoritmo di ranking è segnale di qualità e profondità.
D’altra parte, le ricette scritte da esseri umani erano più lunghe e avevano una lunghezza media del testo di 2.228 caratteri.
— Team di Ricerca, Originality.ai
L’IA generativa attuale fatica a replicare questo tipo di “bloatware” testuale in modo convincente senza sembrare ridondante o robotica.
C’è un’eleganza perversa nel fatto che proprio la caratteristica più fastidiosa dei blog di cucina — lo storytelling prolisso — sia diventata il miglior sistema di difesa contro l’automazione di massa.
Oltre il panico da generazione
Bisogna però mantenere uno sguardo critico sugli strumenti che utilizziamo per queste analisi.
Aziende come Originality.ai hanno tutto l’interesse a mantenere alta l’attenzione sul problema, dato che il loro modello di business si basa sulla vendita di software di rilevamento. Già dal 2020, l’azienda ha iniziato a rilevare aumenti significativi di contenuti generati dall’IA in settori come le recensioni di prodotti su e-commerce, creando un precedente che giustifica l’attuale scrutinio.
Tuttavia, applicare questi filtri al mondo culinario ci ha mostrato che ogni verticale ha le sue difese immunitarie. La cucina è un dominio dove l’esperienza sensoriale e la fiducia nell’autore giocano ancora un ruolo tecnico insostituibile. Un modello linguistico può prevedere statisticamente quale parola segua “farina”, ma non ha feedback loop sul sapore o sulla consistenza.
La lezione che ci portiamo nel 2026 è che la trasparenza tecnica non riguarda solo l’etichettatura “Made by AI”. Riguarda la qualità intrinseca dell’informazione.
Se un algoritmo scrive una ricetta sicura e un umano ne scrive una che ti manda all’ospedale, quale delle due è “spazzatura”? Forse dovremmo smettere di preoccuparci di chi ha scritto il codice (o la ricetta) e iniziare a testare più rigorosamente l’output, indipendentemente dalla natura del processore che l’ha generato, sia esso al silicio o al carbonio.