Ai Slop: Quando l'intelligenza artificiale inquina la conoscenza

Ai Slop: Quando l’intelligenza artificiale inquina la conoscenza

L’età dell’oro della scoperta accelerata dall’IA si trasforma in un’operazione di bonifica a causa dell'”AI Slop”, inquinando sistematicamente la conoscenza umana e mettendo a rischio le istituzioni.

Immaginate di entrare in una biblioteca immensa, la più grande del mondo. Gli scaffali sono infiniti, l’illuminazione è perfetta e l’architettura è mozzafiato.

Ma quando iniziate a tirare fuori i libri e ad aprirli, notate qualcosa di inquietante: uno su tre contiene frasi che suonano bene, ma non significano nulla.

Grafici che sembrano plausibili, ma descrivono fenomeni inesistenti. Bibliografie che citano autori mai nati.

Benvenuti nella scienza del 2025.

Quella che doveva essere l’età dell’oro della scoperta accelerata dall’intelligenza artificiale si sta trasformando in una gigantesca operazione di bonifica. Il colpevole ha un nome sgradevole, coniato nel 2024 e ormai entrato nel lessico quotidiano: “AI Slop”. Letteralmente, la fanghiglia dell’IA.

Non stiamo parlando dei soliti deepfake o delle fake news politiche su cui abbiamo dibattuto per anni. Stiamo parlando di qualcosa di più insidioso: l’inquinamento sistematico della conoscenza umana. La promessa di modelli come GPT-4 e i suoi successori era quella di democratizzare la creatività; il risultato non intenzionale è stato l’industrializzazione della mediocrità.

E ora, mentre ci avviciniamo alla fine di questo anno turbolento, i nodi stanno venendo al pettine in modi che nemmeno i pessimisti più convinti avevano previsto.

La situazione è paradossale: abbiamo gli strumenti più potenti della storia per analizzare i dati, ma stiamo avvelenando i dati stessi su cui questi strumenti dovrebbero lavorare.

È come avere una Ferrari e riempire il serbatoio con acqua di palude.

Il paradosso dell’abbondanza

Per capire come siamo arrivati qui, dobbiamo guardare oltre la superficie scintillante delle demo tecnologiche. L’architettura Transformer, nata nel 2017, ha reso possibile tutto questo, ma è stata l’accessibilità a costo quasi zero del 2023-2024 a rompere gli argini.

Oggi, generare un paper scientifico di dieci pagine richiede meno energia e tempo di quanto ne serva per preparare un caffè.

Il problema non è che l’IA non sia intelligente; è che è instancabile.

Charlie Giattino, ricercatore presso Our World in Data, ha lanciato l’allarme su questo fenomeno, spiegando che l’iperproduzione di testi e immagini generati dall’IA sta inquinando il registro scientifico. Non si tratta solo di studenti pigri che cercano di passare un esame. Si tratta di un volume di “rumore” che sta sommergendo il segnale della vera ricerca.

L’iperproduzione di testo, immagini e altri contenuti generati dall’IA – spesso indicati come ‘AI slop’ – sta inquinando il registro scientifico.

— Charlie Giattino, Ricercatore presso Our World in Data

Il meccanismo è perverso.

I modelli linguistici (LLM) sono macchine statistiche progettate per prevedere la parola successiva più probabile, non per cercare la verità. Quando chiediamo loro di scrivere un paper sulla biochimica, loro non conducono esperimenti; simulano il linguaggio di chi ha condotto esperimenti.

Il risultato è un testo che sembra autorevole, usa il gergo corretto, ha la struttura giusta, ma è vuoto di contenuto empirico reale. È un’allucinazione vestita da scienza.

E qui scatta il vero pericolo, quello che gli esperti chiamano “collasso del modello”. Le nuove IA vengono addestrate su tutto ciò che trovano su internet. Se internet viene inondato da contenuti generati dalle vecchie IA, i nuovi modelli si nutriranno dei “rifiuti” dei loro predecessori.

È un ciclo di feedback negativo che degrada la qualità dell’intelligenza sintetica stessa, rendendola progressivamente più stupida e scollegata dalla realtà. Ma prima che i modelli collassino, rischiamo di far collassare le istituzioni umane.

Quando il sistema va in crash

Le conseguenze pratiche di questa inondazione non sono teoriche. Le stiamo vedendo nelle decisioni disperate che le istituzioni scientifiche hanno dovuto prendere quest’anno.

Il sistema di “peer review” (la revisione tra pari), che è stato il gold standard della scienza per secoli, si basa sulla fiducia e sul tempo umano. Due risorse che l’AI Slop sta consumando voracemente.

Un esempio lampante arriva dagli Stati Uniti. Di fronte a un’ondata ingestibile di proposte, i National Institutes of Health sono stati costretti a imporre un tetto rigido al numero di domande per ricercatore.

Il motivo? Un aumento insostenibile di proposte di bassa qualità, assistite o generate interamente dall’IA, che intasavano i canali di valutazione.

Immaginatevi nei panni di un revisore. Prima, leggere una proposta di ricerca richiedeva concentrazione per scovare errori metodologici. Oggi, il revisore deve essere un detective forense digitale, cercando di capire se l’idea brillante che ha davanti è frutto di anni di studio o di un prompt ben scritto inserito in un modello LLM cinque minuti prima della scadenza.

La fatica cognitiva è raddoppiata, mentre la qualità media del materiale è crollata.

James Heathers, ricercatore presso l’Università di Melbourne, ha centrato il punto focale del problema: la capacità di persuasione dell’IA.

Il problema è che gli LLM [grandi modelli linguistici] sono molto bravi a sembrare autorevoli e convincenti, anche quando hanno torto.

— James Heathers, Senior Researcher presso l’Università di Melbourne

Questo crea un ambiente in cui la verità diventa un ago in un pagliaio di verosimiglianza. E non riguarda solo i testi. Studi recenti pubblicati sul Journal of Medical Internet Research hanno evidenziato come anche i video educativi in ambito biomedico siano ormai infestati da contenuti sintetici che propagano disinformazione.

Studenti di medicina che imparano procedure da video generati dall’IA che “allucinano” l’anatomia umana?

Non è fantascienza distopica, è un rischio documentato del 2025.

L’ottimismo tecnologico qui deve fare i conti con la realtà. Abbiamo costruito autostrade digitali velocissime, ma non abbiamo messo né semafori né controlli di qualità agli ingressi.

E ora il traffico è paralizzato dai rottami.

L’illusione della produttività

Se pensate che questo problema sia confinato alle torri d’avorio dell’accademia, vi sbagliate. Lo “slop” ha invaso i nostri uffici sotto forma di quello che l’Harvard Business Review chiama “Workslop”.

Quante volte quest’anno avete ricevuto un’email chilometrica che poteva essere una riga? O un report aziendale di 50 pagine che nessuno ha letto, generato automaticamente da un assistente virtuale?

La promessa era che l’IA ci avrebbe liberato dai compiti noiosi. La realtà è che il 95% delle aziende non vede alcun ritorno sull’investimento misurabile dall’IA generativa, proprio a causa di questo sovraccarico di contenuti di bassa qualità.

Stiamo assistendo a una sorta di inflazione del contenuto. Quando produrre un documento costava tempo e fatica umana, il fatto stesso che esistesse segnalava un certo valore. Ora che il costo di produzione è zero, il valore del contenuto non verificato tende a zero.

I manager si trovano sommersi da analisi di mercato sintetiche, riassunti di riunioni che mancano le sfumature emotive e codice software che funziona “quasi” bene ma contiene vulnerabilità di sicurezza nascoste.

È l’equivalente digitale della plastica monouso. Comoda, economica, onnipresente e terribilmente difficile da smaltire.

Il tempo che risparmiamo nella generazione lo perdiamo (con gli interessi) nella verifica e nel filtraggio.

La reazione a tutto questo non deve essere il luddismo. Non possiamo disinventare l’IA, né dovremmo volerlo. Le potenzialità per la medicina personalizzata, per la modellazione climatica e per l’efficienza energetica rimangono straordinarie.

Ma l’entusiasmo del “lasciamo fare tutto all’algoritmo” deve lasciare il posto a un approccio più maturo e critico: l’IA come copilota, non come pilota automatico ubriaco.

La sfida per il 2026 non sarà tecnologica, ma epistemologica. Come facciamo a sapere cosa è vero?

Probabilmente vedremo l’ascesa di nuove figure professionali e nuovi strumenti dedicati esclusivamente alla “bonifica” dei dati. Vedremo, forse, un ritorno al valore dell’interazione umana diretta, non mediata, come garanzia di autenticità.

Siamo a un bivio.

Possiamo continuare a inondare i nostri archivi scientifici e culturali con fanghiglia sintetica, rendendo le future scoperte sempre più difficili, o possiamo iniziare a trattare l’attenzione umana e la verità scientifica come le risorse scarse e preziose che sono.

L’IA è uno specchio della nostra conoscenza collettiva; se ci limitiamo a rifletterci dentro versioni distorte di noi stessi, non ci piacerà quello che vedremo tra qualche anno.

La domanda che dobbiamo porci mentre chiudiamo questo 2025 non è “cosa può generare l’IA?”, ma “cosa merita di essere conservato?”.

Perché in un mondo di contenuti infiniti, l’unico vero lusso rimasto è la verità.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie