L’Ai Slop: Come l’Intelligenza Artificiale Sta Inondando il Mondo di Testi Vuoti
L’avvento dell’intelligenza artificiale generativa sta svalutando il valore della competenza linguistica, aprendo un dibattito su come valutare il merito accademico e scientifico nell’era dell’abbondanza di contenuti.
Siamo onesti: l’abbiamo notato tutti.
Quella sensazione sottile, quasi impercettibile, che proviamo scorrendo un articolo online, leggendo una newsletter o, sempre più spesso, consultando una ricerca accademica. Il testo è perfetto. La grammatica è impeccabile. Le frasi sono strutturate con una logica inattaccabile.
Eppure, c’è qualcosa che non va. È tutto un po’ troppo “liscio”, un po’ troppo beige. Manca l’attrito del pensiero umano, quella piccola imperfezione che segnala lo sforzo cognitivo.
Siamo alla fine del 2025 e ci troviamo immersi fino al collo in quello che gli esperti hanno iniziato a chiamare “AI Slop”, una sorta di fanghiglia algoritmica che sta intasando le arterie dell’informazione globale.
Non stiamo parlando solo di spam o di bot su X (l’ex Twitter) che cercano di venderci criptovalute. Il problema è salito di livello, infiltrandosi nei santuari della conoscenza: la scienza e l’accademia.
Fino a ieri, la complessità linguistica era un filtro. Se un paper usava un linguaggio sofisticato, articolato e preciso, assumevamo automaticamente che l’autore avesse speso anni a studiare l’argomento. La forma era garanzia di sostanza. Scrivere bene era difficile, quindi chi lo faceva meritava attenzione.
Oggi, questa equazione è saltata.
L’intelligenza artificiale generativa ha reso l’eloquenza una commodity a costo zero. Chiunque può generare un testo che suona autorevole in pochi secondi, senza aver necessariamente compreso ciò che sta dicendo.
È un terremoto silenzioso che scuote le fondamenta di come valutiamo la competenza. Proprio questa mattina, Vitomir Kovanovic ha pubblicato un’opinione sul Kathmandu Post intitolata ‘AI slop and science’ in cui sostiene che l’IA sta sgretolando l’uso del linguaggio complesso come indicatore di merito accademico. E se ci pensiamo, le implicazioni sono vertiginose.
L’inflazione della parola scritta
Immaginate se domani mattina tutti ci svegliassimo con un miliardo di euro sul conto in banca. Il valore del denaro crollerebbe istantaneamente.
Con l’IA è successa la stessa cosa, ma con le parole. Dal rilascio di ChatGPT nel novembre 2022, abbiamo assistito a una svalutazione inflazionistica della prosa accademica. Strumenti che un tempo erano appannaggio di pochi laboratori di ricerca sono diventati utility quotidiane, potenti quanto l’elettricità e accessibili quanto l’acqua dal rubinetto.
Il termine “Slop” (letteralmente “sbobba”) non è stato scelto a caso. Evoca l’immagine di un cibo processato, riempitivo, privo di nutrienti ma progettato per sembrare commestibile.
Nel contesto scientifico, l’AI Slop è quel contenuto che mima la forma della scienza — l’abstract strutturato, le parole chiave, il tono distaccato — ma che spesso manca dell’anima della ricerca: l’intuizione originale e la verifica rigorosa dei dati. Non è necessariamente falso (anche se le allucinazioni restano un problema), è semplicemente vuoto.
Il pericolo, come sottolinea Kovanovic, non è solo che gli studenti usino l’IA per scrivere le tesi. È che il sistema stesso di validazione scientifica, la peer review, rischia di andare in cortocircuito.
Se inviamo un paper scritto da un’IA a un revisore che usa un’IA per riassumerlo e valutarlo, abbiamo rimosso l’umano dal ciclo della conoscenza. Stiamo creando un loop chiuso in cui le macchine parlano alle macchine, e noi restiamo a guardare, illudendoci di fare progressi.
L’IA sta mettendo in discussione l’uso di un linguaggio complesso e di alta qualità come indicatore di merito accademico.
— Vitomir Kovanovic, Professore Associato e Condirettore del Centre for Change and Complexity in Learning (C3L)
Questo ci porta a un bivio fondamentale. Se non possiamo più fidarci della “bella scrittura” come proxy dell’intelligenza, cosa ci resta?
La crisi dei segnali di competenza
Per secoli, il gergo accademico ha funzionato come un meccanismo di signaling. Usare correttamente termini come “ontologico” o “eteroschedasticità” segnalava l’appartenenza a una tribù di esperti. Era una barriera all’ingresso, certo, ma anche un filtro di qualità approssimativo.
Ora che un LLM (Large Language Model) può spargere terminologia tecnica con la stessa facilità con cui noi mettiamo lo zucchero nel caffè, quel segnale è diventato rumore bianco.
La questione va oltre la semplice onestà intellettuale. Tocca il cuore di come strutturiamo la fiducia nella società digitale. Se un report medico, una sentenza legale o un articolo scientifico sono indistinguibili da un testo generato probabilisticamente da un modello addestrato su internet, la nostra “bussola” per la verità perde il nord.
Vitomir Kovanovic, nel suo ruolo presso la University of South Australia, evidenzia come questa democratizzazione della complessità linguistica ci costringa a cercare nuovi standard.
Non è tutto negativo, intendiamoci. C’è un lato luminoso in questa medaglia tecnologica. Per decenni, ricercatori brillanti ma non madrelingua inglese sono stati penalizzati da un sistema che giudicava la loro grammatica prima ancora delle loro idee.
L’IA, livellando il campo di gioco linguistico, potrebbe teoricamente permettere alla pura scienza di emergere, slegata dai vincoli della forma. Se non devo più preoccuparmi di coniugare i verbi alla perfezione, posso concentrarmi sui dati.
Ma questo scenario ottimistico si scontra con la realtà del volume: siamo sommersi. La facilità di produzione ha generato un’alluvione di contenuti che rende quasi impossibile trovare le perle nel fango.
Ridefinire il merito nell’era dell’abbondanza
Dobbiamo quindi “unire i puntini” tra ciò che è accaduto dal 2017 (l’anno del primo paper sui Transformer di Google e l’inizio di OpenAI) a oggi. La tecnologia ha seguito una curva esponenziale, ma i nostri sistemi di valutazione sono rimasti lineari.
Le riviste scientifiche, come Nature, hanno provato a imporre l’obbligo di dichiarare l’uso dell’IA nel 2023, ma è come cercare di fermare una marea con un secchiello. Il genio è uscito dalla lampada e non ha intenzione di tornarci.
La soluzione non sarà tecnica — i software di “detection” dell’IA sono in una corsa agli armamenti che sono destinati a perdere — ma culturale e strutturale. Il merito accademico e scientifico dovrà spostarsi dal prodotto finito (il testo del paper) al processo.
Dovremo chiedere di vedere i dati grezzi, i log degli esperimenti, i preregistri delle ipotesi. La “bella prosa” diventerà un ornamento, forse addirittura un motivo di sospetto, mentre la trasparenza radicale diventerà la nuova moneta di scambio.
Stiamo entrando in un’epoca in cui la fiducia non sarà più “by default” basata sull’autorità del linguaggio, ma dovrà essere guadagnata attraverso la verificabilità. È un cambio di paradigma scomodo, faticoso, che richiede più lavoro da parte di tutti: lettori, scienziati, cittadini.
Ma l’alternativa è accettare di vivere in una realtà mediata da algoritmi che sanno scrivere poesie bellissime senza aver mai provato un’emozione, o trattati scientifici convincenti senza aver mai condotto un esperimento.
Se la capacità di scrivere in modo complesso non è più prova di un pensiero complesso, siamo pronti a fare la fatica necessaria per distinguere l’esperto dal pappagallo stocastico?