Microsoft Ammette: Lo Spam Generato Dall'Ai Sta Uccidendo la Fiducia nella Ricerca

Microsoft Ammette: Lo Spam Generato Dall’Ai Sta Uccidendo la Fiducia nella Ricerca

Microsoft cerca un “netturbino di lusso” per ripulire il web dallo spam generato dall’AI, ammettendo implicitamente il rischio di collasso cognitivo dei suoi modelli.

C’è qualcosa di profondamente ironico, quasi shakespeariano, in quello che sta accadendo nei corridoi di Redmond in questo inizio di 2026.

Per anni, le grandi aziende tecnologiche ci hanno venduto l’intelligenza artificiale generativa come la panacea universale, la “bussola” – termine che detesto, ma che i loro reparti marketing adorano – per orientarsi nella conoscenza umana. Ci hanno detto che i motori di ricerca tradizionali erano obsoleti e che i chatbot avrebbero distillato per noi la verità pura, libera dal rumore di fondo.

Eppure, oggi ci troviamo di fronte a un’ammissione di colpa che ha del clamoroso, seppur sepolta tra i tecnicismi di un annuncio di lavoro su LinkedIn. Microsoft sta cercando disperatamente qualcuno che pulisca il disastro che l’industria stessa ha contribuito a creare.

La conferma arriva direttamente da Fabrice Canel, Principal Product Manager di Microsoft Bing, che in un momento di rara onestà aziendale ha ammesso che lo spam sta uccidendo la fiducia nell’intelligenza artificiale e nella ricerca.

Non è un’iperbole: è la presa d’atto che il serpente ha iniziato a mangiarsi la coda.

Il problema non è nuovo, ma la scala è inedita. Se nel decennio scorso Google combatteva contro le “content farm” scritte da umani sottopagati, oggi il nemico è l’automazione totale. L’AI generativa ha abbattuto a zero il costo di produzione della spazzatura digitale.

Siti web, articoli, recensioni, commenti: tutto può essere falsificato in millisecondi. E chi, se non gli stessi modelli linguistici che alimentano Bing e Copilot, sta generando questa marea di contenuti scadenti?

Siamo di fronte a un ecosistema inquinato dagli stessi strumenti che dovrebbero curarlo, e le Big Tech stanno correndo ai ripari non per etica, ma per pura sopravvivenza economica.

Il paradosso dell’autocannibalismo digitale

Per capire la gravità della situazione, bisogna guardare oltre la superficie. I chatbot come Copilot non “sanno” le cose; le prevedono basandosi sui dati che hanno ingerito. Questo processo, noto come grounding, ancora le risposte dell’AI a fonti web esistenti per dare l’illusione di attualità e fattualità.

Ma se il web è inondato di contenuti sintetici, allucinazioni spacciate per fatti e spam generato da altre AI, il modello finisce per “bere acqua avvelenata”.

L’annuncio di lavoro per il ruolo di “Senior Product Manager, MAI Platform” è un documento rivelatore. Non si tratta più solo di ripulire la pagina dei risultati di ricerca per evitare che clicchiate su un sito truffa. La posta in gioco è l’integrità stessa del “cervello” dell’AI.

Microsoft ammette implicitamente che i suoi modelli rischiano il collasso cognitivo se continuano ad addestrarsi e a basarsi su un web che è diventato una discarica a cielo aperto di testo sintetico.

È qui che la narrazione del “futuro radioso” si scontra con la realtà tecnica.

Lo spam sta uccidendo la fiducia nell’intelligenza artificiale e nella ricerca. Fate vostra la battaglia: riducete lo spam su Copilot, Bing e sul web utilizzando AI e Machine Learning su scala internet. Proteggete milioni di utenti, brand e l’ecosistema AI. Unitevi a noi e costruite un futuro più pulito!

— Fabrice Canel, Principal Product Manager, Microsoft Bing

Notate l’enfasi su “proteggere i brand”. È sempre lì che si va a parare.

Se l’AI inizia a consigliare prodotti inesistenti o a associare marchi prestigiosi a contenuti spazzatura generati automaticamente, il castello di carte della monetizzazione crolla. E questo ci porta al vero nodo della questione, che viene spesso oscurato dalle dichiarazioni sulla “sicurezza degli utenti”.

Quando la “pulizia” serve a salvare la pubblicità

Non facciamoci illusioni: la mossa di Microsoft non nasce da un improvviso desiderio di elevare il dibattito culturale globale. Nasce dalla necessità di proteggere il fatturato.

Basta leggere con attenzione la descrizione ufficiale della posizione aperta per scoprire che il candidato dovrà definire e migliorare la qualità dei dati web con un focus iniziale sulla riduzione dello spam in Copilot, Bing, MSN e Ads.

La parola chiave è “Ads”. La pubblicità.

L’intero modello di business del web gratuito, e ora dell’AI “gratuita” (o quasi), si regge sulla capacità di mostrare annunci pertinenti a utenti reali. Se il web è popolato da bot che leggono contenuti scritti da altri bot, il valore dell’advertising scende a zero.

Gli inserzionisti non pagano per mostrare le loro scarpe a un algoritmo che sta scraping il sito per addestrare un altro algoritmo.

Inoltre, c’è un rischio legale e reputazionale enorme. Il grounding di Copilot deve essere affidabile. Se chiedete al vostro assistente AI consigli medici o finanziari e lui vi risponde citando un sito di spam generato automaticamente che vi consiglia di investire in una criptovaluta truffa o di bere candeggina, la responsabilità ricade su chi ha fornito lo strumento.

Microsoft sta cercando un “netturbino di lusso” (con uno stipendio che può arrivare a 258.000 dollari l’anno) perché sa che la prossima class action potrebbe costare molto di più.

Ma c’è un aspetto ancora più inquietante che riguarda la privacy e la sorveglianza. Per distinguere un umano da un bot, o un contenuto legittimo da uno spam sintetico, Microsoft dovrà analizzare i dati con una granularità ancora maggiore.

Il controllore che ha creato il problema

Per combattere un nemico che opera su “scala internet”, come recita l’annuncio, Microsoft propone di utilizzare “AI e Deep Learning”.

Siamo alla soluzione omeopatica: usare l’AI per curare i mali dell’AI.

Il team “Web Data” ha una missione che dovrebbe far tremare chiunque abbia a cuore la minimizzazione dei dati:

La missione del team Microsoft AI Web Data è impiegare l’Intelligenza Artificiale e il Deep Learning per comprendere tutti i dati presenti sul web, il più grande archivio di informazioni della storia umana. Grazie a questa comprensione alimentiamo le esperienze degli utenti finali in una varietà di aree, tra cui la Ricerca, il Grounding per Copilot e i sistemi di Training.

— Microsoft AI Web Data team (descrizione del ruolo)

“Comprendere tutti i dati presenti sul web”. Leggasi: scansionare, catalogare e giudicare ogni singolo frammento di informazione digitale.

Chi decide cosa è “spam” e cosa è “informazione di qualità”?

In un mondo dove il confine tra un articolo scritto da un umano mediocre e uno scritto da un GPT-4 ben promptato è quasi invisibile, il potere di decidere cosa entra nel training set e cosa viene scartato equivale al potere di decidere la verità.

Se il vostro blog personale viene classificato come “bassa qualità” da un algoritmo opaco, sparite non solo da Bing, ma dalle risposte di Copilot. Diventate invisibili alla nuova infrastruttura della conoscenza. E non ci sarà un giudice umano a cui appellarsi, ma solo un altro modello di “Deep Learning” addestrato per massimizzare le metriche di engagement e la resa pubblicitaria.

Siamo partiti con la promessa che l’AI ci avrebbe liberato dai lavori ripetitivi. Ci ritroviamo nel 2026 con un web intasato di rumore sintetico, dove le uniche entità capaci di navigare sono le stesse mega-corporazioni che hanno venduto i generatori di rumore.

Microsoft ora si propone come il salvatore, il filtro necessario tra noi e il caos che hanno contribuito a scatenare.

Ma se la “fiducia” è morta, come dice Canel, siamo sicuri che affidare la pulizia della scena del crimine allo stesso soggetto che ha venduto l’arma sia la mossa più saggia?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie