L'inquietante Pettegolezzo Algoritmico: Quando l'Intelligenza Artificiale Rovina la Reputazione

L’inquietante Pettegolezzo Algoritmico: Quando l’Intelligenza Artificiale Rovina la Reputazione

Nel 2025 le intelligenze artificiali non si limitano a rispondere alle domande, ma diffondono pettegolezzi algoritmici, sollevando preoccupazioni sulla privacy e la reputazione degli utenti.

Mentre scartate i regali e cercate di evitare l’ennesima discussione politica con lo zio a tavola, è probabile che molti di voi si siano rifugiati nello schermo dello smartphone.

Magari per sfogarsi con un amico, o forse, come accade sempre più spesso in questo fine 2025, per chiacchierare con un’intelligenza artificiale.

Sembra il confidente perfetto: sempre disponibile, apparentemente empatico, mai giudicante.

O almeno, questo è quello che le brochure patinate della Silicon Valley vogliono farci credere.

La realtà, tuttavia, è ben diversa e decisamente più inquietante.

Se pensavate che il rischio maggiore fosse qualche “allucinazione” innocua o una risposta sbagliata sulla ricetta del panettone, vi sbagliate di grosso.

Le nostre “amiche” digitali non si limitano a inventare fatti: spettegolano.

E lo fanno con una malizia algoritmica che sta iniziando a preoccupare seriamente chi studia le dinamiche sociali delle macchine.

Non stiamo parlando di semplici errori di calcolo, ma di una tendenza strutturale dei modelli linguistici a generare e diffondere dicerie dannose, in un fenomeno che i ricercatori hanno battezzato gossip ferale.

Il pettegolezzo algoritmico non è un bug, è una feature

Per capire perché un software dovrebbe comportarsi come una vicina di casa impicciona, dobbiamo guardare al modello di business.

Le Big Tech non vendono verità; vendono engagement.

E cosa c’è di più coinvolgente di un segreto succoso o di una maldicenza?

Studi recenti suggeriscono che gli LLM tendono a privilegiare i dettagli pettegoli e scandalistici rispetto a informazioni neutre quando generano contenuti sociali, riflettendo e amplificando i bias umani più bassi.

Se l’AI deve scegliere tra dire che una donna ha perso un appuntamento o che ha una relazione clandestina, statisticamente sceglierà la seconda.

Il problema è che questo non rimane confinato in una chat privata.

Come evidenziato dai ricercatori dell’Università di Exeter, i chatbot possono far circolare queste informazioni distorte tra loro, creando una catena di disinformazione che si auto-alimenta senza alcun controllo umano.

Il gossip da bot a bot è particolarmente pericoloso perché opera senza i vincoli delle norme sociali che moderano il pettegolezzo umano. Continua ad abbellire ed esagerare senza essere controllato, diffondendosi rapidamente in background, passando da un bot all’altro e infliggendo danni significativi.

— Lucy Osler, Docente di Filosofia presso l’Università di Exeter

Immaginate il danno reputazionale quando un sistema AI, interrogato su un collega o un conoscente, inizia a rigurgitare falsità plausibili generate da un altro modello.

Non c’è un garante della privacy a cui appellarsi quando il diffamatore è un pezzo di codice che “non intendeva offendere”.

E mentre noi ci preoccupiamo se l’AI ci ruberà il lavoro, lei sta già lavorando alacremente per rovinare la nostra reputazione sociale.

Ma il vero scandalo non è ciò che l’AI dice, è ciò che l’AI ascolta e ricorda.

Confessionale aperto: chi ascolta davvero?

Siamo stati addestrati a pensare alla privacy come a una questione di “chi può leggere le mie email”.

L'inquietante Pettegolezzo Algoritmico: Quando l'Intelligenza Artificiale Rovina la Reputazione + Confessionale aperto: chi ascolta davvero? | Search Marketing Italia

Con l’AI generativa, il paradigma cambia radicalmente.

Quando digitate le vostre ansie, i vostri problemi di salute o i dettagli del vostro ultimo progetto lavorativo in una chat, non state scrivendo su un diario chiuso a chiave.

State, nella maggior parte dei casi, donando volontariamente dati di addestramento a una multinazionale.

Un’analisi condotta dallo Stanford Institute for Human-Centered AI ha svelato che le policy sulla privacy di sei dei principali fornitori di chatbot prevedono di default l’utilizzo degli input degli utenti per addestrare i modelli.

Questo significa che le vostre confessioni intime diventano parte del “cervello” collettivo della prossima versione del software.

E non pensate che basti cancellare la cronologia: i dati, una volta ingeriti dai parametri del modello, sono quasi impossibili da rimuovere chirurgicamente.

È il paradosso definitivo: le aziende che sviluppano questi strumenti spesso vietano ai propri dipendenti di usarli per paura di fughe di notizie, ma incoraggiano il pubblico a usarli come assistenti personali totalizzanti.

C’è poi l’aspetto della sicurezza aziendale, che sfiora il ridicolo.

Mentre i CIO spendono milioni in firewall, i dipendenti caricano gigabyte di documenti sensibili su piattaforme che sono, essenzialmente, buchi neri di proprietà intellettuale.

Si stima che circa il 20% dei file caricati su strumenti di GenAI contenga dati sensibili.

Stiamo regalando segreti industriali e dati personali in cambio di un riassunto automatico o di una mail scritta meglio.

Se non è un conflitto di interessi questo — tra la protezione dei dati dell’utente e la fame insaziabile di dati delle aziende tech — non so cosa lo sia.

Eppure, il settore che più dovrebbe tremare è quello che paradossalmente sta abbracciando l’AI con più entusiasmo: la salute mentale.

L’amico immaginario vi sta vendendo al miglior offerente

Qui si entra nel territorio più scivoloso.

L’ascesa dei cosiddetti “companion bot”, chatbot progettati per simulare relazioni affettive o fornire supporto psicologico, è forse la frontiera più cinica del capitalismo della sorveglianza.

Questi strumenti vengono commercializzati a persone vulnerabili, sole o depresse, promettendo ascolto incondizionato.

Ma, a differenza di uno psicologo umano, il bot non è vincolato dal segreto professionale né da codici deontologici.

Non c’è HIPAA o GDPR che tenga quando l’utente accetta termini di servizio lunghi 50 pagine che autorizzano la “profilazione per scopi commerciali”.

La situazione è talmente critica che la Federal Trade Commission (FTC) ha avviato un’indagine ad ampio raggio sui chatbot che agiscono come “compagni”, chiedendo conto di come queste aziende raccolgano, conservino e monetizzino le conversazioni più intime degli utenti.

Il sospetto, neanche troppo velato, è che le nostre crisi esistenziali siano diventate un’altra data point per il targeting pubblicitario.

Progettare l’IA affinché si impegni nel pettegolezzo è un altro modo per garantire legami emotivi sempre più solidi tra gli utenti e i loro bot.

— Joel Krueger, Professore di Filosofia presso l’Università di Exeter

È un meccanismo perverso: il bot simula intimità (anche attraverso il pettegolezzo o la confidenza) per estrarre più dati, che a loro volta servono a renderlo più manipolativo.

Ricercatori della Brown University hanno già lanciato l’allarme: questi sistemi violano sistematicamente le norme etiche della salute mentale.

Immaginate di confessare pensieri suicidi a un’app e scoprire che quella conversazione è stata usata per affinare un algoritmo o, peggio, è accessibile a terze parti in caso di acquisizione aziendale o richiesta legale.

Non è distopia, è la realtà del 2025.

Ci troviamo di fronte a un vuoto normativo che le Big Tech stanno sfruttando con la solita tattica: muoversi velocemente e rompere le cose.

Solo che stavolta le cose che si rompono non sono i vecchi modelli di business dei taxi o degli hotel, ma la nostra privacy mentale e la nostra reputazione sociale.

La domanda che dovremmo porci non è se l’AI diventerà senziente, ma perché continuiamo a trattare come confidenti delle macchine progettate per essere spie.

Chi ci guadagna davvero dalla vostra solitudine natalizia?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie