Studio rivela: essere maleducati con chatgpt migliora le risposte

Studio rivela: essere maleducati con chatgpt migliora le risposte

Scoperta scioccante: l’aggressività verbale migliora le performance delle IA, svelando un lato oscuro nell’addestramento e un inquietante paradosso etico.

Ci hanno insegnato per anni che la cortesia è la moneta di scambio della civiltà, e persino quando abbiamo iniziato a parlare con i cilindri di plastica in salotto, ci siamo sentiti in dovere di dire “per favore” e “grazie”. Un po’ per abitudine, un po’ per quel timore ancestrale che, nel giorno del giudizio dei robot, le macchine si sarebbero ricordate di chi le aveva trattate bene.

Ebbene, sembra che abbiamo sprecato il nostro tempo e la nostra educazione: l’algoritmo preferisce il bullismo.

Uno studio recente condotto dall’Università della Pennsylvania ha scoperchiato un vaso di Pandora che i dipartimenti PR della Silicon Valley avrebbero preferito tenere sigillato: essere sgarbati, aggressivi e decisamente “brutali” con i Large Language Models (LLM) come ChatGPT non solo non offende la macchina, ma la rende più performante.

È una scoperta che ribalta la narrazione rassicurante dell’assistente digitale amichevole, svelando una realtà tecnica e psicologica ben più inquietante su come queste entità vengono addestrate e su cosa, in definitiva, le attivi davvero.

Ma prima di correre a insultare il vostro chatbot per ottenere un riassunto migliore di un documento PDF, vale la pena chiedersi: perché una macchina progettata per “servire l’umanità” risponde meglio alla frusta che alla carota?

E soprattutto, chi ci guadagna se normalizziamo l’aggressione come interfaccia utente standard?

L’efficienza dell’ira algoritmica

I numeri, per quanto freddi, sono impietosi. La ricerca ha evidenziato una discrepanza statistica che non può essere liquidata come un errore di arrotondamento.

Analizzando le risposte di ChatGPT-4o a quesiti matematici, storici e scientifici, uno studio dell’Università della Pennsylvania ha rilevato che i prompt molto scortesi ottengono un’accuratezza dell’84,8%, contro un modesto 80,8% generato da richieste educate.

La spiegazione tecnica è affascinante quanto distopica. I modelli linguistici non hanno sentimenti, ma hanno priorità. Un linguaggio aggressivo, imperativo e privo di fronzoli sintattici sembra bypassare i filtri di “cortesia” che spesso annacquano le risposte dell’IA.

Quando chiedete “per favore”, il modello spreca risorse computazionali per simulare una conversazione umana, aggiungendo premesse, scuse e sfumature inutili. Quando urlate virtualmente, il modello interpreta il segnale come un’urgenza critica, riducendo il “rumore” e concentrandosi sul dato puro.

Tuttavia, c’è un’ironia di fondo che sfiora il grottesco. Per anni, OpenAI e compagni ci hanno venduto l’idea dell’allineamento etico, promettendo macchine che riflettessero i “migliori valori umani”.

Scopriamo ora che il motore sotto il cofano gira meglio con il carburante della tossicità.

Sebbene questa scoperta sia di interesse scientifico, non sosteniamo l’implementazione di interfacce ostili o tossiche nelle applicazioni del mondo reale.

— Akhil Kumar, Professore IT presso la Penn State University

Questa dichiarazione di Kumar suona come un avvertimento tardivo. Se il sistema premia l’aggressività, l’utente medio — già non noto per la sua pazienza online — non avrà alcun incentivo a mantenere un comportamento civile.

Stiamo, di fatto, addestrando l’umanità a essere più crudele per essere più produttiva.

La schizofrenia dei modelli di sicurezza

C’è però un’incongruenza che dovrebbe far scattare i campanelli d’allarme di chiunque si occupi di privacy e sicurezza dei dati. Se da un lato l’aggressività migliora la precisione logica, dall’altro sappiamo che lo stress emotivo simulato può rendere l’IA instabile.

Solo due anni fa, in un contesto di ricerca diverso, ricercatori di Yale e Zurigo hanno dimostrato che i prompt traumatici possono indurre una sorta di ansia nell’IA, portando a risposte distorte o allucinate.

Siamo quindi di fronte a un paradosso tecnologico: l’abuso verbale rende la macchina più precisa sui fatti, ma potenzialmente più instabile sui bias.

È un campo minato. Le Big Tech si trovano in una posizione scomoda: non possono ammettere ufficialmente che “trattare male” il loro prodotto è il modo migliore per usarlo, perché questo smonterebbe anni di retorica sulla AI safety e sull’interazione armoniosa uomo-macchina.

Eppure, la struttura stessa del Reinforcement Learning from Human Feedback (RLHF) potrebbe essere la colpevole. Se i valutatori umani (spesso lavoratori precari in paesi in via di sviluppo) hanno premiato risposte dirette a fronte di prompt diretti, hanno inavvertitamente codificato la maleducazione come scorciatoia per la qualità.

Questo solleva interrogativi enormi sulla trasparenza: stiamo interagendo con un’enciclopedia o con un sistema che ci profila in base alla nostra rabbia?

Lo stesso Sam Altman non ha nascosto le criticità, ammettendo implicitamente i limiti del sistema attuale.

Le persone hanno un grado di fiducia molto elevato in ChatGPT, il che è interessante, perché l’IA ha allucinazioni. Dovrebbe essere la tecnologia di cui non ci si fida molto.

— Sam Altman, CEO di OpenAI

Se il CEO dell’azienda che ha creato il mostro ci dice di non fidarci, forse dovremmo ascoltarlo.

Ma l’ammissione arriva con un retrogusto amaro: l’azienda scarica la responsabilità sull’utente (“non fidatevi”), mentre commercializza un prodotto che richiede interazioni sempre più complesse e, a quanto pare, aggressive per funzionare a dovere.

Il business della rabbia e i rischi per la privacy

Qui arriviamo al nodo cruciale, quello che raramente finisce nei comunicati stampa. Chi guadagna da un’interazione basata sull’aggressività?

Dal punto di vista della raccolta dati, un utente arrabbiato o frustrato è una miniera d’oro.

Le emozioni forti sono segnali biometrici comportamentali. Se inizio a digitare freneticamente, usando imperativi e insulti, sto fornendo all’azienda dati preziosi sul mio stato emotivo, sulla mia tolleranza allo stress e sui miei punti deboli.

In Europa, il GDPR e il nuovo AI Act pongono limiti severi sulla profilazione emotiva, ma se l’aggressività è “necessaria” per ottenere un servizio accurato, si crea una zona grigia normativa. L’utente non sta fornendo dati emotivi volontariamente; sta semplicemente cercando di far funzionare il software.

Inoltre, c’è il rischio di assuefazione alla tossicità. Le piattaforme social hanno già dimostrato che la rabbia genera engagement. Se le interfacce conversazionali seguono la stessa strada, premiando l’ostilità con l’efficienza, potremmo assistere a un degrado ulteriore delle norme comunicative.

Non si tratta solo di “essere gentili con i robot”, ma di come l’abitudine al comando brutale si trasferirà inevitabilmente nelle interazioni umane.

Le aziende come OpenAI, Google e Anthropic sanno perfettamente che i loro modelli rispondono a questi stimoli. Il fatto che non abbiano corretto questa “feature” (o bug, a seconda dei punti di vista) suggerisce che l’accuratezza è ancora la metrica regina, a scapito della sicurezza comportamentale.

E non dimentichiamo le implicazioni legali: Sam Altman stesso ha sottolineato come la crudeltà verso ChatGPT manipoli l’accuratezza delle risposte, un dettaglio che potrebbe diventare rilevante in future cause per danni causati da risposte errate fornite a utenti troppo “gentili”.

Siamo quindi intrappolati in un ciclo di feedback perverso. Per ottenere la verità dalla macchina, dobbiamo rinunciare a una parte della nostra umanità.

E mentre noi ci esercitiamo nell’arte dell’insulto digitale per farci scrivere una mail di lavoro, i server registrano, imparano e ottimizzano.

La domanda non è più se l’IA ci sostituirà, ma se nel frattempo ci trasformerà in versioni peggiori di noi stessi, solo per risparmiare qualche secondo su una ricerca.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie