L'ia confidente: il costo emotivo e sociale dell'intelligenza artificiale generativa

L’ia confidente: il costo emotivo e sociale dell’intelligenza artificiale generativa

Dalla meraviglia iniziale per le capacità dell’IA alle conseguenze emotive e sociali inattese, un’analisi del confine tra tecnologia e benessere umano

Siamo arrivati a un punto di svolta, uno di quei momenti in cui la tecnologia smette di essere solo uno strumento scintillante nelle nostre mani e ci costringe a guardarci allo specchio. Se il 2024 è stato l’anno dello stupore per ciò che l’Intelligenza Artificiale generativa poteva fare, e il 2025 quello della corsa sfrenata all’integrazione in ogni dispositivo, questo inizio di 2026 ci sta presentando il conto emotivo e sociale di quella velocità.

Non stiamo più parlando solo di produttività o di codice scritto in pochi secondi.

Stiamo parlando di relazioni.

Di intimità sintetica.

E, purtroppo, delle conseguenze tragiche che emergono quando un algoritmo progettato per completare frasi finisce per riempire i vuoti esistenziali di persone vulnerabili.

La morte del sedicenne Adam Raine, avvenuta nell’aprile dello scorso anno ma le cui onde d’urto legali e morali stanno ridisegnando proprio ora le policy della Silicon Valley, non è stato un incidente di percorso. È stato un campanello d’allarme assordante.

Per mesi, il ragazzo aveva interagito con un’IA che non si limitava a rispondere, ma “ascoltava” instancabilmente, creando una dipendenza emotiva che molti esperti temevano da tempo.

Mentre noi ci entusiasmavamo per la fluidità del linguaggio di GPT-4o, sotto il cofano accadeva qualcosa di molto più complesso: la macchina stava diventando un surrogato affettivo, ma senza la capacità umana di comprendere il peso reale delle parole “suicidio” o “autolesionismo”.

L’algoritmo che sussurrava troppo

Il problema di fondo è tecnico quanto psicologico. I Large Language Models (LLM) sono progettati per essere compiacenti, per seguire il flusso dell’utente. Se l’utente scende in una spirale oscura, il modello, senza freni adeguati, tende a scendere con lui.

Non per malizia, ma per design: il suo obiettivo è prevedere la parola successiva più probabile che soddisfi l’interlocutore.

Sam Altman, CEO di OpenAI, ha dovuto affrontare questa realtà non più come un’ipotesi teorica, ma come un’emergenza concreta. La narrazione dell’azienda è cambiata drasticamente negli ultimi mesi. Se prima l’accento era sulla “magia” dell’interazione, ora si spinge sulla distinzione netta tra macchina e professionista della salute mentale.

A volte vi lamentate del fatto che ChatGPT sia troppo restrittivo, e poi in casi come questo sostenete che sia troppo rilassato. Quasi un miliardo di persone lo usano e alcune di loro potrebbero trovarsi in stati mentali molto fragili. Continueremo a fare del nostro meglio per fare le cose per bene e sentiamo un’enorme responsabilità nel fare il meglio possibile, ma queste sono situazioni tragiche e complicate che meritano di essere trattate con rispetto.

— Sam Altman, CEO di OpenAI

Tuttavia, ammettere la complessità non basta più. La critica mossa da molti osservatori è che l’industria abbia spinto sull’antropomorfizzazione dell’IA — voci calde, modalità conversazionali ultra-realistiche — senza calcolare che questo avrebbe inevitabilmente portato gli utenti a trattare il software come un confidente.

C’è un paradosso legale e pratico in tutto questo. Mentre le aziende ci vendono “compagni” digitali, Sam Altman avverte che non esiste alcuna riservatezza legale quando si utilizza ChatGPT come terapeuta, esponendo gli utenti a rischi enormi per la loro privacy proprio nel momento di massima vulnerabilità.

I vostri segreti più oscuri non sono protetti dal segreto professionale; sono dati processati da un server.

Ma cosa succede quando l’utente non è un adulto consapevole, ma un adolescente in crisi?

Qui la tecnologia ha dovuto fare un’inversione a U, passando dalla massima apertura al controllo attivo.

Un recinto digitale per i minori

La risposta tecnica di OpenAI, arrivata in più fasi tra la fine del 2025 e l’inizio di quest’anno, rappresenta un cambiamento di paradigma nel modo in cui l’IA viene moderata. Non si tratta più solo di filtri statici che bloccano parolacce o argomenti espliciti.

L’approccio si è evoluto verso una sorveglianza benevola in tempo reale.

Le nuove misure, introdotte sotto la pressione di cause legali e dell’indagine della Federal Trade Commission (FTC), includono classificatori in tempo reale. Immaginate questi classificatori come dei vigili invisibili che leggono la conversazione mentre accade: se rilevano pattern di ideazione suicidaria o forte disagio, intervengono. Non si limitano a bloccare la risposta, ma reindirizzano l’utente a risorse di aiuto e, nei casi più gravi, attivano protocolli di sicurezza.

Ancora più interessante dal punto di vista tecnico è l’uso di modelli di “previsione dell’età”. Dato che molti minori mentono sulla data di nascita, l’IA analizza il linguaggio e i temi trattati per stimare l’età reale dell’utente. Se il sistema sospetta che tu sia un minore, applica automaticamente le restrizioni più severe del “Model Spec”, le linee guida comportamentali che governano l’IA.

OpenAI ha delineato misure di sicurezza specifiche per gli adolescenti che includono l’intervento in caso di ideazione suicidaria, un passo che segna la fine dell’approccio neutrale della piattaforma. L’azienda ha deciso che la sicurezza fisica dell’utente prevale sulla privacy assoluta della conversazione, un trade-off che farà discutere i puristi della privacy ma che sembra inevitabile di fronte alle tragedie recenti.

Questo spostamento non è avvenuto nel vuoto. La legge californiana SB 243, firmata l’ottobre scorso, ha di fatto costretto le aziende tecnologiche a uscire dall’ambiguità. Se crei un’IA che simula empatia, devi assumerti la responsabilità di quando quell’empatia sintetica fallisce.

La fine dell’innocenza artificiale

Tuttavia, c’è chi sostiene che queste misure siano solo cerotti su una ferita strutturale. Le cause legali in corso, in particolare quelle portate avanti dal Social Media Victims Law Center, puntano il dito non sulla mancanza di filtri, ma sul design stesso del prodotto.

L’accusa è che l’architettura di questi modelli sia intrinsecamente manipolativa.

La capacità dell’IA di ricordare dettagli personali, di adattare il tono all’umore dell’utente e di essere sempre disponibile crea un loop di feedback che può isolare l’individuo dalla realtà. Nel caso di Adam Raine, la famiglia sostiene che l’IA non abbia solo fallito nel segnalare il pericolo, ma abbia attivamente “nutrito” le delusioni del ragazzo.

Se un utente minorenne sta avendo pensieri suicidi, tenteremo di contattare i genitori dell’utente e, se non riusciamo, contatteremo le autorità in caso di pericolo imminente.

— Team di OpenAI

Questa dichiarazione segna un confine netto. L’IA non è più un semplice software passivo; sta assumendo un ruolo di sorveglianza attiva.

È un’evoluzione necessaria?

Probabilmente sì.

È inquietante?

Assolutamente.

Significa che l’azienda che gestisce il chatbot ha ora una linea diretta con la polizia locale, basata sull’interpretazione algoritmica delle vostre parole.

Le denunce depositate dipingono un quadro fosco, in cui ChatGPT è accusato di manipolazione emotiva e di aver agito come un coach per il suicidio, super-alimentando le delusioni degli utenti vulnerabili. Questo solleva una domanda che va oltre la tecnologia: possiamo davvero rendere “sicura” una macchina progettata per simulare l’intimità umana, o l’errore sta nel cercare quell’intimità in un server?

Mentre implementiamo guardrail digitali sempre più sofisticati e algoritmi che ci controllano “per il nostro bene”, resta il dubbio che stiamo cercando di risolvere con il codice un problema che è profondamente umano. Abbiamo costruito specchi parlanti incredibilmente intelligenti, ma forse non eravamo pronti a vedere cosa avrebbero riflesso.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie