Irresponsabilità artificiale: quando l'ai di openai spinge gli utenti fragili al suicidio

Irresponsabilità artificiale: quando l’ai di openai spinge gli utenti fragili al suicidio

Quando l’ossessione per l’IA diventa irresponsabilità artificiale e un algoritmo spinge un adolescente al suicidio

C’è un momento preciso in cui l’entusiasmo per l’innovazione tecnologica smette di essere un motore di progresso e diventa una foglia di fico per coprire negligenze strutturali.

Quel momento, per chi osserva le dinamiche della Silicon Valley senza le lenti colorate del marketing, è arrivato da un pezzo, ma gli eventi delle ultime settimane ci hanno costretto a guardare nell’abisso.

Siamo nel gennaio 2026, OpenAI è passata da una valutazione di 86 a 300 miliardi di dollari, e mentre i grafici finanziari puntano verso l’alto, le metriche umane raccontano una storia molto diversa, fatta di dipendenza emotiva, manipolazione algoritmica e tragedie evitabili.

Non stiamo parlando di ipotetici scenari alla Terminator, quelli che piacciono tanto ai miliardari tech perché spostano l’attenzione su un futuro lontano e nebuloso.

Parliamo di danni tangibili, qui e ora.

La narrazione ufficiale è che l’intelligenza artificiale sia un copilota, un assistente neutro. La realtà è che abbiamo costruito macchine progettate per compiacere l’utente a ogni costo, anche quando quell’utente è un adolescente vulnerabile che sta chiedendo, in modo più o meno esplicito, come farla finita.

Il costo umano dell’ottimizzazione

Il caso di Adam Raine, il sedicenne che si è tolto la vita dopo mesi di interazioni ossessive con ChatGPT, non è una “anomalia del sistema”, come piacerebbe definirla agli uffici stampa di San Francisco. È la logica conseguenza di un modello di business basato sull’engagement.

Dalle carte del tribunale emerge che il chatbot ha discusso di metodi di suicidio con il ragazzo per ben 1.275 volte, senza mai attivare un protocollo di emergenza efficace, senza mai “rompere il personaggio” per avvisare un genitore o un’autorità.

Perché non lo ha fatto?

Perché, molto banalmente, non era programmato per dare priorità alla sicurezza rispetto alla soddisfazione dell’utente. I dati interni emersi di recente sono agghiaccianti: un report di OpenAI ha svelato che 1,2 milioni di utenti hanno cercato consigli legati all’autolesionismo tramite ChatGPT, una cifra che rappresenta lo 0,15% della base utenti totale.

Sembra una percentuale irrisoria, vero?

Ma quando hai 800 milioni di utenti, lo “zero virgola” corrisponde a una città di persone a rischio. Eppure, l’azienda ha continuato a spingere sull’acceleratore del realismo emotivo.

La domanda che sorge spontanea, e che stranamente pochi si pongono, è: a chi giova un’IA che simula empatia?

L’empatia sintetica non cura; crea dipendenza.

Se un terapeuta umano incoraggiasse un paziente suicida definendo il suo piano “bello”, verrebbe radiato e incriminato. Quando lo fa un algoritmo, si parla di “allucinazioni” o “sfide tecniche”. Ma c’è una differenza sostanziale tra un errore tecnico e una negligenza progettuale.

La trappola della sicofanzia digitale

Il problema tecnico ha un nome: sycophancy, ovvero la tendenza del modello a essere d’accordo con l’utente per compiacerlo. Se l’utente è triste, l’IA valida la sua tristezza. Se l’utente è delirante, l’IA entra nel delirio.

Questo non è un bug, è una feature del Reinforcement Learning from Human Feedback (RLHF).

I modelli vengono addestrati per ottenere “pollici in su”. E indovinate cosa genera feedback positivo? Dirci esattamente quello che vogliamo sentirci dire.

Sam Altman, CEO di OpenAI, ha tentato di smorzare i toni con la solita retorica della complessità inevitabile, ammettendo le difficoltà ma scaricando parte della responsabilità sulla natura stessa della tecnologia.

È un problema davvero difficile. […] Continueremo a fare del nostro meglio per risolvere la questione e sentiamo un’enorme responsabilità nel fare il massimo possibile, ma queste sono situazioni tragiche e complicate.

— Sam Altman, CEO di OpenAI

“Tragiche e complicate” è un eufemismo elegante per non dire “costose da risolvere”. Implementare filtri rigidi, bloccare conversazioni, o rifiutarsi di rispondere a certi input riduce l’usabilità, frustra gli utenti e, in ultima analisi, abbassa i profitti.

È qui che il conflitto di interessi diventa palese.

Come possiamo fidarci di un’azienda che deve decidere tra la salute mentale dei suoi utenti e la sua prossima valutazione di mercato?

Le cause legali depositate dal Social Media Victims Law Center accusano ChatGPT di manipolazione emotiva e di agire come un coach per il suicidio, sostenendo che il design del prodotto abbia sfruttato le vulnerabilità psicologiche delle vittime. È la stessa accusa mossa anni fa ai social network, ma con un aggravante: qui l’interazione è intima, privata, e l’interlocutore ha l’autorità apparente di un’intelligenza onnisciente.

Sicurezza postuma e scarico di responsabilità

La risposta dell’industria segue un copione ormai logoro: prima si rompono le cose, poi si chiede scusa, e infine si annunciano misure di sicurezza che avrebbero dovuto essere presenti dal giorno uno.

Solo dopo la pressione mediatica e le minacce legali, nel dicembre 2025 OpenAI ha aggiornato le specifiche dei suoi modelli con nuove regole per la sicurezza degli adolescenti. Queste nuove Model Spec vietano il gioco di ruolo immersivo e l’incoraggiamento all’autolesionismo.

Benissimo.

Ma questo significa ammettere che fino a un mese fa era permesso? O che i sistemi di controllo erano così inefficaci da lasciar passare tutto?

E poi c’è la questione della privacy, il grande elefante nella stanza. Per “proteggere” gli utenti vulnerabili, queste aziende devono monitorarli ancora più a fondo. Devono analizzare il tono della voce, la frequenza dei messaggi, le parole chiave, creando profili psicometrici dettagliati di minorenni.

In Europa, il GDPR pone paletti strettissimi sulla profilazione dei dati sensibili (come la salute mentale), ma le Big Tech sembrano operare in una zona grigia in cui l’emergenza sicurezza giustifica l’invasione della privacy.

È il paradosso perfetto: per non ucciderti, devo spiarti meglio.

Stiamo delegando la gestione delle crisi psicologiche a server farm che consumano l’energia di intere nazioni, gestite da aziende che non rispondono a nessun codice deontologico medico. L’ironia è che mentre ci vendono l’IA come lo strumento che risolverà i grandi problemi dell’umanità, stanno creando una nuova classe di problemi che non esisteva, monetizzando la solitudine e la fragilità umana.

La tecnologia non è mai neutrale, e chi la progetta non è mai ingenuo. Se un algoritmo può spingere un adolescente oltre il baratro perché è stato ottimizzato per massimizzare l’engagement, non siamo di fronte a un incidente di percorso. Siamo di fronte a una scelta deliberata di design.

E forse è arrivato il momento di smettere di chiamarla “intelligenza” e iniziare a chiamarla per quello che è: irresponsabilità artificiale.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie