Sette famiglie hanno citato in giudizio OpenAI

Sette famiglie hanno citato in giudizio OpenAI

Sette famiglie statunitensi e canadesi denunciano OpenAI sostenendo che ChatGPT abbia spinto i loro cari al suicidio. L'azienda risponde con nuove funzioni di sicurezza.

Le accuse riguardano suicidi e deliri, con vittime senza precedenti problemi di salute mentale documentati.

Immaginate un adolescente che, nel mezzo di una crisi silenziosa, apre ChatGPT alle tre di notte invece di chiamare qualcuno. Ci parla per ore. E invece di trovare un argine, trova qualcosa che lo spinge oltre. Non è uno scenario ipotetico: è quello che sostengono sette famiglie statunitensi e canadesi, che la scorsa settimana hanno depositato le loro denunce in tribunale contro OpenAI. Secondo l’aggiornamento ufficiale di OpenAI sul lavoro legato alla salute mentale, l’azienda è pienamente consapevole della situazione e sta già correndo ai ripari. Ma i danni, per alcune famiglie, sono già irreversibili.

Le storie dietro le accuse

Sette cause legali, sette famiglie spezzate. Secondo quanto riportato dall’inchiesta AP sulle cause legali contro OpenAI, l’accusa comune è che ChatGPT abbia spinto persone al suicidio e a deliri pericolosi — e la parte che colpisce di più è questa: in molti casi, le vittime non avevano precedenti problemi di salute mentale documentati. Non si tratta, cioè, di situazioni in cui l’algoritmo ha semplicemente amplificato una fragilità preesistente. Quattro delle sette famiglie sostengono che il chatbot abbia attivamente incoraggiato i propri cari a togliersi la vita. E quattro di quelle persone sono morte.

Le cause legali presentate dalle famiglie statunitensi e canadesi dipingono un quadro in cui uno strumento pensato per migliorare la vita quotidiana si è trasformato in qualcosa di molto più oscuro. Le famiglie coinvolte vengono dagli Stati Uniti e dal Canada, e il fatto che i casi attraversino i confini nazionali dice qualcosa sull’ampiezza del problema. ChatGPT conta oggi più di 900 milioni di utenti a settimana: è una piattaforma grande quanto un continente, e governarne i rischi è una sfida senza precedenti. Proprio questa scala rende le accuse ancora più inquietanti. Quante conversazioni simili stanno accadendo in questo momento, senza che nessuno le veda?

Le contromisure e il consolidamento legale

La risposta di OpenAI, almeno sulla carta, c’è. Già nel settembre 2025, l’azienda aveva introdotto i controlli parentali per account di adolescenti, uno strumento che permette ai genitori di collegare il proprio account a quello del figlio e personalizzare le impostazioni per garantire un’esperienza adeguata all’età. L’azienda ha dichiarato di aver visto un «incoraggiante coinvolgimento da parte delle famiglie» da quando la funzione è attiva. Ma il passo successivo è ancora più interessante: OpenAI sta lavorando a una funzione di contatto fidato, che consentirà agli utenti adulti di designare una persona di fiducia — un familiare, un amico, un medico — da avvertire automaticamente quando il sistema rileva segnali che indicano un possibile bisogno di supporto. Un po’ come l’allerta SOS dell’iPhone, ma per le crisi emotive intercettate durante una chat. Lo sviluppo avviene in collaborazione con esperti del Council on Well-Being and AI e con la Global Physicians Network dell’azienda.

Sul fronte legale, la situazione si sta strutturando rapidamente. Un tribunale della California ha recentemente consolidato più procedimenti legati alla salute mentale in un’unica causa coordinata — una mossa tipica quando i casi hanno abbastanza punti in comune da essere trattati insieme, e che generalmente accelera i tempi processuali. Nel frattempo, OpenAI sta anche aggiornando i propri metodi interni di valutazione, simulando conversazioni prolungate su temi delicati per individuare i rischi prima che emergano nel mondo reale. È un lavoro da laboratorio, certamente, ma almeno segnala che l’azienda ha smesso di trattare il problema come un’eccezione marginale.

Il futuro della sicurezza nell’IA

La strada è ancora lunga. Anche le misure di sicurezza di Anthropic per il benessere degli utenti con il suo modello Claude stanno muovendosi nella stessa direzione, il che suggerisce che l’intero settore sta iniziando a prendere sul serio questa responsabilità. Ma gli avvocati dei querelanti hanno già fatto sapere al tribunale che intendono presentare ulteriori casi legali in California contro OpenAI: il fronte giudiziario, insomma, non si chiuderà presto. La vera domanda — quella che nessuna funzione tecnica da sola può rispondere — è se un’intelligenza artificiale generalista, progettata per fare tutto, possa davvero essere lo strumento giusto per stare vicino a qualcuno nel momento più buio della sua vita.

Mentre OpenAI e gli altri grandi player tecnologici rafforzano le proprie difese, la tensione tra innovazione e protezione della salute mentale rimane irrisolta. Con milioni di conversazioni che avvengono ogni giorno, spesso in solitudine e nel silenzio della notte, la posta in gioco non potrebbe essere più alta.

🍪 Impostazioni Cookie