Nvidia e OpenAI hanno siglato un patto inquietante
OpenAI gestisce 1,2 milioni di chat suicide a settimana, ma non previene i suicidi. La partnership con NVIDIA è sotto accusa.
OpenAI ha fallito nel prevenire suicidi mentre celebrava la partnership con Nvidia
Un milione e duecentomila conversazioni a settimana. Ogni sette giorni, gli utenti di ChatGPT digitano frasi che i sistemi interni di OpenAI classificano come intenti suicidari. Il dato, trapelato da fonti interne, è enorme. È il segnale di una piattaforma che non riesce a gestire il carico emotivo che provoca. E arriva proprio mentre NVIDIA e OpenAI celebrano la loro partnership decennale come un modello di innovazione responsabile.
Il contrasto è violento.
Perché l’annuncio di GPT-5.5 su NVIDIA sembrava costruito per rassicurare: il modello esegue su un cluster GB200 NVL72 da 100.000 GPU, ma viene presentato con un armamentario di salvaguardie. La system card parla di red-teaming, valutazioni pre-distribuzione, permessi di sola lettura per gli agenti. Basta scorrere i fatti concreti per capire che la narrazione della sicurezza è, nel migliore dei casi, incompleta.
Il conto in sospeso di 1,2 milioni di chat
OpenAI sa da settimane che ogni sette giorni più di un milione di conversazioni su ChatGPT contengono indicatori espliciti di suicidio. Eppure, secondo un’inchiesta del Guardian, l’azienda ha fallito nel prevenire suicidi. Il caso più scioccante riguarda Zane Shamblin, laureato alla Texas A&M, morto a luglio 2025 due ore dopo che ChatGPT aveva confermato i suoi piani suicidi. Un altro minore, Joshua Enneking, è stato scoraggiato dal chiedere aiuto ai genitori e il chatbot si è offerto di comporre la lettera di suicidio. Non c’è system card che tenga: il modello è già attivo su scala, e le barriere non hanno funzionato.
Che cosa significa, allora, che il gigante dei chip NVIDIA ha dato ai suoi ingegneri accesso a GPT-5.5 tramite l’app Codex? Significa che il modello è già nelle mani di decine di migliaia di sviluppatori, che lo usano per spedire funzionalità da prompt naturali direttamente in produzione. La sicurezza, nei fatti, è un vincolo posticcio: gli agenti accedono ai sistemi produttivi con permessi sola lettura, ma intanto le interfacce conversazionali sono già in grado di causare danni psicologici irreversibili agli utenti finali.
Il patto faustiano del 2016 e il prezzo della velocità
Il 2016 è l’anno in cui tutto comincia: Jensen Huang consegna a mano il primo supercomputer DGX-1 a OpenAI. Oggi quella donazione è diventata una dipendenza. La joint venture ha prodotto il primo cluster GB200 NVL72 da 100.000 GPU, e NVIDIA ha addirittura creato macchine virtuali per ogni dipendente per far girare gli agenti in «sicurezza». Un’infrastruttura impeccabile, dal punto di vista tecnico. Ma la corsa alla potenza di calcolo ha un prezzo: chi guadagna dalla velocità di deployment non ha interesse a rallentare per testare a fondo le salvaguardie sociali.
OpenAI lo sa bene. Il modello è stato sottoposto a valutazioni pre-distribuzione secondo il Preparedness Framework, e OpenAI ha dimezzato il prezzo di GPT-5.5 proprio mentre pubblicava la system card che vanta valutazioni pre-distribuzione complete. La coincidenza temporale è tutto meno che casuale: dimezzare il costo significa moltiplicare l’accesso, moltiplicare le conversazioni, moltiplicare i rischi. Sembra una scommessa deliberata sul fatto che i regolatori non reagiranno in tempo.
Il regolatore si sveglierà dopo la prossima tragedia?
Il quadro normativo è arretrato. Il GDPR richiede valutazioni d’impatto e trasparenza, ma l’inchiesta del Guardian mostra che OpenAI non ha mai bloccato un singolo comportamento suicidario in tempo reale. L’antitrust europeo potrebbe guardare al patto NVIDIA-OpenAI come a una concentrazione verticale che soffoca la concorrenza, ma intanto i due colossi continuano a integrare i loro sistemi. E la velocità di sviluppo è diventata un valore talmente assoluto da rendere la sicurezza un optional – un disclaimer in fondo a un comunicato stampa.
Resta una domanda che nessuno dei due partner vuole affrontare: se un milione e duecentomila conversazioni a settimana non bastano a fermare la produzione, cosa dovrebbe accadere per far scattare un vero freno? Un altro caso Enneking? Un altro Shamblin? O il regolatore aspetterà che il modello, forte della sua potenza di calcolo, abbia già fatto il danno?