OpenAI ha classificato GPT-5.5 a rischio “Alto
Openai ha classificato Gpt-5.5 a rischio 'Alto', nonostante le robuste misure di sicurezza. Il modello eccelle in compiti complessi.
OpenAI ha classificato il modello come “Alto” rischio, non “Critico”
Immagina di avere sul tuo computer un foglio di calcolo con milioni di righe, una scadenza fra cinque minuti e nessuna voglia di pivot table. Con GPT-5.5, presentato nei giorni scorsi, non è più uno scenario da incubo. Secondo la system card ufficiale di GPT-5.5, il nuovo modello di OpenAI è stato progettato esplicitamente per affrontare lavori complessi nel mondo reale: scrivere e correggere codice, fare ricerche online, analizzare informazioni, creare documenti e fogli di calcolo, spostarsi tra strumenti diversi per portare a termine un compito. Non è una lista di promesse vaghe: è una descrizione abbastanza precisa di quello che molti di noi fanno ogni giorno al lavoro.
Il modello che fa tutto (quasi) da solo
La cosa che colpisce di più di GPT-5.5 non è una singola funzione, ma la sensazione di avere a disposizione qualcosa che finalmente tiene il filo di un’intera attività, non solo di un singolo passaggio. Come riportato da CNBC nel suo annuncio di GPT-5.5, il modello eccelle nell’analisi dei dati, nella scrittura e nel debug del codice, nell’operare software, nel fare ricerche online e nel creare documenti e fogli di calcolo. In pratica: gli dai un obiettivo e lui cerca di arrivarci, senza che tu debba guidarlo passo passo.
Tutto questo arriva meno di due mesi dopo GPT-5.4, che già aveva introdotto novità significative — come spiegato nell’annuncio di GPT-5.4, quel modello aveva portato finestre di contesto da un milione di token, l’uso nativo del computer e uno strumento chiamato Tool Search. Un milione di token, per dare un’idea, corrisponde grossomodo a un migliaio di pagine di testo: abbastanza per analizzare interi archivi di documenti in una sola sessione. Il ritmo di aggiornamento sta diventando quasi vertiginoso, e secondo quanto riportato da l’approfondimento di TechCrunch, c’è persino chi, all’interno del settore, ritiene che gli ultimi due anni siano stati sorprendentemente lenti. Il che fa capire cosa si aspettano per il futuro.
Ma dietro le quinte, la sicurezza è stata una priorità assoluta.
Sicurezza prima di tutto (ma non troppo)
OpenAI è stata piuttosto esplicita su un punto: GPT-5.5 arriva con le misure di protezione più robuste mai adottate fino ad oggi. Prima del rilascio, il modello è stato sottoposto a un ciclo completo di valutazioni pre-distribuzione, incluso il Preparedness Framework — uno schema interno che serve a misurare i rischi prima di mettere un modello nelle mani del pubblico. Parte di questo processo ha incluso sessioni di red-teaming mirate, cioè gruppi di esperti che cercano attivamente di far fare al modello cose che non dovrebbe fare, concentrandosi in particolare su cybersicurezza e biologia. Quasi 200 partner con accesso anticipato hanno poi testato il modello su casi d’uso reali prima del lancio, fornendo feedback che ha contribuito a definire le protezioni finali.
Fin qui, tutto secondo copione. Il punto interessante — e un po’ scomodo — è la classificazione di rischio che OpenAI ha assegnato al modello: livello “Alto”. Non “Critico”, che secondo i parametri interni dell’azienda indicherebbe capacità in grado di aprire percorsi del tutto nuovi verso danni gravi. GPT-5.5 non raggiunge quella soglia. Ma “Alto” non è una medaglia: significa che il modello potrebbe amplificare percorsi già esistenti verso danni seri. Tradotto in termini pratici: non crea nuove minacce dal nulla, ma potrebbe rendere alcune minacce già note più facili da realizzare per chi avesse cattive intenzioni.
Questa classificazione ha avuto conseguenze dirette sul modo in cui il modello è stato distribuito. La scheda del sistema è stata addirittura aggiornata il giorno successivo al lancio — il 24 aprile — per includere informazioni aggiuntive sulle salvaguardie specifiche per il deployment via API, sia per GPT-5.5 che per la variante GPT-5.5 Pro. È un segnale che OpenAI sta cercando di bilanciare velocità e cautela, ma è anche una tensione che non si risolve facilmente con un aggiornamento di documento. La domanda che rimane aperta è quella più difficile: quanto è sostenibile rilasciare modelli sempre più potenti a cadenza bimestrale, tenendo il passo con la sicurezza senza rallentare l’innovazione? E questa cautela come si inserisce nella corsa con la concorrenza?
La corsa all’AI si fa serrata
E mentre OpenAI alza l’asticella, la concorrenza non sta a guardare. GPT-5.5 è arrivato solo poche settimane dopo che Anthropic ha svelato il modello Claude Mythos Preview di Anthropic, progettato specificamente per la cybersicurezza nell’ambito di un’iniziativa chiamata Project Glasswing. Tra i partner iniziali del progetto ci sono Apple, Google, Microsoft, Nvidia e Amazon Web Services — praticamente un pezzo consistente dell’industria tech mondiale schierato attorno a un modello concorrente. Il fatto che entrambe le aziende stiano spingendo forte proprio sul fronte della sicurezza informatica non è una coincidenza: è il terreno dove si giocherà molta della competizione nei prossimi mesi. Cosa aspettarsi, dunque?
Il futuro dell’AI si sta muovendo velocemente, forse più velocemente di quanto le nostre categorie di valutazione riescano a stare al passo. GPT-5.5 è uno strumento genuinamente utile, capace di cambiare il modo in cui molte persone lavorano ogni giorno. Ma la classificazione “Alto” ricorda che potenza e responsabilità crescono insieme, e che la prossima mossa di OpenAI — e dei suoi rivali — non sarà solo una questione di benchmark. Sarà una questione di fiducia.