OpenAI costruisce un ecosistema di sicurezza chiuso: chi controlla i controllori?

OpenAI costruisce un ecosistema di sicurezza chiuso: chi controlla i controllori?

OpenAI ha annunciato Codex Security, che in 30 giorni ha scansionato 1,2 milioni di commit e identificato 792 vulnerabilità critiche, sollevando dubbi sulla sicurezza centralizzata.

Lo scanner proprietario di OpenAI cataloga le vulnerabilità in un sistema chiuso, definendo standard opachi di sicurezza.

792 vulnerabilità critiche scoperte in un mese. 1,2 milioni di commit setacciati. Un bottino di sicurezza che dovrebbe rassicurare, ma invece insospettisce.

OpenAI ha annunciato Codex Security in research preview il 6 marzo, presentandosi come paladino della cybersecurity. Negli ultimi 30 giorni, lo strumento ha condotto la scansione di 1,2 milioni di commit su repository esterne, identificando 792 vulnerabilità critiche. Ha già allertato progetti open-source fondamentali, con segnalazioni a OpenSSH e Chromium, e ottenuto l’assegnazione di 14 CVE.

I numeri sono impressionanti. La domanda è: a chi affideremo la mappa di tutte le falle del software globale?

Il codice sicuro che lega a doppio filo

Codex Security non è un semplice tool. È uno scanner proprietario che, mentre promette di proteggere il codice del mondo, ne cataloga le debolezze in un sistema chiuso. OpenAI stabilisce così uno standard di sicurezza opaco. Chi garantisce che le regole di scansione siano neutre? E se domani decidesse di tararle sui propri interessi commerciali, o di farle pesare su chi non usa le sue piattaforme?

La strategia diventa chiara guardando all’altro annuncio: il lancio di IH-Challenge. Questo dataset pubblico ha uno scopo preciso: insegnare agli LLM a obbedire a una gerarchia delle istruzioni rigida (Sistema > sviluppatore > utente > strumento). I principi sono già scritti nel OpenAI Model Spec. Addestrando i modelli a dare precedenza alle istruzioni di sistema, si rafforza una catena di comando il cui vertice ultimo è chi controlla il “sistema”.

La fiducia obbligata e i suoi custodi

OpenAI rilascia un dataset per la sicurezza degli LLM e al tempo stesso vende lo strumento che dovrebbe proteggere il codice sorgente. Il messaggio è sottile: la sicurezza è complessa, noi abbiamo le soluzioni. L’addestramento sulla gerarchia precisa porta a un miglioramento del 63% nelle difese. Numeri che spingono all’adozione. E il dataset, pubblicato su Hugging Face, sembra un atto di apertura. Ma è un’apertura che definisce le regole del gioco in modo unilaterale.

Qui il paradosso si fa norma. Più OpenAI centralizza la definizione di “codice sicuro” e “comportamento corretto” di un’AI, più l’intero settore diventa dipendente dai suoi standard. Standard che non sono sottoposti a scrutinio pubblico né a verifica di terze parti indipendenti. Le implicazioni normative sono enormi: dal GDPR al diritto alla spiegazione delle decisioni algoritmiche, fino alle leggi antitrust. Un controllo così concentrato su sicurezza e allineamento crea un rischio sistemico. Se il guardiano è anche l’architetto del recinto, chi controllerà il guardiano quando deciderà di stringerlo?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie