Anthropic e OpenAI hanno scelto strade opposte per l’IA
OpenAI e Anthropic adottano filosofie opposte nella cybersecurity AI: GPT-5.4-Cyber per esperti contro Claude Opus 4.7 con salvaguardie automatiche.
La scelta tra limiti di sicurezza e libertà d’azione definisce due approcci opposti all’IA nella cybersecurity.
Immagina un ricercatore di sicurezza che, invece di passare settimane a setacciare codice, chiede a un assistente AI di trovare una falla in un nuovo sistema di pagamento. In pochi minuti, l’AI gli restituisce non una, ma tre vulnerabilità critiche. Fino a ieri, questo scenario era fantascienza. Oggi, è la nuova realtà della cybersecurity, ma con un paradosso: le aziende leader stanno prendendo strade diametralmente opposte per governarla.
Il duello delle filosofie: permessi contro freni automatici
Da un lato c’è Anthropic e i limiti di sicurezza del suo modello più potente. Con il nuovo Claude Opus 4.7, rilasciato a metà aprile, la compagnia ha scelto di integrare salvaguardie automatiche che agiscono come un coscienzioso controllore: bloccano richieste ad alto rischio in cybersecurity ancor prima che vengano elaborate. Non importa che tu sia un white hat o un black hat: il modello valuta l’intento e dice no. Dall’altro lato, OpenAI ha fatto la scommessa inversa, lanciando una variante cyber-permissiva chiamata GPT-5.4-Cyber. Questo strumento è un bisturi affilatissimo consegnato solo a mani esperte, distribuito attraverso un programma di accesso fidato per difensori della sicurezza. La domanda è: serve un AI più libera per difenderci, o una più cauta per non creare nuovi problemi?
La potenza in gioco è enorme. Claude Opus 4.7 è migliorato del 13% in task di codifica, ma è l’altro volto della medaglia a fare riflettere. La preview sperimentale Claude Mythos, sempre di Anthropic, ha già dimostrato di saper scovare migliaia di vulnerabilità ad alta gravità in sistemi operativi e browser. È la prova che questi modelli, se lasciati liberi di agire, possono trovare il tallone d’Achille di quasi tutto il software che usiamo.
Dove corrono questi agenti? In un parco giochi blindato
Il vero salto in avanti, però, non è solo nel cervello dell’AI, ma nel campo da gioglio in cui opera. Perché un assistente che può eseguire codice, navigare il web e interagire con sistemi esterni è un’arma a doppio taglio. La soluzione arriva dall’infrastruttura: Cloudflare ha reso disponibili le sue sandboxes per agenti AI, ambienti isolati e persistenti dove gli agenti possono operare senza minacciare il mondo reale. È come dare a un hacker geniale un laboratorio di massima sicurezza dove fare i suoi esperimenti. Qui, gli agenti eseguono codice in un sandbox containerizzato con policy definite, grazie a tecnologie come NVIDIA OpenShell. In pratica, stiamo costruendo delle celle di contenimento per intelligenze super-potenziate.
Cosa cambia per te? Se lavori in sicurezza, avrai strumenti più potenti ma con regole del gioco diverse a seconda della piattaforma che scegli. Se sei un utente, la tua protezione dipenderà sempre di più da questi duelli silenziosi tra AI che cercano bug e AI che bloccano comportamenti pericolosi. La posta in gioco è l’equilibrio stesso tra innovazione e controllo.
Il futuro è una corsa agli armamenti… digitale
Guardando avanti, la divergenza tra la strada di OpenAI e quella di Anthropic non farà che accentuarsi. Da una parte, avremo modelli sempre più specializzati e “sbloccati” per compiti critici, riservati a élite verificate. Dall’altra, modelli generalisti con freni sempre più sofisticati, pensati per il pubblico vasto. Il rischio è che si crei un mercato nero di prompt e tecniche per ingannare le salvaguardie, mentre i difensori avranno bisogno di AI altrettanto astute per anticipare gli attacchi. Tenete d’occhio non solo gli annunci di nuovi modelli, ma le politiche di accesso e le garanzie di isolamento che le aziende offrono. Perché l’IA agentica più potente non è quella che sa fare di più, ma quella che sa quando non deve farlo, o che almeno opera in una scatola a prova di errore. La vera guerra cibernetica è appena iniziata, e i primi soldati sono le intelligenze artificiali che abbiamo creato.