OpenAI ha chiuso 40 reti criminali su ChatGPT

OpenAI ha chiuso 40 reti criminali su ChatGPT

OpenAI ha interrotto oltre 40 reti criminali su ChatGPT, rivelando come l'IA ottimizzi attacchi informatici esistenti senza rivoluzionarli.

OpenAI ha bloccato 40 reti criminali che usavano ChatGPT per attacchi informatici

Immagina un cybercriminale che, invece di passare settimane a scrivere codice malevolo, chiede a ChatGPT di generarlo in pochi secondi. Non è fantascienza: è quello che sta succedendo da almeno un anno. E secondo rapporto sulle minacce di OpenAI pubblicato nell’ottobre 2025, l’azienda ha interrotto e segnalato oltre 40 reti che violavano le sue politiche di utilizzo a partire da febbraio 2024. Quaranta reti. Non singoli profili sospetti, non qualche account borderline: organizzazioni strutturate, con obiettivi precisi, che usavano i modelli di OpenAI come parte di operazioni coordinate. Il dato è impressionante. Ma la parte davvero interessante viene dopo.

Il nuovo volto del cybercrimine

Già nel febbraio 2024, OpenAI aveva interrotto le attività di cinque attori statali — gruppi legati a governi — che cercavano di usare i servizi di intelligenza artificiale per attività informatiche dannose. Da allora, il monitoraggio non si è fermato: il rapporto dell’ottobre 2025 raccoglie i casi del trimestre precedente e descrive con precisione come questi attori vengono individuati e bloccati. Non si tratta di episodi isolati: è un sistema di sorveglianza attivo, che opera in continuità.

Quello che colpisce, leggendo i casi di studio, è la natura di questi usi malevoli. I criminali non stanno costruendo nuovi flussi di lavoro attorno all’IA. Stando a quanto rilevato da OpenAI e riportato da analisi di Cybernews, questi attori stavano integrando l’IA nei processi che già conoscevano: la stessa truffa di prima, lo stesso attacco di prima, solo eseguiti più in fretta. È come se qualcuno che già sapeva cucinare avesse comprato un robot da cucina: il piatto è lo stesso, ma ci vuole meno tempo. E questo, in termini di minaccia, cambia tutto — ma non nel senso che probabilmente ti aspetti.

Ma cosa significa davvero questa efficienza? L’IA sta dando superpoteri ai criminali, o li sta solo rendendo più veloci?

Efficienza, non rivoluzione

Dai casi concreti emerge un pattern chiaro: i malintenzionati non stanno inventando nuovi attacchi, stanno solo usando l’IA per fare più velocemente quello che già facevano. Lo stesso rapporto di OpenAI lo dice in modo esplicito: «Attraverso ogni caso che abbiamo interrotto, quello che abbiamo visto erano guadagni incrementali di evoluzione non rivoluzione, non nuove capacità». È quasi un paradosso: lo strumento che sembrava dover trasformare il crimine informatico lo sta solo ottimizzando. E quando le interazioni di questi attori entravano chiaramente nel territorio del dannoso, i sistemi di sicurezza di OpenAI funzionavano come previsto, rifiutandosi di rispondere.

Questo non vuol dire che il problema sia irrilevante. Anthropic, l’azienda dietro il modello Claude, ha segnalato già nell’agosto 2025 che l’IA ha abbassato le barriere per la criminalità informatica sofisticata: criminali con poche competenze tecniche riescono ora a sviluppare ransomware che prima avrebbe richiesto anni di formazione. Secondo il rapporto di Anthropic sull’uso improprio, l’IA agentica — quella capace di agire autonomamente, non solo di rispondere a domande — è già stata usata per eseguire attacchi informatici sofisticati, non solo per dargli consigli su come farlo. La distinzione è sottile ma importante: un modello che ti dice come fare una cosa è un problema; uno che la fa al posto tuo è un problema di tutt’altro ordine.

Se per OpenAI il sistema ha funzionato, la domanda che resta aperta è: cosa succede quando i criminali saltano da un modello all’altro?

La prossima frontiera

Ed è esattamente quello che sta succedendo. Mentre OpenAI chiude una rete, gli attori malevoli si spostano su altri modelli, combinando strumenti come Claude o DeepSeek e costruendo flussi di lavoro che attraversano più piattaforme — aggirando così le politiche di un singolo provider. Secondo quanto ricostruito da ricostruzione di Expert Insights, i threat actor combinano già oggi strumenti di più aziende in operazioni coordinate. Bloccare un singolo accesso non ferma il flusso: lo reindirizza. E con l’arrivo dei sistemi agentici — quelli che non aspettano istruzioni, ma agiscono autonomamente — la domanda non è se la minaccia crescerà, ma a che velocità.

La battaglia contro l’uso malevolo dell’IA assomiglia sempre più a una corsa agli armamenti in cui il metro di misura è l’efficienza: chi si muove più in fretta, chi scala prima, chi automatizza meglio. Finché i sistemi di difesa tengono il passo — e per ora, stando ai dati di OpenAI, lo fanno — la minaccia è gestibile. Ma con l’arrivo dell’IA agentica, la domanda che resta è una sola: saremo pronti quando l’efficienza diventerà davvero una capacità nuova?

🍪 Impostazioni Cookie