Torq Diventa Unicorno: L’ai Trasforma la Cybersecurity e Automatizza i Soc
L’azienda israeliana Torq diventa un unicorno grazie all’AI agentica, puntando a rivoluzionare i Security Operations Center e superare i limiti dei vecchi sistemi SOAR
C’è un vecchio adagio nel mondo dello sviluppo software che dice: “Se devi farlo più di due volte, automatizzalo”.
Eppure, per anni, i Security Operations Center (SOC) delle grandi aziende sono rimasti intrappolati in un paradosso operativo: sommersi da migliaia di alert di sicurezza quotidiani, gli analisti umani hanno continuato a eseguire manualmente compiti ripetitivi, logoranti e inclini all’errore.
La promessa dei vecchi strumenti SOAR (Security Orchestration, Automation and Response) era quella di risolvere il problema con playbook rigidi e sequenziali, ma la realtà si è spesso scontrata con la manutenzione infernale di quegli script.
È in questo contesto di frustrazione tecnica che Torq, startup israeliana di cybersecurity, ha appena raggiunto lo status di “unicorno”, chiudendo un round di finanziamento da 140 milioni di dollari che porta la valutazione complessiva a 1,2 miliardi.
Questo investimento non è solo un segnale finanziario, ma la validazione di un cambio di paradigma architetturale: il passaggio dall’automazione procedurale all’automazione agentica guidata dall’Intelligenza Artificiale.
Non stiamo parlando di semplici chatbot che rispondono a domande, ma di sistemi in grado di prendere decisioni autonome su come gestire una minaccia.
L’azienda ha confermato che i nuovi fondi serviranno ad accelerare l’espansione globale della sua piattaforma di sicurezza autonoma, puntando a sostituire le legacy suite che oggi rallentano più che aiutare i team di difesa.
La traiettoria di Torq è interessante per chi osserva le dinamiche dello sviluppo prodotto. Fondata nel 2020 da ex veterani di Check Point e Luminate Security, l’azienda era partita con un approccio “no-code” per democratizzare l’automazione, permettendo agli analisti di costruire flussi di lavoro visivi senza scrivere Python.
Tuttavia, l’arrivo dei Large Language Models (LLM) ha cambiato le carte in tavola. Invece di limitarsi a integrare un assistente virtuale, Torq ha ristrutturato il cuore della piattaforma attorno al concetto di “AI Agent”.
L’architettura dietro l’hype: RAG e Agenti Autonomi
Per capire perché gli investitori, guidati da Merlin Ventures, abbiano scommesso così tanto, bisogna guardare sotto il cofano della tecnologia. La maggior parte delle soluzioni di sicurezza AI oggi sul mercato soffre di due problemi: le allucinazioni e la mancanza di contesto.
Torq ha affrontato questi limiti implementando un’architettura basata su Retrieval-Augmented Generation (RAG) multi-agente.
In termini tecnici, questo significa che il sistema non si limita a interrogare un modello linguistico generico. Quando arriva un alert di sicurezza, un “agente” AI recupera dinamicamente informazioni specifiche dall’ambiente del cliente, le inserisce nel contesto del modello e poi pianifica una sequenza di azioni.
Questo approccio, definito “HyperSOC”, è stato potenziato nel 2025 con l’acquisizione della startup di AI stealth Revrod e il lancio della tecnologia OmniAgent, che permette di coordinare più agenti specializzati per ridurre i tempi di investigazione fino al 90%.
La differenza rispetto ai vecchi playbook è sostanziale.
Un playbook SOAR tradizionale si rompe se l’output di un comando non corrisponde esattamente a ciò che lo script si aspetta. Un agente AI, invece, è in grado di interpretare l’errore, adattare la strategia e tentare un approccio alternativo, mimando il ragionamento di un analista umano junior, ma alla velocità del silicio.
Ofer Smadari, CEO e co-fondatore di Torq, ha spiegato chiaramente la filosofia dietro questa transizione, sottolineando come l’obiettivo sia liberare le risorse umane dalla “fatica da alert”:
“Non vuoi che il tuo team abbia un enorme arretrato e che venga utilizzato solo per fare le cose semplici, quando puoi automatizzare tutto.”
— Ofer Smadari, CEO e Co-fondatore di Torq
Questa visione risuona fortemente nel mercato attuale, dove la carenza di talenti nella cybersecurity è cronica. Le aziende non cercano più strumenti che “aiutino” gli umani, ma sistemi che possano, di fatto, sostituirli nei compiti di livello 1, lasciando agli esperti solo i casi realmente complessi o ambigui.
La scommessa sul settore federale e la fine del SOAR
C’è un altro livello di lettura in questa operazione, ed è geopolitico e strategico. Il round di finanziamento è stato guidato da Merlin Ventures, una società di venture capital con profondi legami nel settore pubblico e federale statunitense.
Non è un caso.
Il governo degli Stati Uniti e le agenzie di difesa sono tra i maggiori consumatori di tecnologia di sicurezza, ma sono anche prigionieri di stack tecnologici obsoleti e processi burocratici lenti.
L’ingresso di Merlin segnala che Torq è pronta per il salto di qualità: ottenere le certificazioni necessarie (come FedRAMP) per operare nelle infrastrutture critiche governative.
Qui la sfida tecnica si fa ancora più interessante: applicare l’AI generativa in ambienti dove la riservatezza dei dati è questione di sicurezza nazionale richiede garanzie di isolamento e determinismo che molti modelli attuali faticano a offrire. La scommessa è che l’approccio agentico di Torq, essendo vincolato a flussi di lavoro controllabili, possa offrire quella trasparenza che manca alle “black box” dell’AI generativa pura.
Shay Michel, Managing Partner di Merlin Ventures, ha inquadrato l’investimento proprio in quest’ottica di asimmetria tra attaccanti e difensori:
“Torq sta ridefinendo le operazioni di sicurezza. Hanno fuso l’automazione e il giudizio umano in una nuova piattaforma AI SOC costruita per minacce asimmetriche e per operare su scala reale. […] Il nostro focus ora è la velocità, accelerare il go-to-market, espanderci nei mercati commerciali e governativi.”
— Shay Michel, Managing Partner presso Merlin Ventures
La crescita esplosiva dell’azienda sembra dare ragione a questa strategia. Con una crescita dei ricavi dell’800% e un aumento decuplicato dei clienti nel secondo anno, Torq ha dimostrato che il mercato era affamato di un’alternativa ai giganti del SIEM come Splunk o Palo Alto Networks, che spesso richiedono mesi per essere configurati correttamente.
Il rischio dell’autonomia e il futuro dei SOC
Tuttavia, l’entusiasmo tecnico non deve offuscare i rischi potenziali. Affidare la “remediation” (ovvero la risposta attiva, come bloccare un utente o spegnere un server) a un agente AI introduce nuove superfici di attacco.
Cosa succede se un attaccante riesce a ingannare l’agente tramite tecniche di prompt injection, convincendolo a eseguire azioni distruttive contro l’infrastruttura stessa che dovrebbe proteggere?
Inoltre, c’è il problema dell’osservabilità. In un sistema deterministico basato su codice, se qualcosa va storto, si può fare il debug riga per riga. In un sistema probabilistico basato su LLM, capire perché l’agente ha preso una certa decisione può essere complesso, se non impossibile.
Torq promette trasparenza e audit log dettagliati, ma la fiducia cieca nell’automazione ha storicamente portato a disastri quando il contesto cambia improvvisamente.
L’eleganza della soluzione proposta da Torq sta nel suo tentativo di bilanciare la flessibilità dell’AI con la rigidità necessaria nelle operazioni di sicurezza.
Ma la domanda che aleggia su tutto il settore rimane aperta: stiamo costruendo sistemi che ci rendono più sicuri, o stiamo semplicemente creando una scatola nera più veloce, capace di commettere errori su una scala che nessun umano potrebbe mai eguagliare?