La Russia potenzia la censura di internet con l’intelligenza artificiale
La Russia evolve la sua censura online: l’IA analizza i contenuti in tempo reale per bloccare le informazioni non gradite.
Se fino a ieri il controllo di internet in Russia assomigliava a un gigantesco elenco telefonico di numeri sbarrati, da quest’anno la strategia cambia radicalmente paradigma, passando da una gestione burocratica a una sorveglianza algoritmica proattiva.
Non stiamo più parlando di semplici firewall che bloccano indirizzi IP o nomi a dominio specifici — una tecnica ormai banale da aggirare con una VPN da pochi euro — ma di un sistema che tenta di “capire” il traffico in tempo reale.
La notizia che sta circolando negli ambienti tecnici in queste ore non è tanto l’investimento economico, quanto l’evoluzione architetturale della censura digitale russa. Il Roskomnadzor (RKN), l’ente federale per la supervisione delle comunicazioni, ha avviato l’implementazione di modelli di Machine Learning (ML) direttamente all’interno dell’infrastruttura di rete nazionale.
L’obiettivo è automatizzare il riconoscimento di contenuti non graditi, riducendo drasticamente il tempo che intercorre tra la pubblicazione di un’informazione e la sua rimozione o il blocco dell’accesso.
Per chi si occupa di reti, il salto tecnologico è evidente: si passa da un approccio stateless (blocco se l’indirizzo X è nella lista nera) a uno stateful e semantico (blocco se il contenuto del pacchetto dati assomiglia al concetto Y).
Ma per comprendere la portata di questa operazione, bisogna guardare sotto il cofano dei protocolli e dell’hardware che sta venendo dispiegato.
Dall’elenco telefonico all’analisi semantica
Il cuore del nuovo sistema risiede nell’evoluzione dei TSPU (Technical Means of Countering Threats), dispositivi hardware per il Deep Packet Inspection (DPI) che gli operatori russi sono obbligati a installare sulle proprie reti dal 2019, anno della legge sull'”Internet Sovrano”.
Fino a oggi, questi dispositivi agivano principalmente analizzando gli header dei pacchetti dati o le firme digitali dei protocolli per bloccare servizi specifici (come è successo con i protocolli VPN WireGuard o OpenVPN).
Il piano per il 2026 introduce l’intelligenza artificiale in questo stack. Non si tratta più solo di pattern matching su stringhe di codice, ma di Natural Language Processing (NLP) applicato al traffico in transito.
Il Roskomnadzor ha confermato l’integrazione dell’intelligenza artificiale per il filtraggio del traffico a partire dal 2026, una mossa che permette di identificare “mirror” (copie di siti web) e contenuti ripubblicati su nuove URL quasi istantaneamente.
Leonid Konik, partner di ricerca presso Comnews, ha spiegato tecnicamente cosa comporta questo cambiamento:
La soluzione consentirà un blocco più efficace dei siti che cambiano indirizzo per aggirare i blocchi. Gli strumenti di apprendimento automatico permetteranno di bloccare i contenuti non in base agli indirizzi internet, ma per parole, espressioni, frasi o altre caratteristiche. E allo stesso tempo, di trovare chi li ha copiati o citati.
— Leonid Konik, Research partner presso Comnews
Questa capacità di bloccare per “semantica” piuttosto che per “locazione” rende obsoleta la tecnica del “whack-a-mole” (colpisci la talpa), dove per ogni sito bloccato ne nascevano altri tre con domini leggermente diversi.
L’eleganza tecnica — se così vogliamo chiamarla in modo asettico — sta nel fatto che il sistema impara dai contenuti precedentemente bloccati per predire quali nuovi flussi dati debbano essere interrotti, senza attendere l’intervento umano per aggiornare i registri.
Tuttavia, l’efficacia di un software dipende interamente dall’infrastruttura su cui gira, ed è qui che la Russia ha lavorato silenziosamente negli ultimi anni per creare un collo di bottiglia centralizzato.
L’hardware del controllo e la velocità di reazione
L’infrastruttura TSPU è essenzialmente una scatola nera gestita da remoto dal Centro per il Monitoraggio e la Gestione della Rete di Comunicazione Pubblica (CMMPCN), un’unità del Roskomnadzor. Gli ISP (Internet Service Provider) russi forniscono la connettività, ma non hanno visibilità né controllo su ciò che questi apparati filtrano.
È un’architettura che centralizza il potere di routing e filtraggio, eliminando la necessità che gli operatori locali applichino manualmente le liste di blocco.
L’integrazione dell’AI in questo hardware mira a risolvere il problema della latenza burocratica. I sistemi precedenti, come “Oculus” (per l’analisi di immagini e video) e “Vepr” (per le minacce potenziali), servivano principalmente a segnalare contenuti agli operatori umani. Il nuovo step è l’azione diretta sulla rete.
Andrei Lipov, a capo del servizio di supervisione, ha evidenziato come l’automazione abbia già drasticamente compresso i tempi di reazione:
Questo ha ridotto il tempo per rilevare contenuti problematici a 6 ore, rispetto alle 48 ore precedenti.
— Andrei Lipov, Capo del servizio di supervisione Roskomnadzor
Ridurre la finestra temporale a poche ore — o in prospettiva a minuti — significa impedire che una notizia o un video diventino virali prima che lo Stato possa intervenire.
È una corsa contro il tempo che la tecnologia DPI potenziata dall’AI sembra stia vincendo, supportata dal fatto che le autorità russe hanno costruito un arsenale completo di strumenti tecnologici per estendere la censura, rendendo la rete russa un ambiente sempre più isolato dai protocolli globali aperti.
Ma c’è un aspetto che spesso sfugge quando si parla di “intelligenza” artificiale applicata alla censura: la sua intrinseca stupidità contestuale.
La fallibilità dell’algoritmo e i falsi positivi
Dal punto di vista dello sviluppo software, affidare il filtraggio di pacchetti di rete all’NLP comporta rischi enormi di overblocking. Un algoritmo addestrato a riconoscere “estremismo” o “disinformazione” fatica enormemente a distinguere il contesto: una citazione di un testo proibito fatta per criticarlo è, agli occhi della macchina, identica alla propaganda del testo stesso.
Non stiamo parlando di una novità assoluta, ma dell’estensione al web di pratiche già testate in ambiti offline.
È interessante notare come questo approccio sia stato precursore in altri settori: gli editori russi hanno già adottato programmi di intelligenza artificiale per lo screening dei manoscritti al fine di rilevare potenziali violazioni legali prima ancora della pubblicazione. Portare questa logica dal file di testo statico al flusso dinamico di internet introduce variabili di complessità esponenziale.
La cifratura end-to-end (come quella di HTTPS o dei messaggi privati) rimane l’ostacolo tecnico principale per l’analisi semantica profonda. Se il payload è cifrato, l’AI non può leggerne il contenuto testuale.
Per questo motivo, l’evoluzione del sistema russo punta molto sull’analisi dei metadati e del comportamento del traffico (analisi euristica), piuttosto che sulla sola lettura del contenuto in chiaro. Se un flusso di dati cifrati si comporta come un flusso proibito, viene bloccato preventivamente.
Siamo di fronte a un paradosso tecnologico: strumenti sofisticatissimi, basati sulle più recenti ricerche nel campo delle reti neurali, vengono impiegati per restringere l’orizzonte informativo anziché espanderlo.
L’efficienza tecnica della soluzione è innegabile, ma trasforma l’infrastruttura di rete da un sistema di trasporto dati neutrale a un arbitro editoriale attivo e opaco.
La domanda che resta aperta non è se il sistema funzionerà — tecnicamente è già operativo — ma quanto velocemente gli utenti troveranno nuovi modi per offuscare il “significato” del loro traffico agli occhi di un censore digitale sempre più attento.