Cloudflare down: quando un errore spegne Internet
Cloudflare down: un errore interno manda offline X e ChatGPT, riaccendendo il dibattito sulla centralizzazione del web e la fragilità dell’infrastruttura digitale globale
Se avete provato ad aprire X (l’ex Twitter) o a chiedere una ricetta a ChatGPT nelle ultime ore e vi siete trovati davanti a una schermata bianca o a un errore criptico, non siete soli.
E no, non è colpa del vostro Wi-Fi.
Oggi, 23 dicembre 2025, Internet ha “battuto le palpebre” in modo piuttosto violento. Il colpevole? Ancora una volta, quello che potremmo definire il sistema nervoso invisibile della rete: Cloudflare.
L’incidente di oggi non è un caso isolato, ma l’apice di un bimestre nero per l’infrastruttura web globale. Per capire la gravità della situazione, dobbiamo guardare oltre il semplice fastidio di non poter scorrere il feed dei social media.
Cloudflare non è un sito qualsiasi: gestisce circa il 20% del traffico web mondiale. Immaginate se un quinto delle strade di una metropoli venisse improvvisamente chiuso per un errore nella segnaletica; il risultato è la paralisi totale, ed è esattamente ciò che è accaduto digitalmente questa mattina.
Al centro del problema c’è una tensione fondamentale tra sicurezza e stabilità. Cloudflare agisce come un buttafuori digitale, filtrando il traffico “buono” (noi umani) da quello “cattivo” (bot, attacchi DDoS). Ma quando il buttafuori si confonde e chiude la porta in faccia a tutti, il danno economico e funzionale è immediato.
Il prezzo della centralizzazione
L’incidente odierno ci costringe a riflettere su quanto sia fragile l’architettura su cui poggia la nostra vita digitale. Abbiamo costruito un web incredibilmente veloce e sicuro centralizzando i servizi. Invece di gestire la sicurezza in casa, milioni di siti si affidano a un unico fornitore.
Quando funziona, è magia: le pagine caricano all’istante ovunque, da Milano a Tokyo.
Quando non funziona, il silenzio è assordante.
Stamattina, l’interruzione ha paralizzato piattaforme come X e ChatGPT a causa di un errore di configurazione in un bug latente. Non si è trattato di un attacco hacker sofisticato, né di una cyber-guerra, ma di un errore interno. È ironico e preoccupante allo stesso tempo: abbiamo costruito fortezze digitali impenetrabili agli esterni, ma che crollano se qualcuno all’interno preme il tasto sbagliato durante un aggiornamento di routine.
La dinamica è ormai un copione noto. Un ingegnere applica una modifica apparentemente innocua alla configurazione globale; questa modifica viene propagata istantaneamente a migliaia di server in tutto il mondo (grazie alla tecnologia Anycast, che è tanto geniale quanto spietata nel replicare gli errori); il sistema di protezione anti-bot impazzisce e inizia a bloccare il traffico legittimo.
Risultato? Milioni di utenti bloccati fuori dai servizi che usano per lavorare.
Quando il vigile urbano blocca l’incrocio
Per comprendere la frustrazione che serpeggia tra i CTO e gli amministratori di sistema di mezzo mondo, bisogna guardare ai precedenti recenti. Solo poche settimane fa, il 18 novembre, un altro disservizio aveva messo in ginocchio mezza rete. In quell’occasione, la trasparenza dell’azienda è stata lodevole, ma le scuse iniziano a suonare ripetitive alle orecchie di chi perde fatturato ogni minuto di down.
Matthew Prince, CEO di Cloudflare, non ha usato mezzi termini per descrivere la gravità della situazione recente:
A nome dell’intero team di Cloudflare, vorrei scusarmi per i disagi che abbiamo causato a Internet oggi. Oggi è stato il peggior disservizio di Cloudflare dal 2019.
— Matthew Prince, CEO di Cloudflare
Questa ammissione evidenzia un punto cruciale: nonostante gli investimenti massicci e l’intelligenza artificiale applicata alla gestione del traffico, la complessità del sistema ha raggiunto livelli tali che l’errore umano o procedurale ha conseguenze catastrofiche. In un post di analisi successivo, l’azienda ha confermato che l’evento di novembre è stato effettivamente il peggior disservizio registrato dal 2019, sottolineando come il problema non fosse esterno, ma una ferita autoinflitta.
La tecnologia che dovrebbe proteggerci dai bot sta diventando, paradossalmente, il nostro principale ostacolo. I sistemi di Machine Learning che analizzano il traffico devono prendere decisioni in millisecondi. Se i dati in ingresso sono corrotti da una configurazione errata (come righe duplicate in un database, un dettaglio tecnico emerso nelle autopsie dei guasti passati), il “cervello” del sistema va in tilt. E per sicurezza, chiude tutto.
È come se un sistema d’allarme antincendio, rilevando un sensore guasto, decidesse preventivamente di allagare l’intero edificio.
L’effetto domino e la fiducia tradita
Non si può ignorare la frequenza con cui questi eventi si stanno verificando. Il 5 dicembre, appena pochi giorni fa, un’altra interruzione aveva colpito i servizi principali. Gli strumenti di monitoraggio indipendenti hanno registrato l’anomalia quasi in tempo reale, mostrando come il problema non fosse limitato a una regione, ma globale.

Analizzando i dati di quell’evento, Cisco ThousandEyes ha rilevato l’inizio dei problemi alle 8:48 UTC con impatti diffusi sui clienti Cloudflare. La rapidità con cui questi disservizi si manifestano (e fortunatamente, spesso si risolvono) è testimonianza della velocità delle reti moderne, ma anche della loro instabilità intrinseca.
L’azienda ha sempre sostenuto che ogni incidente rende il sistema più forte. Prince ha dichiarato:
Quando abbiamo avuto interruzioni in passato, questo ci ha sempre portato a costruire nuovi sistemi più resilienti.
— Matthew Prince, CEO di Cloudflare
È una prospettiva ottimista, tipica della Silicon Valley: “fallire velocemente per imparare velocemente”. Ma quando il tuo “laboratorio” è l’infrastruttura critica su cui girano banche, ospedali e comunicazioni globali, il margine per l’apprendimento per tentativi ed errori si riduce drasticamente.
L’incidente di oggi dimostra che le lezioni del 18 novembre e del 5 dicembre non sono state assimilate abbastanza in fretta, o che la complessità dell’infrastruttura sta crescendo più velocemente della capacità umana di gestirla. Stiamo assistendo a una sorta di debito tecnico su scala planetaria. Abbiamo delegato la complessità a pochi giganti del web per semplificarci la vita, ma ora siamo ostaggio delle loro procedure di manutenzione interna.
La domanda che dobbiamo porci, mentre aspettiamo che l’icona di caricamento smetta di girare, non è “quando tornerà online X?”, ma se sia sostenibile un futuro digitale dove un singolo errore di configurazione in un ufficio della California può spegnere la luce in tutto il mondo.
La comodità del cloud centralizzato vale davvero il rischio di un blackout sistemico?