Anthropic ha ammesso i tre bug che hanno rotto Claude Code
Anthropic ha ammesso tre bug che hanno degradato Claude Code per settimane, causando risposte verbose e smemoratezza.
Tre cambiamenti tecnici indipendenti si sono combinati in un effetto a catena disastroso
Per diverse settimane, chi usava Claude Code per scrivere software ha vissuto una specie di lenta deteriorazione silenziosa. Le risposte erano diventate più lunghe, ridondanti, piene di giri di parole. Il modello sembrava dimenticare il contesto di una sessione da una risposta all’altra. E i crediti di utilizzo — quelli che paghi ogni mese — sparivano molto più in fretta del solito. Come quando il tuo editor di testo preferito, dopo un aggiornamento automatico, inizia a fare scelte strane che non hai chiesto. Secondo il post-mortem ufficiale di Anthropic, tutto questo aveva cause precise — tre, per la cronaca — e non era frutto dell’immaginazione degli utenti.
Il giorno in cui Claude ha smesso di funzionare bene
Immaginate di avere un collega brillante che conoscete da mesi. Sa come ragionate, ricorda i dettagli dei progetti passati, va dritto al punto. Poi un giorno arriva in ufficio e comincia a ripetere le stesse cose, a dimenticare la conversazione di cinque minuti prima, e a scrivere email tre volte più lunghe del necessario. Frustrante, no? È esattamente quello che hanno vissuto gli sviluppatori che si affidavano a Claude Code. Su GitHub, qualcuno ha sintetizzato la situazione senza troppi giri di parole: secondo le segnalazioni su GitHub, Claude era “regredito al punto da non potersi fidare di lui per fare ingegneria complessa”. E nel frattempo, secondo le discussioni sui limiti di utilizzo su Reddit, Anthropic stessa ammetteva che le persone stavano bruciando i propri limiti mensili “molto più velocemente del previsto”. Il problema era reale. Ma cosa era successo davvero?
Tre incidenti, un unico problema
Quello che l’utente medio non sapeva è che quei sintomi avevano cause ben precise, e non una sola. Anthropic ha ricostruito una sequenza di tre cambiamenti indipendenti, ciascuno ragionevole in isolamento, che combinati hanno prodotto un effetto disastroso.
Il primo risale già al 4 marzo 2025: Anthropic ha abbassato il livello predefinito di “reasoning effort” di Claude Code da alto a medio. La motivazione era tecnica e tutto sommato sensata — in modalità alta, alcuni utenti vedevano l’interfaccia bloccarsi per così tanto tempo da sembrare congelata. Il rimedio, però, ha reso il modello meno preciso su compiti complessi. Poi, il 26 marzo, è arrivato un secondo cambiamento: il sistema avrebbe dovuto cancellare la cronologia del ragionamento nelle sessioni rimaste inattive per più di un’ora, per ridurre i tempi di risposta alla ripresa. Un bug, però, ha fatto sì che questa cancellazione avvenisse a ogni singolo turno di conversazione — non solo una volta. Risultato: Claude sembrava smemorato e ripetitivo, come se ricominciasse da zero a ogni risposta. Questo bug è stato corretto soltanto il 10 aprile. Infine, il 16 aprile, è stata aggiunta un’istruzione di sistema per ridurre la verbosità delle risposte. In combinazione con altre modifiche al prompt già in essere, questa istruzione ha peggiorato sensibilmente la qualità del codice prodotto. È stata rimossa il 20 aprile. Tutti e tre i problemi risultano risolti dalla versione v2.1.116, rilasciata il 20 aprile 2025.
La sequenza è istruttiva. Non c’è stato un singolo errore madornale, nessun sabotaggio, nessuna scelta cinica. C’è stata una catena di decisioni incrementali — ciascuna con una sua logica — che si è inceppata nel momento in cui gli effetti si sono sovrapposti. È uno degli errori più classici nello sviluppo software, e anche uno dei più difficili da prevenire. Ma i bug sono stati risolti. Il danno alla fiducia, invece, era rimasto.
La fiducia è più difficile da riparare
I danni non si misurano solo in token sprecati o limiti di utilizzo bruciati. Anthropic aveva costruito la propria reputazione su un’idea precisa: trasparenza, attenzione all’utente, un approccio all’IA più responsabile rispetto ai concorrenti. Quelle settimane di problemi non riconosciuti pubblicamente — prima che arrivasse il post-mortem — hanno incrinato esattamente quella promessa. Come sottolinea l’analisi di Fortune, il danno alla fiducia derivato da questo incidente è significativo proprio perché Anthropic aveva fatto della trasparenza un elemento identitario del suo brand. Settimane di silenzi prima del post-mortem hanno eroso quella reputazione.
E intanto il contesto competitivo non aiuta. Lo scorso 9 aprile, OpenAI ha inviato agli investitori un memo in cui attaccava Anthropic, descrivendola come un’azienda “vincolata sul fronte computazionale” e operante su una curva di risorse “significativamente più piccola”. Secondo quel memo agli investitori visionato da CNBC, OpenAI prevede di avere 30 gigawatt di potenza di calcolo entro il 2030, mentre stima che Anthropic ne avrà circa 7-8 entro la fine del 2027. Numeri che — veri o gonfiati che siano in chiave competitiva — alimentano una narrativa precisa: che i problemi di Claude non fossero bug tecnici, ma sintomi di una carenza strutturale di risorse. Anthropic ha smentito, ma le speculazioni non si sono placate. Né l’ammissione dei problemi ha quietato le voci su un possibile razionamento interno della potenza di calcolo. Vale la pena ricordare che Anthropic è valutata 380 miliardi di dollari e, secondo quanto riportato da un’analisi di Fortune, sarebbe in procinto di sbarcare in borsa. In questo scenario, ogni incidente tecnico diventa automaticamente anche una storia finanziaria. E anche OpenAI, per inciso, non è immune: ad aprile ha dovuto ritirare un aggiornamento di GPT-4o perché il modello era diventato eccessivamente compiacente — sempre pronto ad accontentare l’utente anche a scapito della precisione. La compiacenza di GPT-4o ha costretto OpenAI a tornare a una versione precedente del modello. Nessuno, in questo momento, ha la casa in perfetto ordine.
Il vero banco di prova per Anthropic non è più il codice che scrive, ma la fiducia che riesce a ricostruire. Perché nel mondo dell’IA, la percezione conta quanto la sostanza — e una volta rotta, la fiducia è la cosa più difficile da debuggare.