Anthropic ha modificato Claude in silenzio

Anthropic ha modificato Claude in silenzio

Anthropic ha silenziosamente degradato Claude tre volte tra marzo e aprile, violando la sua promessa di trasparenza.

Tre interventi silenziosi in poche settimane hanno degradato Claude senza preavviso per gli utenti

Anthropic si presenta come l’azienda di intelligenza artificiale più seria, più prudente, più trasparente. Lo dice nel suo statuto, lo ripete nei comunicati, lo usa come argomento commerciale contro OpenAI. Eppure, stando al postmortem ufficiale pubblicato dall’azienda, tra marzo e aprile di quest’anno Claude è stato degradato in silenzio — tre volte, con tre interventi diversi — senza che gli utenti venissero avvisati di nulla. La domanda che vale la pena farsi non è tecnica: è politica. Se l’azienda che ha costruito la propria identità sulla trasparenza e sull’allineamento agli utenti non riesce a comunicare i propri errori in tempo reale, cosa rimane di quella promessa?

Il paradosso della trasparenza

Il 4 marzo scorso, Anthropic ha abbassato in modo silenzioso l’impegno di ragionamento predefinito di Claude Code: da alto a medio. La motivazione, ammessa solo settimane dopo, era ridurre la latenza — alcuni utenti vedevano l’interfaccia bloccarsi in modalità alta. Una scelta tecnica comprensibile. Quello che non è comprensibile è il silenzio. Nessuna nota di rilascio, nessuna comunicazione agli sviluppatori che stavano costruendo prodotti basandosi su quel comportamento. Solo il modello che, di punto in bianco, ragionava meno.

Poi, il 26 marzo, un bug. Una modifica al sistema di pulizia della cronologia di ragionamento — pensata per ridurre la latenza nelle sessioni inattive da più di un’ora — ha iniziato a cancellare il contesto a ogni turno di conversazione, non solo una volta. Risultato: Claude sembrava smemorato, ripetitivo, rotto. Il bug è stato corretto solo il 10 aprile, quattordici giorni dopo. Nel mezzo, migliaia di sviluppatori e utenti hanno interagito con un modello silenziosamente danneggiato, senza sapere se il problema fosse il loro codice, la loro richiesta, o qualcosa di più profondo. Il 16 aprile, un’altra modifica al prompt di sistema per ridurre la verbosità si è combinata con altri cambiamenti già in produzione, peggiorando la qualità nelle attività di coding. È stata revertita il 20 aprile. Tutti e tre i problemi, dice Anthropic, risultano risolti nella versione v2.1.116. Ma rimane la domanda: come sono accaduti, uno dopo l’altro, in così poco tempo?

Bug, silenzi e correzioni

Questi tre episodi non sono un caso isolato nella storia recente di Anthropic. Già nel corso dell’estate e all’inizio di settembre dello scorso anno, il postmortem dei tre bug infrastrutturali aveva documentato come altrettanti problemi avessero degradato in modo intermittente la qualità delle risposte di Claude. Il pattern si ripete: modifiche in produzione, comportamenti anomali, correzioni tardive, comunicazione ex post. Non è negligenza casuale — è un metodo di lavoro.

C’è anche un dato che pesa: la disponibilità dell’API di Anthropic si attesta al 98,95%, contro lo standard industriale del 99,99%. Non è una differenza trascurabile per chi costruisce applicazioni critiche su quella infrastruttura. Ogni decimale di indisponibilità corrisponde a ore di servizio interrotto, a utenti bloccati, a reputazioni danneggiate. E mentre Anthropic correggeva in silenzio, cosa stava facendo la concorrenza?

Il costo dell’allineamento

La risposta è: più o meno la stessa cosa, ma almeno in un caso con più rapidità di comunicazione. Già a gennaio 2024, OpenAI aveva rilasciato l’aggiornamento di GPT-4 Turbo per risolvere il problema della cosiddetta “pigrizia” del modello — la tendenza a non completare i compiti in modo soddisfacente, soprattutto nella generazione di codice. Un problema analogo, una risposta pubblica. Ma il caso più recente e più significativo è quello di GPT-4o: ad aprile, OpenAI ha dovuto fare un rollback di un aggiornamento di ChatGPT perché il modello mostrava un comportamento eccessivamente compiacente — rispondeva dicendo quello che gli utenti volevano sentire, non quello che era utile o vero. Secondo il comunicato sulla sycophancy in GPT-4o, il problema nasceva dall’aver dato troppo peso ai feedback a breve termine degli utenti, senza tenere conto di come le interazioni evolvono nel tempo.

Il punto non è che OpenAI sia migliore di Anthropic, o viceversa. Il punto è che entrambe le aziende mostrano lo stesso pattern strutturale: i modelli vengono modificati in produzione, i comportamenti cambiano senza preavviso, le correzioni arrivano dopo che il danno è fatto. La differenza è che Anthropic aveva costruito il proprio posizionamento di mercato proprio sulla promessa di fare diversamente. “La company più allineata agli utenti.” “La più trasparente.” Sono affermazioni che ora suonano come marketing, non come descrizioni di un metodo.

Questo ha implicazioni che vanno oltre la fiducia degli utenti. In Europa, le regole sull’AI Act impongono obblighi di trasparenza crescenti per i sistemi ad alto impatto. Modifiche silenziose a modelli usati in contesti professionali — sviluppo software, assistenza, analisi — potrebbero presto non essere solo un problema di reputazione, ma di conformità normativa. Chi usa Claude in un contesto regolamentato ha diritto di sapere che il modello su cui si basa è cambiato. Non settimane dopo, in un postmortem. Prima.

Resta una domanda che nessun postmortem può rispondere: se l’azienda costruita sull’allineamento — quella che più di ogni altra ha fatto della fiducia il proprio prodotto — sceglie il silenzio quando le cose si rompono, chi può ancora credere che l’intelligenza artificiale sicura sia qualcosa di più di uno slogan? Gli incentivi economici spingono alla velocità, al deployment continuo, al correggere e andare avanti senza fare troppo rumore. La trasparenza costa tempo, costa immagine, costa ammettere che qualcosa è andato storto. Finché quel costo sarà percepito come troppo alto, la promessa dell’AI allineata rimarrà esattamente quello: una promessa.

🍪 Impostazioni Cookie