Spotify: l’AI Honk genera il 100% del codice, ingegneri non scrivono da dicembre
L’azienda ha raggiunto un’efficienza quasi utopica nello sviluppo software, ma la totale automazione del codice affidata all’intelligenza artificiale solleva domande sul controllo, sulla sicurezza e sul futuro del lavoro umano.
Da qualche mese, i migliori sviluppatori di Spotify non scrivono più codice. Non è una scelta filosofica o una forma di protesta silenziosa.
È il risultato di un sistema interno chiamato ‘Honk’, alimentato da Claude Code di Anthropic, che permette di chiedere all’intelligenza artificiale di risolvere un bug o aggiungere una funzionalità direttamente da Slack, ricevere una versione aggiornata dell’app da testare e poi fondere il tutto nel ramo di produzione.
Tutto prima di arrivare in ufficio.
Lo ha raccontato il co-CEO Gustav Söderström durante la chiamata sugli utili del quarto trimestre 2025, dipingendo un quadro di efficienza quasi utopica.
Ma quando un’azienda che gestisce i dati sensibili di centinaia di milioni di utenti affida la manutenzione del suo codice a un agente autonomo, sorge una domanda inevitabile: chi è davvero al comando?
E, soprattutto, a quale prezzo?
La narrazione è quella consueta del progresso inarrestabile: maggiore velocità, riduzione del debito tecnico, liberazione dei talenti umani per compiti più strategici.
Spotify parla di un risparmio fino al 90% del tempo ingegneristico per migrazioni complesse e di oltre 650 pull request generate dall’agente e fuse in produzione ogni mese.
Niklas Gustavsson, Chief Architect di Spotify, ha dichiarato che Claude ha costantemente fornito le performance più forti per lavori di trasformazione del codice su larga scala, motivo per cui è diventato il loro modello di scelta.
L’integrazione, iniziata a luglio 2025, sfrutta il cosiddetto Claude Agent SDK all’interno dell’infrastruttura di Fleet Management di Spotify, creando un agente di coding autonomo che opera dal prompt in linguaggio naturale alla richiesta di merge.
Il sistema ‘Honk’ di Spotify, che abilita il deployment remoto e in tempo reale, è stato descritto da Söderström come “all’avanguardia del settore”.
I numeri, se presi per buoni, sono impressionanti.
Ma è proprio questa totale automazione a sollevare i primi, seri interrogativi.
Il confine sfumato tra assistente e autore
La transizione da “AI-assisted” a “AI-led” development, come la definisce Spotify, non è solo semantica.
Ricalibra radicalmente il ruolo dell’ingegnere umano: da creatore a supervisore, da scrittore a orchestratore.
“Gli sviluppatori ora specificano l’intento e approvano gli output, mentre l’AI si occupa della digitazione meccanica e del refactoring”, ha spiegato Söderström.
Un cambio di paradigma che le aziende tech stanno inseguendo da anni, promettendo di scalare la produttività all’infinito.
Ma cosa succede quando il supervisore umano, bombardato da decine di pull request al giorno generate da un’AI, non riesce più a mantenere una comprensione contestuale profonda del codice?
Il rischio è di creare una generazione di “manager del codice” che delegano la comprensione del sistema stesso a una scatola nera, con conseguenze potenziali sulla sicurezza, la manutenibilità a lungo termine e la capacità di diagnosticare problemi complessi.
Spotify afferma di avere guardrail: test automatizzati, suite di analisi statica, rilasci graduali.
Ma la storia dell’informatica è costellata di bug catastrofici passati attraverso i test.
Un agente AI che riesce a elaborare e ragionare su un contesto di un milione di token è potente, ma non infallibile.
Può generare codice che sembra corretto ma contiene errori sottili, specialmente in operazioni delicate come la migrazione di classi Java AutoValue in Records o l’aggiornamento di framework con breaking changes.
L’azienda ammette che il ruolo umano è “meno legato alla digitazione e più al controllo”.
Ma in un regime di sviluppo iper-velocizzato, il controllo rischia di trasformarsi in un click frettoloso di approvazione.
Intanto, sullo sfondo, riecheggiano i dati sui licenziamenti: 2.400 dipendenti, secondo quanto riportato da un ex dipendente, le cui posizioni sarebbero state sostituite dall’AI.
Una coincidenza?
Forse.
Ma quando l’efficienza si misura in “teste risparmiate”, il conflitto di interesse tra progresso tecnologico e stabilità del lavoro diventa palese.
La scatola nera della proprietà intellettuale e dei dati
Qui la questione si fa spinosa, e tocca il cuore del modello di business di Anthropic.
Chi possiede il codice generato da Claude Code per Spotify?
In caso di violazione del copyright, chi è responsabile?
Le note a piè di pagina del contratto, quelle che nessuno legge, diventano fondamentali.
Anthropic, per rassicurare i clienti enterprise, offre garanzie di proprietà intellettuale e indennizzi per violazione del copyright nei suoi termini commerciali.
Ma questo vale per Spotify, che utilizza presumibilmente un contratto enterprise.
Il quadro è molto diverso per gli sviluppatori individuali o i piani consumer.
La politica sull’uso dei dati di Anthropic, aggiornata a settembre 2025, è chiara: l’azienda può utilizzare i dati generati dagli utenti (chat e sessioni di coding) dei piani Claude Free, Pro e Max per addestrare e migliorare i propri modelli.
Gli utenti possono rinunciare a questo utilizzo tramite le impostazioni sulla privacy, ma il dato di default è il consenso.
I dati vengono trattenuti per cinque anni a fini di addestramento se il loro utilizzo è consentito.
I nostri ingegneri sono ora in grado di eseguire migrazioni su tutta la flotta a una velocità che prima non era semplicemente possibile
— Max Charas, Senior Staff Engineer di Spotify
Immaginate ora un ingegnere di Spotify che, per sbaglio o per necessità, utilizza una versione “consumer” di Claude Code per un task rapido, magari incollando un frammento di codice proprietario.
Quel frammento, secondo i termini, potrebbe teoricamente finire nel set di addestramento per migliorare il modello che domani servirà un concorrente.
Spotify dichiara di aver collaborato con il team di Applied AI di Anthropic per le best practice e di avere un’architettura sicura.
Ma la catena di custodia del codice e dei segreti aziendali si allunga e si opacizza, passando attraverso i server di un fornitore esterno il cui modello di business si basa sull’ingestione di dati.
Nel frattempo, non è un caso che Spotify stia inasprendo in modo significativo le regole di accesso per gli sviluppatori esterni, citando proprio i “nuovi rischi derivanti dall’automazione e dall’IA”.
Una misura di sicurezza necessaria, o il segnale di un’azienda che, dopo aver aperto il vaso di Pandora dell’AI al proprio interno, cerca di blindarsi dall’esterno?
L’esperimento globale e i suoi soggetti inconsapevoli
Alla fine, il vero prodotto di questo esperimento non sono le feature rilasciate più velocemente o le playlist generate da prompt.
Sono i 600 milioni di utenti attivi mensili di Spotify.
Ogni volta che l’app si aggiorna – e con ‘Honk’ gli aggiornamenti potrebbero diventare ancora più frequenti e invisibili – è il loro dispositivo, i loro dati, la loro esperienza ad essere modificati da un processo sempre più automatizzato e sempre meno scrutabile.
L’AI “accelera la velocità con cui Spotify può sviluppare e rilasciare nuove funzionalità”, si legge nei documenti.
Ma una velocità di sviluppo frenetica, se non accompagnata da un pari investimento in controlli di qualità, testing approfondito e considerazione etica, può erodere la stabilità e la fiducia.
L’utente diventa, suo malgrado, il tester finale di un codice scritto da un’intelligenza artificiale e approvato da un umano di fretta.
Spotify non è solo un lettore musicale.
È un sistema di raccomandazione che influenza i nostri gusti, un contenitore di dati sensibili sulle nostre abitudini, un’infrastruttura critica per l’industria musicale globale.
Affidare la sua evoluzione tecnica a un agente AI solleva questioni che vanno ben oltre la produttività del reparto engineering.
Riguardano la trasparenza, la responsabilità e il controllo ultimo su tecnologie che plasmano la cultura.
L’azienda svedese, insieme ad Anthropic, sta scrivendo il manuale di istruzioni per il futuro dello sviluppo software enterprise.
Ma in questo manuale, il capitolo sui diritti degli utenti, sulla sicurezza collettiva e sui limiti dell’automazione sembra ancora tutto da scrivere.
O forse, viene deliberatamente lasciato in bianco, nella speranza che nessuno noti la differenza tra un progresso autentico e una semplice, rischiosissima, delega.