Anthropic e l’ia ‘sicura’ che minaccia i posti di lavoro
L’IA “sicura” di Anthropic si rivela un’arma a doppio taglio, accelerando l’automazione del lavoro e mettendo a rischio i ruoli entry-level in diversi settori.
Se c’è una cosa che abbiamo imparato in questi ultimi anni di corsa sfrenata all’oro digitale, è che la “sicurezza” nell’intelligenza artificiale è un concetto a doppio taglio.
Per molto tempo, Anthropic si è posizionata come il “adulto nella stanza”, l’azienda fondata da ex ricercatori di OpenAI preoccupati che la tecnologia stesse correndo troppo veloce senza cinture di sicurezza. Hanno costruito Claude basandosi sulla Constitutional AI, promettendo modelli allineati ai valori umani.
Ma oggi, in questo freddo inizio di 2026, la narrazione sta cambiando radicalmente. Quella stessa sicurezza e affidabilità che rendevano Claude “l’alternativa etica”, lo stanno trasformando nello strumento perfetto per una ristrutturazione aziendale senza precedenti.
Non è più una questione di se l’IA prenderà il posto di alcuni lavoratori, ma di quanto velocemente accadrà.
E l’ironia è che a dircelo non è un critico tecnofobo, ma proprio chi ha costruito la macchina.
Siamo di fronte a un paradosso tecnologico: più rendiamo l’IA sicura e affidabile, più diventa “assumibile” al posto di un essere umano.
Il conto alla rovescia per gli sviluppatori
Per anni ci siamo detti che la programmazione sarebbe stata l’ultima roccaforte. “Impara a programmare”, dicevano.
Eppure, la realtà ci sta presentando un conto diverso e molto più salato. La capacità di ragionamento dei modelli attuali non si limita più a completare qualche riga di codice o a fare il debug di una funzione banale. Stiamo parlando di architettura, di gestione end-to-end di progetti.
Le recenti dichiarazioni dai vertici di Anthropic hanno scosso la Silicon Valley: Dario Amodei ha dichiarato che l’IA è a soli 6-12 mesi dal poter svolgere il lavoro degli ingegneri software.
Non si tratta di fantascienza o di previsioni per il prossimo decennio. Stiamo parlando di un orizzonte temporale che si misura in mesi.
Se un modello può replicare il flusso di lavoro di un ingegnere senior, la necessità di formare junior crolla verticalmente.
Questo crea un effetto a catena immediato. Se l’IA gestisce il codice “sporco”, la documentazione e i test, cosa resta da fare per chi sta iniziando la carriera?
Il tradizionale percorso di apprendistato, fatto di compiti ripetitivi ma formativi, rischia di evaporare.
La fine del “livello base”
Il problema non riguarda solo il codice. Stiamo assistendo a una potenziale erosione della classe media dei lavoratori della conoscenza.
Fino a ieri, l’assunzione di un neolaureato era un investimento: pagavi per la sua inesperienza oggi sperando nella sua competenza domani. Ma se un abbonamento enterprise a un LLM costa una frazione di uno stipendio e non richiede ferie, malattia o formazione, l’equazione economica cambia brutalmente.
La convergenza di opinioni tra i giganti del settore è allarmante: i CEO di DeepMind e Anthropic concordano sull’impatto imminente per i ruoli entry-level e i tirocini già nel 2026.
Non è un caso isolato o una visione pessimistica di un singolo leader; è una lettura condivisa dei dati che hanno sottomano. Stiamo parlando di una possibile riduzione del 50% dei ruoli entry-level in settori che vanno dal legale al marketing, fino all’amministrazione.
Dario Amodei non usa mezzi termini quando descrive lo scenario economico che ci attende, dipingendo un quadro dove crescita macroeconomica e disagio sociale potrebbero coesistere in modo inquietante:
Penso che potremmo avere questa combinazione molto insolita di crescita molto rapida del PIL e alta disoccupazione o almeno sottoccupazione, sai, molti lavori a basso salario, alta disuguaglianza.
— Dario Amodei, CEO di Anthropic
Tra “augmentation” e Sostituzione
Qui però la faccenda si complica, e bisogna leggere tra le righe per non farsi abbindolare dal marketing aziendale. Mentre i CEO lanciano allarmi quasi apocalittici (forse per invocare una regolamentazione che blinderebbe la loro posizione di mercato?), i reparti PR e ricerca pubblicano dati che sembrano raccontare una storia diversa, più rassicurante.
C’è una dissonanza cognitiva evidente. Da una parte si parla di “bagno di sangue” per i colletti bianchi, dall’altra uno studio interno del team economico di Anthropic suggerisce che l’IA stia principalmente potenziando il lavoro piuttosto che automatizzarlo completamente.
Secondo questi dati, l’IA agirebbe come un super-assistente che si fa carico del 25% o più dei compiti in quasi la metà dei lavori analizzati.
Questa narrazione dell’ “augmentation” (potenziamento) è affascinante, ma rischia di essere il classico specchietto per le allodole. Se un team di 10 persone diventa il 50% più produttivo grazie all’IA, l’azienda raramente decide di produrre il 50% in più mantenendo lo stesso organico. Molto più spesso, decide di ottenere lo stesso risultato con 5 persone.
L’efficienza, nel capitalismo moderno, tende quasi sempre a tradursi in contrazione della forza lavoro, non in “più tempo libero per tutti”.
Un futuro ad alta velocità (e alto rischio)
L’entusiasmo per le capacità tecniche di questi nuovi modelli è innegabile. Come appassionato di tecnologia, vedere un sistema ragionare su problemi complessi, scrivere prose sfumate e analizzare dati in secondi è esaltante. Claude e i suoi simili sono diventati strumenti indispensabili nel mio flusso di lavoro quotidiano.
Tuttavia, non possiamo ignorare che Anthropic, nata per rendere l’IA “sicura”, sta involontariamente accelerando verso un pericolo sociale ben più tangibile di una “IA canaglia”: l’obsolescenza umana programmata.
La Constitutional AI garantisce che il modello non ti insulti e non ti aiuti a costruire una bomba, il che lo rende perfetto per le aziende Fortune 500 che vogliono automatizzare il servizio clienti o l’analisi dati senza rischi reputazionali. La sicurezza del modello è diventata la caratteristica killer per l’adozione aziendale di massa.
Siamo pronti a gestire una società dove il PIL schizza alle stelle grazie all’automazione, mentre l’accesso al primo gradino della scala lavorativa viene segato via?