Amazon e l’app a to z: diritti civili negoziati da un algoritmo
L’app “A to Z” di Amazon al centro di azioni legali: un filtro digitale che nega i diritti dei lavoratori disabili e trasforma un diritto in una colpa
Immaginate di dover negoziare i vostri diritti civili non con un responsabile delle risorse umane, seduti a una scrivania, ma con un menu a tendina su uno smartphone economico.
Non c’è empatia, non c’è sfumatura, e soprattutto non c’è nessuno dall’altra parte che ascolta davvero.
Benvenuti nell’era della burocrazia algoritmica di Amazon, dove l’app “A to Z” non è solo uno strumento di gestione dei turni, ma il custode digitale che decide chi può lavorare e chi viene scartato dal sistema.
Siamo a gennaio 2026 e la narrazione della “comodità a portata di click” sta mostrando le sue crepe più inquietanti proprio nelle aule di tribunale. Mentre l’azienda di Seattle continua a venderci l’idea di un futuro senza frizioni, per centinaia di migliaia di lavoratori dei magazzini quella frizione è l’unica cosa che garantisce la sopravvivenza economica.
La questione centrale non è tecnica, ma profondamente etica e legale: può un’applicazione sostituire il giudizio umano quando in ballo c’è la salute delle persone?
L’algoritmo che dice “no”
Al centro della tempesta c’è l’app “A to Z”, il portale onnicomprensivo che i dipendenti devono usare per qualsiasi cosa, dalle ferie alle richieste di accomodamento per disabilità.
Sulla carta, è l’apoteosi dell’efficienza. Nella pratica, secondo le recenti azioni legali, è un muro di gomma digitale progettato per respingere le richieste di aiuto. La legge americana, in particolare l’Americans with Disabilities Act (ADA), impone ai datori di lavoro di impegnarsi in un “processo interattivo” con i dipendenti disabili per trovare soluzioni ragionevoli che permettano loro di lavorare.
La domanda che ci poniamo è semplice: come può un software condurre un “processo interattivo”?
Non può. Ed è esattamente questo il punto.
Le denunce dipingono un quadro in cui l’app funge da filtro preventivo. Un lavoratore che ha subito un ictus o che soffre di ipertensione non trova un interlocutore umano con cui discutere le proprie limitazioni fisiche, ma un sistema binario che accetta o rifiuta basandosi su parametri rigidi.
Se la richiesta non rientra nelle caselle predefinite, viene respinta. E quando viene respinta, scatta la trappola: le assenze necessarie per motivi di salute vengono conteggiate come “tempo non retribuito” (UPT), un sistema a punti che, una volta esaurito, porta al licenziamento automatico.
È un meccanismo perverso che trasforma un diritto in una colpa.
Una class action depositata in Texas accusa l’azienda di utilizzare l’app per eludere sistematicamente il dialogo obbligatorio per legge, sostenendo che l’interfaccia sia strutturata intenzionalmente per scoraggiare i lavoratori dal perseguire i propri diritti.
Non è un errore di programmazione, è architettura ostile.
Se l’app è complicata, se le risposte sono automatiche e le vie d’appello inesistenti, il dipendente stanco e malato semplicemente rinuncia. O viene licenziato. In entrambi i casi, il problema per l’azienda è risolto.
Ma c’è un aspetto ancora più subdolo che spesso sfugge ai non addetti ai lavori: la raccolta dati. Ogni interazione con l’app “A to Z” alimenta un database immenso. Ogni richiesta di malattia, ogni specifica medica inserita nel sistema, diventa un punto dati che profila la forza lavoro.
Stiamo parlando di dati sanitari sensibilissimi trattati come variabili in un’equazione di efficienza logistica. Chi garantisce che questi dati non vengano usati per prevedere quali dipendenti diventeranno “improduttivi” in futuro?
Il costo del silenzio digitale
La strategia di delegare alle macchine la gestione delle risorse umane ha creato quello che i legali definiscono un “chilling effect”, un effetto raggelante.
I lavoratori, sapendo di dover combattere contro un algoritmo ottuso che può decurtare il loro stipendio o licenziarli senza preavviso, smettono di chiedere ciò che spetta loro.
Non si tratta solo di casi isolati. La sistematicità con cui le richieste vengono ignorate o respinte ha attirato l’attenzione dei regolatori federali, che raramente si muovono senza prove solide. L’intervento delle autorità conferma che non siamo di fronte a qualche mela marcia nel dipartimento HR, ma a una policy aziendale codificata nel software.
La Commissione per le Pari Opportunità degli Stati Uniti ha ritenuto fondate le accuse di discriminazione legate alle deduzioni automatiche di permessi non retribuiti, sottolineando come il sistema UPT penalizzi di fatto la disabilità, violando i diritti civili dei lavoratori.
È ironico, se ci pensate. Le stesse tecnologie di intelligenza artificiale e automazione che Amazon vende al mondo come strumenti per “liberare la creatività umana” vengono usate internamente per ingabbiare i propri dipendenti in procedure kafkiane.
L’automazione qui non serve a facilitare il lavoro, ma a facilitare il licenziamento. Rimuovere l’elemento umano dal processo di accomodamento non è un’ottimizzazione: è una deregolamentazione de facto, ottenuta non cambiando le leggi, ma rendendo impossibile applicarle attraverso l’interfaccia utente.
Le implicazioni per la privacy sono altrettanto gravi. Quando un lavoratore è costretto a caricare documentazione medica su un’app per giustificare un’assenza ed evitare il licenziamento automatico, sta barattando la propria riservatezza per la sussistenza. E dove finiscono questi dati? In un ecosistema chiuso dove il confine tra dipartimento HR e gestione operativa è sempre più labile.
La difesa del Golia tecnologico
Dall’altra parte della barricata, Amazon non resta a guardare. La linea difensiva è prevedibile quanto efficace: negare la natura sistemica del problema e spostare l’attenzione sull’errore umano (o dell’utente), proteggendo al contempo il proprio modello di business.
Ammettere che l’app “A to Z” viola l’ADA significherebbe dover ripensare l’intera struttura di gestione della forza lavoro, reintroducendo quel costoso e imprevedibile fattore che l’azienda cerca disperatamente di eliminare: le persone.
L’azienda sostiene che dietro l’app ci siano team dedicati, pronti a intervenire. Eppure, le testimonianze raccontano una storia diversa, fatta di call center irraggiungibili e risposte precompilate.
Le affermazioni secondo cui avremmo violato l’ADA sono false; abbiamo un team dedicato che esamina le richieste individualmente e siamo impegnati a supportare la salute dei nostri dipendenti.
— Portavoce di Amazon (Dichiarazione in risposta alle accuse, 2025)
Questa dichiarazione stride con la realtà operativa vissuta nei magazzini. Se il sistema funziona, perché le class action si moltiplicano da New York al Texas?
La verità è che il risparmio sui costi del personale HR è una voce di bilancio troppo ghiotta per essere sacrificata sull’altare dei diritti civili. Amazon sta attivamente combattendo in tribunale sostenendo che il software non costituisce una pratica discriminatoria, cercando di far archiviare le cause prima che si arrivi a una discovery che potrebbe svelare i meccanismi interni dell’algoritmo.
Il rischio, come sempre, è che la tecnologia corra più veloce della legge. Mentre i tribunali discutono se un’app possa essere considerata un “agente discriminatorio”, il modello si diffonde.
Altre aziende guardano ad Amazon come a un faro di efficienza. Se passa il principio che l’obbligo di “processo interattivo” può essere assolto da un chatbot, avremo riscritto il diritto del lavoro senza nemmeno passare dal Parlamento.
La domanda che dovremmo farci non è se l’app funziona bene o male.
La domanda è: chi ci guadagna quando i diritti diventano un’opzione deselezionabile in un menu a tendina?
Finché la risposta sarà “gli azionisti”, la privacy e la dignità dei lavoratori rimarranno solo fastidiosi bug da correggere nel prossimo aggiornamento.