Gig Economy: Amazon Usa le Mance per Sussidiare i Costi Operativi
Come la Gig Economy trasforma la mancia in sussidio aziendale, mentre i tribunali atomizzano i diritti dei lavoratori e proteggono i profitti delle piattaforme
C’è una certa, perversa eleganza nel modo in cui la Gig Economy riesce a trasformare un gesto di gratitudine umana – la mancia – in una voce di bilancio aziendale per sussidiare i propri costi operativi.
Se pensavate che lasciare due euro extra al corriere fosse un atto di gentilezza diretto alle sue tasche, è il momento di ricalibrare il vostro cinismo.
La notizia che arriva dagli Stati Uniti, dove Amazon ha appena raggiunto un accordo legale con i suoi autisti del programma Flex, non è la storia di una vittoria sindacale. È la cronaca di come il sistema legale e l’algoritmo, lavorando in tandem, riescano a disinnescare qualsiasi minaccia collettiva, lasciando sul campo solo qualche risarcimento confidenziale e il solito “business as usual”.
Siamo nel 2026, ma le radici di questa storia affondano in pratiche che risalgono a quasi un decennio fa. La questione centrale è tanto semplice quanto eticamente scivolosa: per anni, secondo l’accusa, Amazon avrebbe utilizzato le mance dei clienti non per aumentare la paga degli autisti, ma per coprire la paga base che l’azienda aveva promesso.
In pratica, se Amazon garantiva 18 dollari l’ora e voi davate 5 dollari di mancia, Amazon ne sborsava solo 13. Il cliente, ignaro, stava sovvenzionando una delle aziende più ricche del pianeta invece di premiare il lavoratore.
Non è la prima volta che questo schema viene a galla. Già nel 2021, la Federal Trade Commission (FTC) era intervenuta a gamba tesa, costringendo il gigante di Seattle a restituire il maltolto. All’epoca, l’agenzia ha imposto un pagamento di 61,7 milioni di dollari per rimborsare gli autisti i cui guadagni erano stati dirottati. Andrew Smith, allora direttore del Bureau of Consumer Protection della FTC, fu cristallino nel descrivere la meccanica dell’inganno:
Amazon ha utilizzato le mance degli autisti per compensare la differenza tra il minimo garantito e l’importo che Amazon aveva promesso di pagare, anziché aggiungere le mance sopra quel minimo come aveva fatto credere agli autisti.
— Andrew Smith, Direttore del Bureau of Consumer Protection, Federal Trade Commission
Eppure, nonostante le multe e le dichiarazioni di facciata, la battaglia legale è proseguita nei tribunali civili fino a oggi. Perché?
Perché nel capitalismo della sorveglianza, pagare una multa è spesso solo un costo operativo, meno oneroso che cambiare il modello di business. Ma c’è un dettaglio in questo nuovo accordo che dovrebbe farci preoccupare ben più dei soldi persi: il fallimento della class action.
L’algoritmo vince sempre (in tribunale)
Il vero punto nodale di questa vicenda non è la cifra dell’accordo, che le parti stanno mantenendo sotto uno stretto riserbo, ma il come si è arrivati alla firma. Gli avvocati dei lavoratori hanno gettato la spugna e accettato l’accordo solo dopo che un giudice federale ha negato la certificazione di “class action”.
Questo è il Santo Graal della difesa aziendale nella Gig Economy: impedire ai lavoratori di essere riconosciuti come un gruppo omogeneo.
La strategia legale di Amazon, e di quasi tutte le piattaforme digitali, si basa sull’atomizzazione della forza lavoro. Ogni autista è un’isola, un “imprenditore di se stesso” (leggasi: precario senza tutele), con percorsi, orari e contratti leggermente diversi.
Questa presunta unicità viene usata come arma processuale: se ogni caso è diverso, non potete farci causa tutti insieme. Il risultato è che gli autisti di Amazon Flex hanno accettato di chiudere la causa legale sui fondi trattenuti proprio perché l’alternativa – migliaia di arbitrati individuali costosi e lenti – era impraticabile.
È una lezione brutale di realpolitik giudiziaria. Se l’algoritmo ti tratta come un numero fungibile per le consegne, il tribunale ti tratta come un individuo unico e irripetibile quando devi reclamare i tuoi diritti, togliendoti la forza del numero. Joseph M. Sellers, uno dei legali che ha rappresentato gli autisti, ha dovuto ammettere pragmaticamente la chiusura della disputa:
Le parti hanno raggiunto un accordo transattivo di class action e stanno finalizzando l’accordo di liquidazione, che prevedono di completare nei prossimi 60 giorni.
— Joseph M. Sellers, Partner presso Cohen Milstein Sellers & Toll PLLC
Ma mentre gli avvocati brindano alla chiusura del fascicolo, resta l’amaro in bocca per ciò che questo significa per la privacy e l’autonomia dei lavoratori. Perché per calcolare quella “paga base” variabile, che veniva poi integrata dalle mance, Amazon ha bisogno di sapere tutto di te.
E qui entriamo nel territorio oscuro dei dati.
Il prezzo della sorveglianza
Non possiamo parlare di paghe nella Gig Economy senza parlare di dati personali. Il sistema che ha permesso ad Amazon di calibrare i pagamenti in modo così chirurgico si basa su una raccolta dati pervasiva che farebbe impallidire un’agenzia di intelligence.
Per determinare quanto pagare per un “blocco” di consegne, l’algoritmo non guarda solo la distanza o il peso dei pacchi. Analizza il comportamento storico dell’autista, la velocità media, i tassi di accettazione e, potenzialmente, la disperazione statistica di chi ha bisogno di lavorare in quel preciso momento.
È un’asimmetria informativa totale.
L’azienda sa esattamente quanto sei disposto ad accettare e quanto è probabile che i clienti lascino la mancia in quel quartiere. Tu, autista, vedi solo una cifra sullo schermo. Questo è il cuore del problema che il GDPR in Europa cerca (spesso invano) di arginare con gli articoli sulla profilazione e le decisioni automatizzate.
Se l’algoritmo decide che la tua paga base deve essere più bassa perché “prevede” una mancia alta, sta usando i tuoi dati e quelli del cliente contro entrambi.
Amazon, naturalmente, respinge ogni accusa con la consueta retorica aziendale, insistendo sulla trasparenza dei suoi contratti.
Non siamo d’accordo con le affermazioni di questa causa, che travisano il funzionamento della retribuzione per i partner di consegna Amazon Flex, ma continueremo a lavorare con la corte mentre il caso procede.
— Kelly Nantel, Portavoce, Amazon.com Inc.
“Travisare il funzionamento” è un’espressione interessante. Suggerisce che la complessità del sistema sia tale da essere incomprensibile ai comuni mortali (o ai giudici).
E forse è proprio questo l’obiettivo: creare sistemi di remunerazione così opachi, basati su scatole nere algoritmiche, che dimostrare il dolo diventa un’impresa titanica. La storia ci insegna che questo modello ha creato le condizioni strutturali per le successive controversie legali proprio perché il controllo della piattaforma sulle mance in-app ha reso impossibile per l’autista distinguere tra generosità del cliente e obbligo contrattuale dell’azienda.
Un silenzio costoso
Cosa ci lascia questo accordo del gennaio 2026?
Un senso di inquietudine. La negazione della class action significa che le Big Tech hanno trovato lo scudo perfetto contro la responsabilità collettiva. Finché potranno frammentare i lavoratori in migliaia di monadi contrattuali, potranno continuare a sperimentare modelli di pagamento ai limiti della legalità, correggendo il tiro solo quando (e se) vengono colti con le mani nel sacco, pagando somme che per loro equivalgono agli spiccioli che noi lasciamo come mancia.
Chi ci guadagna davvero? Non il cliente, che crede di premiare il servizio. Non l’autista, che vede la sua privacy violata e il suo reddito manipolato da un codice invisibile.
Ci guadagna l’efficienza spietata di un modello che ha privatizzato i profitti e socializzato i rischi, nascondendo lo sfruttamento dietro un’interfaccia utente pulita e user-friendly.
La prossima volta che premete “Aggiungi 5€ di mancia” sull’app, chiedetevi: a chi sto dando davvero questi soldi?
All’essere umano che ha salito tre piani di scale, o all’algoritmo che ha calcolato quanto poco poteva pagarlo oggi?