Amazon e l'IA: gli azionisti sfidano i contratti militari e l'etica

Amazon e l’IA: gli azionisti sfidano i contratti militari e l’etica

La vendita di IA a governi e militari mette in discussione l’etica di Amazon, aprendo un dibattito sul ruolo delle aziende tech e le conseguenze delle loro tecnologie.

C’è una tensione palpabile nell’aria quando si parla di Intelligenza Artificiale oggi, e non riguarda l’ultimo modello di linguaggio generativo capace di scrivere poesie o generare video surreali. La vera partita si gioca dietro le quinte, nelle sale server che alimentano infrastrutture critiche e operazioni militari.

Proprio in queste ore, un gruppo di investitori di Amazon ha deciso di alzare la voce, mettendo sul tavolo una questione che va ben oltre i margini di profitto: l’etica dei contratti governativi.

Siamo abituati a pensare ad Amazon come al gigante dell’e-commerce che ci consegna il pacco in 24 ore, o alla “magia” di AWS che tiene in piedi metà di internet.

Ma c’è un lato molto più pragmatico e spigoloso della tecnologia cloud.

Un gruppo di azionisti, guidato dalle American Baptist Home Mission Societies (ABHMS), ha deciso di sfidare direttamente il consiglio di amministrazione, presentando una risoluzione formale che chiede un’indagine indipendente sulla conformità dei contratti con l’esercito israeliano e il Dipartimento della Sicurezza Interna degli Stati Uniti (DHS).

La domanda è semplice ma tagliente: come si concilia la vendita di tecnologie di sorveglianza e calcolo militare con le linee guida sull’IA responsabile che l’azienda stessa ha proclamato?

Non stiamo parlando di pochi spiccioli o di investitori marginali. Dietro questa mossa c’è una coalizione che detiene azioni per un valore di almeno 59 milioni di dollari.

Il punto focale non è il boicottaggio cieco della tecnologia, ma la richiesta di trasparenza su come questa venga utilizzata “sul campo”. È il classico momento in cui la teoria incontra la pratica: è facile scrivere un manifesto etico su carta, è molto più difficile rispettarlo quando ci sono in ballo contratti miliardari e geopolitica.

Quando l’etica aziendale incontra la realtà militare

Per capire la gravità della situazione, bisogna guardare ai precedenti. Al centro delle critiche c’è l’accordo da 1,2 miliardi di dollari noto come Project Nimbus, vinto congiuntamente da Amazon e Google.

Sulla carta, si tratta di fornire servizi cloud al governo israeliano. Nella pratica, i critici e gli attivisti – inclusi molti dipendenti interni – sostengono che questa infrastruttura fornisca capacità di calcolo e strumenti di IA essenziali per le operazioni militari a Gaza, inclusi sistemi di riconoscimento facciale e coordinamento dei droni.

Gli investitori che hanno sollevato il problema non usano mezzi termini. Sostengono che esista una discrepanza fondamentale tra l’immagine pubblica di Amazon e le sue azioni commerciali. Ecco cosa scrivono nella loro argomentazione:

Nonostante questo approccio, Amazon continua a vendere e a stipulare contratti con entità coinvolte in applicazioni della sua IA e di altre tecnologie che violano i diritti umani, creando un disallineamento tra le sue politiche e le sue pratiche.

— Proponenti azionisti delle American Baptist Home Mission Societies (ABHMS)

L’accusa è pesante perché colpisce un nervo scoperto: il rischio reputazionale.

Nel mondo tech, la fiducia è una valuta tanto quanto il dollaro. Se l’opinione pubblica inizia a percepire AWS non come un fornitore di servizi neutro, ma come un abilitatore di potenziali violazioni dei diritti umani, il danno al brand può essere incalcolabile.

E non si tratta solo di Israele. La risoluzione punta il dito anche contro i sistemi biometrici forniti al DHS negli Stati Uniti, tecnologie che, secondo i critici, faciliterebbero detenzioni senza giusta causa e violazioni della privacy su larga scala.

Dall’altra parte della barricata, Amazon mantiene una posizione difensiva standard, ribadendo che la tecnologia è neutrale e che i controlli esistono. La risposta dell’azienda è un esercizio di equilibrio lessicale:

Esaminiamo regolarmente e limitiamo chi ha accesso a dati e servizi sensibili, e disponiamo di politiche di lunga data per salvaguardare i contenuti dei clienti e prevenire l’abuso dei nostri servizi.

— Portavoce Amazon (dichiarazione ufficiale dell’azienda)

Tuttavia, questa rassicurazione non sembra più sufficiente a placare gli animi. La sensazione è che ci sia una “scatola nera” tra ciò che Amazon dichiara e ciò che i governi fanno realmente con quegli strumenti una volta acquistati.

Il prezzo della sorveglianza digitale

Il problema tecnico qui è affascinante e terrificante allo stesso tempo.

Quando parliamo di IA nel contesto della sicurezza nazionale, non parliamo di chatbot che sbagliano una ricetta. Parliamo di algoritmi predittivi, di riconoscimento facciale in tempo reale e di analisi massiva dei dati. Se questi sistemi hanno dei bias (e sappiamo che li hanno), o se vengono usati senza supervisione, l’impatto sui diritti civili è immediato e fisico.

Non è un caso che questa mossa degli azionisti arrivi in un momento in cui l’attenzione normativa è altissima. C’è un filo conduttore che lega queste proteste a una proposta parallela che richiede una valutazione di terze parti sulla supervisione dei rischi legati all’IA e ai diritti umani, avanzata dall’AFL-CIO.

Gli investitori istituzionali stanno iniziando a vedere la mancanza di supervisione etica non più come una questione morale, ma come un rischio finanziario materiale.

Immaginate lo scenario: un algoritmo AWS identifica erroneamente un civile come una minaccia in una zona di conflitto, o un sistema biometrico nega ingiustamente l’accesso a un cittadino. Le conseguenze legali e le ripercussioni di mercato per Amazon potrebbero essere devastanti.

Gli azionisti lo sanno.

Stanno chiedendo al consiglio di amministrazione di “aprire il cofano” e verificare se il motore etico dell’azienda funziona davvero o se è solo un adesivo attaccato sulla carrozzeria.

C’è poi un aspetto di governance interna che spesso sfugge. Le campagne dei lavoratori come “No Tech For Apartheid” hanno dimostrato che il dissenso non è solo esterno. Quando i tuoi ingegneri migliori – quelli che costruiscono l’IA – iniziano a protestare contro l’uso che ne viene fatto, l’azienda rischia una fuga di cervelli. In un settore dove il talento è tutto, perdere la fiducia dei propri sviluppatori è forse più pericoloso di perdere un contratto governativo.

Un bivio per la Silicon Valley

Ciò che sta accadendo ad Amazon è sintomatico di un dilemma più ampio che affligge tutta la Silicon Valley.

Per anni, le Big Tech hanno goduto di una sorta di immunità ideologica, presentandosi come costruttori di strumenti neutri. “Noi facciamo il martello, non siamo responsabili se qualcuno lo usa per rompere una finestra invece che per piantare un chiodo”.

Ma con l’IA, questa metafora non regge più.

L’IA non è un martello; è un sistema attivo che prende decisioni, classifica, filtra e, in ultima analisi, agisce.

La richiesta degli azionisti di dicembre 2025 segna un punto di non ritorno. Chiedono di sapere se i principi di “equità, sicurezza, privacy e trasparenza” citati nelle linee guida di Amazon siano compatibili con la fornitura di tecnologia a enti militari e di sorveglianza che operano in contesti controversi. Se l’indagine richiesta venisse approvata, costringerebbe Amazon a rendere conto non solo dei profitti, ma delle conseguenze operative delle sue tecnologie.

È improbabile che Amazon abbandoni volontariamente contratti miliardari come Project Nimbus senza una spinta esterna massiccia. Tuttavia, il fatto che la pressione arrivi ora dal portafoglio degli azionisti, e non solo dai cartelli degli attivisti in strada, cambia le carte in tavola.

Il denaro è codardo, si dice, e se gli investitori iniziano a percepire questi contratti come “tossici” per il valore a lungo termine dell’azione, potremmo vedere cambiamenti reali.

La vera domanda che rimane sospesa non è se l’IA sarà usata per la guerra o la sorveglianza – quello sta già accadendo – ma se le aziende che la producono saranno costrette ad assumersi la responsabilità morale e legale del codice che rilasciano nel mondo.

Fino ad allora, la definizione di “IA Responsabile” rischia di rimanere un ossimoro aziendale.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie