Arm e l’Intelligenza Artificiale Fisica: Una Minaccia per la Privacy e il Lavoro?
Arm Holdings lancia “Physical AI” unendo robotica e automotive, con l’obiettivo di estendere l’intelligenza artificiale al mondo fisico, ma emergono preoccupazioni su sicurezza e privacy
Se c’è una cosa che il CES di Las Vegas ci insegna ogni anno, è che l’industria tecnologica ha un terrore cieco del vuoto narrativo.
Finiti gli smartphone da vendere e con l’IA generativa che inizia a mostrare i primi segni di stanchezza nel convincere gli investitori, serviva un nuovo giocattolo.
O meglio, un nuovo corpo per il vecchio giocattolo.
Arm Holdings, il colosso britannico che disegna l’architettura dei chip presenti in quasi ogni tasca del pianeta, ha deciso che è giunto il momento di dare una forma fisica agli algoritmi.
L’annuncio è arrivato ieri, tra le luci stroboscopiche della fiera: Arm ha creato una nuova divisione chiamata “Physical AI”.
Sembra il titolo di un film di fantascienza di serie B, ma le implicazioni sono terribilmente serie. L’azienda ha deciso di fondere il suo business automobilistico con quello della robotica sotto un unico cappello, scommettendo che l’intelligenza artificiale non debba più limitarsi a scrivere email mediocri o generare immagini surreali, ma debba iniziare a muovere oggetti pesanti nel mondo reale.
E quando la tecnologia inizia a muoversi fisicamente accanto a noi, le domande sulla sicurezza non sono più teoriche: diventano letteralmente una questione di impatto.
Per capire la mossa, bisogna guardare oltre i comunicati stampa infarciti di ottimismo. Arm non produce i robot, né le auto. Arm vende i progetti — la proprietà intellettuale — su cui si basano i cervelli di queste macchine.
Arm ha riorganizzato le proprie divisioni strategiche per catturare il mercato della robotica, segnalando agli investitori che il futuro del fatturato non è più nel cloud, ma nell'”Edge”, ovvero nel dispositivo periferico che vi cammina accanto o vi guida al lavoro.
È una mossa astuta: mentre gli altri si scannano per costruire il robot umanoide più agile, Arm vuole tassare ogni singolo movimento di quel robot.
L’illusione della “liberazione” dal lavoro
La retorica utilizzata per vendere questa transizione è quella classica, rassicurante e paternalistica a cui la Silicon Valley ci ha abituati. Si parla di efficienza, di sicurezza, e naturalmente, di liberare l’essere umano dalle incombenze più gravose.
Drew Henry, il dirigente messo a capo di questa nuova unità, non ha usato mezzi termini nel descrivere la visione salvifica dell’azienda.
Le soluzioni di IA fisica potrebbero migliorare radicalmente il lavoro, liberare tempo extra e avere, di conseguenza, un impatto considerevole sul prodotto interno lordo.
— Drew Henry, Capo della business unit Physical AI presso Arm Holdings
Ogni volta che una Big Tech promette di “liberare tempo extra”, dovremmo istintivamente controllare il portafoglio e i nostri diritti sindacali.
La storia recente ci insegna che l’automazione spinta, lungi dal regalarci settimane lavorative di 15 ore come profetizzava Keynes, tende a creare nuove forme di sorveglianza e precarietà.
Se l’IA Fisica deve “impattare il PIL”, significa che deve rendere i processi produttivi più veloci ed economici. E come si ottiene questo risultato?
Solitamente, sostituendo il lavoro umano o trasformandolo in una mera supervisione di macchine che non dormono, non mangiano e non scioperano.
In questo contesto, Arm si posiziona come il fornitore neutrale di armi in una guerra commerciale. Unendo automotive e robotica, l’azienda ammette implicitamente che un’auto a guida autonoma e un robot industriale sono la stessa cosa: computer su ruote (o gambe) pieni di sensori che devono prendere decisioni in millisecondi.
Ma qui sorge il problema strutturale. Se l’architettura di base è la stessa, ereditiamo nel mondo della robotica gli stessi problemi di sicurezza informatica che affliggono le auto connesse?
Un bug in un server cloud fa cadere un sito web; un bug in un robot “fisico” che condivide lo spazio con i lavoratori ha conseguenze ben diverse.
I rischi invisibili di un mondo mappato
L’aspetto più inquietante, tuttavia, non è quello lavorativo, ma quello della privacy.
L’IA Fisica richiede, per definizione, una conoscenza totale dell’ambiente circostante. Per muoversi in un magazzino, in una strada o in una casa, questi dispositivi devono mappare costantemente lo spazio, riconoscere volti, tracciare movimenti e prevedere comportamenti.
Stiamo parlando di una rete di sorveglianza mobile, decentralizzata e onnipresente.
Mentre il CEO Rene Haas celebra l’uscita dell’IA dai data center, noi dovremmo chiederci dove finiscono i dati raccolti da questi nuovi “agenti fisici”.
L’IA fisica porterà l’intelligenza artificiale oltre i data center e gli smartphone, nel mondo reale dei robot e delle macchine intelligenti.
— Rene Haas, CEO di Arm Holdings
“Oltre i data center” è una frase che dovrebbe far suonare un allarme rosso negli uffici di ogni garante della privacy europeo.
Finché l’IA resta nel cloud, abbiamo una parvenza di controllo sugli input che le forniamo. Ma quando l’IA ha occhi e orecchie nel mondo fisico, il concetto di consenso informato — pilastro del GDPR — rischia di sgretolarsi.
Come si nega il consenso a un robot di servizio che passa in un corridoio mappando l’ambiente?
Come ci si assicura che i dati biometrici elaborati dai chip ad alta efficienza di Arm non vengano utilizzati per profilare i dipendenti o i cittadini in modi che oggi nemmeno immaginiamo?
Inoltre, c’è la questione della responsabilità. Arm fornisce il design del chip, qualcun altro lo produce, un’altra azienda ci costruisce sopra il software e una quarta gestisce il robot.
In questa catena di fornitura frammentata, chi risponde di una violazione della privacy o di un incidente fisico?
La strategia di Arm di “lavorare con tutti” è perfetta per i profitti, ma disastrosa per l’accountability. Diluisce le responsabilità in un ecosistema così complesso che, in caso di problemi, sarà impossibile puntare il dito contro un singolo colpevole.
Nonostante l’entusiasmo di facciata, non tutti sono convinti che questa rivoluzione sia imminente o redditizia quanto promesso. Mentre Arm punta tutto su questa convergenza, gli analisti di Wall Street mantengono uno sguardo scettico sulla reale affidabilità dei software e sulla capacità del mercato di assorbire questi costi.
C’è il rischio concreto che stiamo assistendo all’ennesima bolla speculativa, dove si vendono picconi (i chip di Arm) per una corsa all’oro (la robotica umanoide di massa) che potrebbe non materializzarsi mai nei termini previsti.
Chi controlla l’interruttore?
La fusione tra automotive e robotica sotto l’ombrello della “Physical AI” rivela infine una verità scomoda: le Big Tech stanno cercando di standardizzare il mondo fisico con la stessa aggressività con cui hanno standardizzato il web.
Arm, con la sua posizione dominante, rischia di diventare il collo di bottiglia dell’innovazione fisica. Se i protocolli di sicurezza e di gestione dei dati sono decisi a livello di architettura del processore, le scelte etiche vengono fatte a monte, lontano dal controllo democratico e normativo.
Drew Henry sostiene che le nuove soluzioni potrebbero avere un impatto considerevole sul prodotto interno lordo globale, ma omette di specificare come verrà distribuita questa ricchezza.
Se la storia del digitale ci ha insegnato qualcosa, è che l’efficienza tecnologica tende a concentrare i profitti nelle mani di chi detiene l’infrastruttura, lasciando alla società il compito di gestire le esternalità negative, dalla disoccupazione tecnologica alla perdita di privacy.
Siamo di fronte al tentativo di trasformare la realtà tangibile in una nuova piattaforma software, dove ogni movimento è un dato, ogni azione è ottimizzabile e ogni spazio è monitorato.
La “Physical AI” non è solo un avanzamento tecnico; è un’espansione coloniale del digitale nel nostro spazio vitale.
E la domanda che dovremmo porci non è se questi robot funzioneranno, ma a chi renderanno conto una volta accesi.
Se l’architettura del mondo fisico viene disegnata da chi ha come unico obiettivo la massimizzazione delle licenze IP, possiamo davvero fidarci che la nostra sicurezza — e la nostra libertà — siano incluse nel design?