Microsoft Work IQ: la sorveglianza aziendale arriva al terminale
Con “Work IQ”, l’IA di Microsoft scansiona email e documenti aziendali direttamente dal terminale, sollevando dubbi sulla privacy e sul controllo dei dati.
Immaginate l’ultimo rifugio sacro dello sviluppatore: il terminale. Schermo nero, cursore lampeggiante, puro testo. Un luogo di silenzio digitale dove il codice viene creato lontano dal chiasso delle riunioni su Teams, dalle notifiche di Outlook e dal caos burocratico di SharePoint.
Ecco, dimenticatevelo.
Quel silenzio è appena stato venduto al miglior offerente.
Siamo nel gennaio 2026 e Microsoft ha deciso che il vostro terminale era troppo vuoto, troppo privato. Con l’introduzione di “Work IQ” nella Command Line Interface (CLI) di GitHub Copilot, l’azienda di Redmond non si sta limitando a offrirvi un assistente più intelligente: sta abbattendo l’ultima parete che separava la scrittura del software dalla sorveglianza aziendale onnipresente.
La promessa è la solita, seducente e luccicante: “efficienza”. Ma se grattiamo via la patina di marketing, quello che emerge è un ecosistema progettato per divorare ogni frammento di contesto lavorativo e trasformarlo in dipendenza tecnologica.
La mossa è astuta, quasi brillante nella sua pervasività. Non si tratta più solo di suggerire una funzione in Python o di correggere un bug. Si tratta di permettere all’intelligenza artificiale di leggere le vostre email, scansionare i vostri documenti su OneDrive e analizzare le chat aziendali per “aiutarvi” a scrivere codice.
Satya Nadella, CEO di Microsoft, lo descrive con l’entusiasmo tipico di chi ha appena trovato un nuovo giacimento petrolifero: i vostri dati.
Work IQ è in effetti quella relazione manifestata in modo tale che l’IA possa trarne vantaggio.
— Satya Nadella, Presidente e CEO di Microsoft
La frase, tradotta dal “corporate-speak”, è agghiacciante: la vostra rete di relazioni e interazioni umane non è più un processo sociale, è una risorsa mineraria da estrarre.
E questo solleva immediatamente una domanda che nessuno sembra voler fare ad alta voce: chi ha dato il consenso affinché ogni conversazione informale tra colleghi diventi “contesto” per un algoritmo?
Il cavallo di Troia nel terminale
Per capire la gravità della situazione, bisogna unire i puntini degli ultimi due anni. La strategia di Microsoft non è mai stata improvvisata. Già nell’ottobre 2024, l’annuncio di un GitHub Copilot multi-modello durante l’evento Universe aveva segnato il passaggio da un semplice assistente di completamento del codice a una piattaforma onnivora, capace di integrare modelli di terze parti come quelli di Anthropic e Google. Sembrava una mossa all’insegna dell’apertura, ma in realtà era la preparazione del terreno.
Una volta abituati gli sviluppatori a dipendere dall’IA per la sintassi, il passo successivo è stato renderli dipendenti dall’IA per il contesto. Con l’integrazione di Work IQ, la CLI di GitHub smette di essere uno strumento passivo. Diventa un agente attivo che “sa” cosa avete detto al vostro project manager tre giorni fa.
L’obiettivo non è aiutarvi a programmare meglio, ma legare indissolubilmente il codice che scrivete all’infrastruttura Microsoft.
Se il vostro assistente di codice funziona solo perché ha accesso a tutto il vostro storico aziendale su Microsoft 365, provate a immaginare la difficoltà di migrare verso un altro fornitore cloud o un altro repository. È il vendor lock-in definitivo, travestito da comodità.
E mentre Satya Nadella ristruttura l’azienda per posizionare GitHub Copilot al centro della piattaforma AI, la distinzione tra “strumento di sviluppo” e “strumento di monitoraggio” diventa sempre più sfumata.
Ma c’è un aspetto ancora più insidioso. Inserendo il contesto aziendale direttamente nel flusso di lavoro, si crea una scatola nera dove la responsabilità si diluisce. Se l’IA suggerisce una modifica al codice basandosi su una vecchia specifica trovata in una email mal interpretata, di chi è la colpa se il software fallisce?
Dello sviluppatore che ha cliccato “accetta”? O dell’algoritmo che ha deciso arbitrariamente quale “verità” aziendale fosse rilevante in quel momento?
L’illusione dell’efficienza e il prezzo della sorveglianza
L’entusiasmo di partner come EY o gli analisti di RedMonk, che lodano la capacità di “delegare compiti di implementazione”, nasconde una realtà ben più cruda sui modelli di lavoro futuri. L’idea è quella di trasformare lo sviluppatore da artigiano del codice a supervisore di agenti autonomi.
E costruirete tutti questi agenti personalizzati… Questa è la mia repository GitHub, e l’ho chiamata DPR. E a proposito, tutto questo sta arrivando su Copilot.
— Satya Nadella, Presidente e CEO di Microsoft
La visione è chiara: agenti personalizzati che operano costantemente. Ma questi agenti, per funzionare, devono nutrirsi di dati. Dati freschi, costanti, granulari.
Qui entriamo in un campo minato normativo. Il GDPR, con i suoi principi di minimizzazione dei dati (articolo 5), fa a pugni con la logica di questi modelli, che invece richiedono la massimizzazione del contesto.
Quando Microsoft ha lanciato l’agente di codifica asincrono per GitHub Copilot, l’ha venduto come un modo per liberare la creatività umana. Ma se l’agente deve accedere a “tutto il contesto lavorativo” per operare, stiamo di fatto autorizzando una sorveglianza pervasiva in nome della produttività.
Ogni pull request, ogni commento, ogni chat diventa carburante.
E dove finiscono questi dati? Vengono usati per addestrare ulteriormente il modello?
Microsoft giura di proteggere la privacy dei tenant, ma la storia delle Big Tech è lastricata di promesse infrante e “impostazioni predefinite” che favoriscono la raccolta dati rispetto alla riservatezza.
Chi possiede la “conoscenza aziendale”?
Il vero affare qui non è vendere licenze software. È il monopolio sulla conoscenza aziendale. Se Work IQ diventa il filtro attraverso cui uno sviluppatore comprende il proprio progetto, Microsoft diventa di fatto il proprietario della mappa cognitiva dell’azienda.
Senza l’IA che “unisce i puntini” tra file sparsi e codice, il nuovo sviluppatore assunto tra due anni potrebbe trovarsi incapace di lavorare. Non perché non sappia programmare, ma perché la complessità del sistema è stata gestita — e nascosta — dall’IA stessa. Si crea una dipendenza cognitiva che rende l’azienda ostaggio del fornitore tecnologico.
Inoltre, c’è il rischio di un bias di conferma automatizzato. Se l’IA pesca il contesto dalle decisioni passate (documentate in vecchie email o ticket), tenderà a replicare gli errori strutturali o le cattive pratiche dell’organizzazione, cristallizzandoli in nuovo codice.
Invece di innovare, si rischia di automatizzare la mediocrità aziendale, il tutto alla velocità della luce.
Siamo di fronte a un paradosso: ci viene venduta un’intelligenza “lavorativa” (Work IQ) che in realtà ci espropria della comprensione profonda del nostro lavoro.
Il terminale non è più un foglio bianco. È diventato un modulo di raccolta dati.
E la domanda che dovremmo porci non è quanto tempo risparmieremo, ma quale parte della nostra autonomia professionale stiamo barattando per non dover cercare manualmente un file.