Microsoft elevate for educators: il cavallo di troia dell’ia nella scuola?
Microsoft “eleva” l’istruzione offrendo strumenti di intelligenza artificiale gratuiti, ma dietro la filantropia si cela una strategia per monopolizzare il settore e i dati degli studenti.
C’è un vecchio adagio nel mondo della tecnologia che non passa mai di moda: se il prodotto è gratis, il prodotto sei tu.
O, nel caso dell’ultimo annuncio arrivato da Redmond ieri, 15 gennaio 2026, il prodotto sono i vostri studenti, i loro dati comportamentali e il futuro stesso della didattica pubblica.
Microsoft ha svelato con grande pompa magna “Microsoft Elevate for Educators”, un programma che promette di “democratizzare” l’accesso all’intelligenza artificiale nelle scuole, offrendo formazione gratuita e nuovi strumenti integrati in Copilot.
Sulla carta, sembra l’ennesimo atto di filantropia digitale; grattando via la patina di marketing, emerge una strategia di accaparramento (vendor lock-in) talmente sfacciata da far impallidire le guerre dei browser degli anni Novanta.
L’azienda, che oggi viaggia su una capitalizzazione di mercato di 3,41 trilioni di dollari, non ha certo bisogno di fare beneficenza per sentirsi meglio. L’obiettivo dichiarato è fornire agli insegnanti uno strumento chiamato “Teach” all’interno dell’app Microsoft 365 Copilot, capace di pianificare lezioni, personalizzare i contenuti e creare valutazioni.
Tuttavia, dietro la promessa di alleggerire il carico burocratico dei docenti, si nasconde una domanda che pochi osano fare: a chi appartiene la pedagogia quando viene delegata a un algoritmo proprietario?
L’educazione come servizio (in abbonamento)
Il tempismo è perfetto, quasi sospetto. Mentre le scuole di tutto il mondo annaspano nel tentativo di capire come regolamentare l’uso dell’IA in classe, Microsoft si presenta non solo come fornitore di tecnologia, ma come ente certificatore delle competenze.
Attraverso partnership con enti come ISTE e ASCD, il colosso tecnologico sta di fatto scrivendo il manuale su cosa significhi essere un insegnante “competente” nell’era digitale.
E indovinate un po’?
Essere competenti, secondo questi nuovi standard, significa saper usare i prodotti Microsoft.
Justin Spelhaug, il presidente di Microsoft Elevate, ha confezionato il messaggio con la solita retorica rassicurante sulla responsabilità e sulla fiducia, parole chiave che ormai fungono da calmante per le autorità di regolamentazione.
Poiché l’IA diventa parte dell’apprendimento quotidiano, la nostra responsabilità è garantire che supporti gli educatori e guadagni la fiducia degli studenti e delle famiglie. Per Microsoft, ciò significa costruire soluzioni basate sull’IA responsabile per l’istruzione nell’app Microsoft 365 Copilot, sicure e fondate sui valori che rendono l’apprendimento umano, assicurando al contempo che i nostri educatori e le scuole abbiano le competenze e le risorse […] per utilizzare questi strumenti in modo efficace.
— Justin Spelhaug, Presidente di Microsoft Elevate
È interessante notare come la “fiducia” venga invocata proprio nel momento in cui Microsoft ha lanciato il programma Elevate for Educators insieme a nuovi strumenti di intelligenza artificiale che si insediano profondamente nel flusso di lavoro quotidiano delle scuole.
La funzione “Teach”, accessibile senza costi aggiuntivi per chi ha già licenze Education, non è un regalo: è un cavallo di Troia.
Una volta che un distretto scolastico o un ministero dell’istruzione integra la pianificazione delle lezioni e la valutazione degli studenti all’interno dell’ecosistema Copilot, i costi di uscita (switching costs) diventano astronomici. Non si tratta più di cambiare fornitore di software, ma di riaddestrare l’intero corpo docente che, nel frattempo, avrà disimparato a progettare didattica senza l’assistente virtuale.
Ma il problema non è solo la dipendenza tecnologica. È la standardizzazione forzata del pensiero.
Se milioni di insegnanti iniziano a usare gli stessi prompt e gli stessi modelli linguistici per generare lezioni di storia o esercizi di matematica, stiamo implicitamente accettando che un’azienda privata californiana decida quale sia la “verità” storica o il metodo pedagogico più efficace, bypassando decenni di ricerca accademica e autonomia scolastica.
Il miraggio delle competenze e la fame di dati
L’iniziativa non si limita al software. Il programma include l'”AI Skills Navigator”, una piattaforma che offre corsi, simulazioni e badge digitali.
Microsoft presenta tutto questo come un imperativo morale per colmare il divario di competenze, inserendo il progetto in un contesto macroscopico dove l’iniziativa più ampia Microsoft Elevate punta a supportare oltre 20 milioni di persone nell’acquisizione di competenze AI nei prossimi due anni.
C’è un’ironia sottile nel chiamare “competenze” (skills) la capacità di operare su piattaforme che sono progettate per rimuovere la necessità di competenze umane.
Insegnare a un docente come premere un pulsante per “generare una verifica personalizzata” non è elevare la sua professionalità; è trasformarlo in un operatore di terminale. Ma il vero tesoro per Microsoft non sono le quote di abbonamento, bensì i dati.
Ogni volta che un insegnante utilizza Copilot per adattare una lezione a uno studente con bisogni speciali, o per correggere un compito, l’IA impara. Ingerisce dati sensibili su come gli studenti apprendono, dove sbagliano e come reagiscono agli stimoli.
Nonostante le rassicurazioni sulla “IA responsabile”, la realtà tecnica è opaca. In Europa, il GDPR (Regolamento Generale sulla Protezione dei Dati) impone limiti severi sul trattamento dei dati dei minori e sulla profilazione automatizzata (Articolo 22).
Ci troviamo di fronte a un paradosso normativo.
Le scuole sono responsabili del trattamento dei dati, ma utilizzano strumenti di cui non possono verificare il funzionamento interno. Se l’algoritmo di Microsoft suggerisce un percorso di recupero per uno studente basandosi su bias statistici (magari penalizzando studenti non madrelingua o di determinati background socio-economici), di chi è la colpa?
Dell’insegnante che ha cliccato “accetta suggerimento” o della scatola nera che ha generato l’output? La storia recente delle Big Tech suggerisce che la responsabilità ricadrà sempre sull’utente finale, mentre i profitti dei dati aggregati resteranno all’azienda.
Chi controlla il controllore?
L’aspetto più inquietante di questo annuncio è l’assenza quasi totale di voci critiche nel dibattito pubblico.
Le istituzioni scolastiche, affamate di risorse e terrorizzate dall’idea di rimanere indietro, accolgono questi strumenti come salvagenti. Non si domandano se l’automazione della valutazione possa violare il diritto dello studente a essere giudicato da un essere umano, né se l’uso massiccio di energia per alimentare questi modelli (un tema che le Big Tech amano nascondere sotto il tappeto della “sostenibilità”) sia compatibile con l’educazione ambientale che si cerca di impartire nelle stesse aule.
Inoltre, la creazione di “comunità globali” gestite da Microsoft per gli educatori serve a creare una camera dell’eco in cui le migliori pratiche sono, guarda caso, quelle che richiedono l’uso più intensivo dei prodotti dell’azienda. È un ecosistema chiuso che si auto-alimenta, escludendo alternative open source o approcci pedagogici che rifiutano la datificazione dell’esperienza scolastica.
Siamo di fronte a una colonizzazione silenziosa.
Mentre discutiamo se vietare o meno i cellulari in classe, le infrastrutture stesse del pensiero critico vengono appaltate.
La comodità di avere una lezione pronta in tre secondi vale la cessione della sovranità educativa?
Forse, tra qualche anno, chiederemo a Copilot di scriverci anche la risposta a questa domanda, sperando che l’algoritmo sia abbastanza gentile da includere tra le opzioni anche il dissenso.