ServiceNow e OpenAI: l’AI smette di parlare e inizia a lavorare
L’integrazione di GPT-5.2 nei sistemi di ServiceNow promette di automatizzare compiti complessi, ma solleva interrogativi sull’affidabilità e la sicurezza dei dati
Se c’è una parola che ha dominato le conversazioni tecnologiche negli ultimi tre anni, è “chat”. Abbiamo chattato con i bot, chiesto riassunti di email e generato poesie discutibili.
Ma il 2026 sembra essere l’anno in cui l’industria ha deciso di smettere di chiacchierare e iniziare a lavorare sul serio.
La notizia di oggi non riguarda un nuovo generatore di immagini virali, ma qualcosa di molto più noioso e, paradossalmente, molto più impattante per la nostra vita quotidiana lavorativa: l’integrazione profonda dei modelli “di frontiera” di OpenAI nei sistemi di ServiceNow.
Per chi non lo sapesse, ServiceNow è l’equivalente digitale dell’impianto idraulico di una grande azienda. È quel software che gestisce tutto ciò che succede dietro le quinte: dalla richiesta di ferie alla riparazione di un server guasto, fino all’assunzione di nuovo personale.
Fino a ieri, l’intelligenza artificiale in questi sistemi ti suggeriva una risposta.
Da oggi, con l’arrivo di GPT-5.2 nella piattaforma, l’AI può tecnicamente eseguire il lavoro al posto tuo.
Non stiamo parlando di fantascienza, ma di una mossa calcolata che unisce la capacità di ragionamento dei nuovi modelli linguistici con la rigidità necessaria dei processi aziendali. ServiceNow e OpenAI hanno annunciato una partnership strategica pluriennale che mira a trasformare 80 miliardi di flussi di lavoro annuali.
L’obiettivo non è più aiutarti a scrivere una mail al supporto IT, ma fare in modo che l’AI capisca il problema, acceda al sistema, risolva il guasto e chiuda il ticket senza che nessun umano debba cliccare “approva”.
Quando l’ai smette di parlare e inizia a lavorare
Il termine tecnico che sentirete ripetere fino allo sfinimento quest’anno è “Agentic AI” (AI Agentica).
A differenza dei chatbot passivi che aspettano un nostro input, gli agenti sono progettati per agire in autonomia verso un obiettivo.
Immaginate di dover organizzare l’onboarding di un nuovo dipendente. Oggi, un manager umano deve coordinare HR, IT per il computer e la sicurezza per il badge.
Con l’integrazione annunciata oggi, l’agente AI riceve l’input “Mario Rossi inizia lunedì”, e autonomamente ordina il laptop corretto basandosi sul budget, crea gli account necessari e programma le sessioni di benvenuto.
Jonathan Alboum, Federal Chief Technology Officer di ServiceNow, ha spiegato questa visione con una chiarezza disarmante, sottolineando come la loro piattaforma funga da tessuto connettivo per tecnologie diverse:
Qualcosa deve tenere insieme tutto questo e ServiceNow lo fa. Quindi non importa quale sia il database, non importa dove si trovino i dati, non importa su quale cloud si operi… non importa quali modelli di IA si vogliano utilizzare. Sono tutti collegabili alla piattaforma.
— Jonathan Alboum, Federal Chief Technology Officer presso ServiceNow
Questa capacità di essere “agnostici” rispetto alla tecnologia sottostante è la vera chiave di volta. Mentre Google, Microsoft e Amazon si fanno la guerra per chi ha il modello più intelligente, ServiceNow si posiziona sopra la mischia, fornendo l’interfaccia dove il lavoro viene effettivamente svolto.
È una strategia pragmatica che piace molto agli investitori: non a caso, le azioni dell’azienda sono salite del 2,3% nelle contrattazioni pre-mercato subito dopo la diffusione delle indiscrezioni sull’accordo.
Tuttavia, c’è un rovescio della medaglia. Affidare azioni concrete a un’intelligenza artificiale richiede una fiducia cieca che molte aziende non sono ancora pronte a concedere.
Se un chatbot sbaglia una risposta, è imbarazzante; se un agente AI sbaglia un ordine di acquisto da un milione di dollari o revoca l’accesso al server sbagliato, è un disastro.
La promessa di ServiceNow è quella di fornire una “AI Control Tower”, una torre di controllo per monitorare cosa fanno questi agenti, ma la storia della tecnologia ci insegna che la complessità porta inevitabilmente a nuovi tipi di errori, spesso imprevedibili.
Il governo federale come “beta tester” di lusso
L’aspetto più affascinante di questa vicenda non riguarda però le aziende private, ma il settore pubblico.
Gli Stati Uniti stanno spingendo per un’adozione massiccia dell’AI nella pubblica amministrazione, un trend che potrebbe presto attraversare l’oceano. L’idea è quella di rendere la burocrazia “fluida” (un ossimoro, direbbero i cinici) utilizzando l’AI per gestire le immense moli di pratiche che ingolfano gli uffici governativi.
L’accordo non nasce dal nulla, ma segue un patto con la General Services Administration (GSA) per modernizzare l’infrastruttura governativa, siglato con l’intento di portare l’efficienza del settore privato negli uffici pubblici.
Josh Gruenbaum, commissario del Federal Acquisition Service della GSA, ha evidenziato come questa mossa si allinei con le direttive dell’amministrazione per un governo più snello:
Questo accordo è un logico passo successivo nella trasformazione dell’IA del governo e ci posiziona per realizzare gli obiettivi dell’amministrazione in termini di efficienza, produttività e le priorità delineate nel piano d’azione sull’IA del Presidente Trump.
— Josh Gruenbaum, Commissario del Federal Acquisition Service della GSA
L’idea di un’AI che gestisce le pratiche governative è al tempo stesso il sogno di ogni cittadino stanco delle file allo sportello e l’incubo di ogni esperto di privacy.
Integrare modelli potenti come GPT-5.2 nei database governativi significa dare a un sistema probabilistico l’accesso a dati sensibili dei cittadini.
Se da un lato l’efficienza promette di essere rivoluzionaria — pensate a rimborsi fiscali elaborati in secondi invece che mesi — dall’altro il rischio di bias algoritmici o allucinazioni su scala nazionale è un pericolo che nessuna “torre di controllo” può eliminare del tutto.
L’elefante nella stanza server
Siamo di fronte a un bivio fondamentale.
Fino a ieri, l’intelligenza artificiale generativa era uno strumento di supporto: un copilota, come amano chiamarlo nel marketing. Con l’annuncio odierno, stiamo togliendo le mani dal volante.
La tecnologia “Speech-to-speech” inclusa nell’accordo permetterà addirittura di parlare con i sistemi aziendali come si farebbe con un collega, eliminando anche la barriera della tastiera.
L’entusiasmo è giustificato: la frizione nei processi lavorativi è uno spreco di tempo colossale. Se l’AI può liberarci dalla compilazione di moduli infiniti, ben venga.
Ma c’è una sottile differenza tra automazione e autonomia. L’automazione esegue regole fisse; l’autonomia prende decisioni.
Delegare decisioni operative a un modello linguistico, per quanto avanzato come GPT-5.2, richiede una robustezza che ancora oggi vediamo solo a sprazzi.
Il mercato azionario festeggia, i dirigenti governativi promettono efficienza e i manager sognano di ridurre i costi operativi.
Ma resta da vedere cosa succederà quando il primo “agente” prenderà una decisione logicamente ineccepibile per un algoritmo, ma disastrosa per un essere umano.
Siamo pronti ad accettare che l’errore burocratico non sia più colpa di un impiegato stanco, ma di una scatola nera che nessuno sa davvero come spegnere?