OpenAI aggiorna ChatGPT: ricerca professionale GPT-5.2, report e fonti mirate.
L’integrazione di GPT-5.2 e la possibilità di indirizzare la ricerca verso fonti certificate lo trasformano in uno strumento professionale di knowledge work, ridefinendo la sua filosofia d’uso.
Da ieri, ChatGPT non è più solo un chatbot con cui conversare. Con l’aggiornamento annunciato il 10 febbraio 2026, lo strumento di Ricerca Approfondita (Deep Research) della piattaforma è stato potenziato e ridefinito, diventando un motore di ricerca e analisi documentale a sé stante.
Al centro c’è l’integrazione di GPT-5.2, il modello di punta di OpenAI rilasciato lo scorso dicembre, ma l’aggiornamento più significativo è forse quello che passa in secondo piano: la possibilità per l’utente di indirizzare la ricerca esclusivamente verso siti web o applicazioni specifiche, trasformando l’intelligenza artificiale da esploratore generico del web in un ricercatore specializzato con fonti certificate.
Un cambiamento che non riguarda solo l’interfaccia, ma la filosofia stessa del prodotto: da assistente conversazionale a strumento professionale di knowledge work, con tutto ciò che ne consegna in termini di affidabilità, controllo e, inevitabilmente, di responsabilità.
GPT-5.2 ha sbloccato un cambiamento architetturale completo per noi. Abbiamo compresso un fragile sistema multi-agente in un singolo mega-agente con oltre 20 strumenti.
— Isa Fulford, a capo del team Deep Research di OpenAI
La ricerca diventa un report interattivo
Fino a ieri, la funzione Deep Research di ChatGPT produceva un flusso di testo in risposta a una domanda complessa, citando le fonti man mano che le recuperava dal web. Con l’aggiornamento, il risultato finale si trasforma in un vero e proprio documento strutturato, visualizzabile in una finestra a schermo intero dedicata.
Non è una differenza solo estetica.
Il report generato da GPT-5.2 include un indice interattivo per navigare rapidamente tra le sezioni, un elenco chiaro delle referenze citate e la possibilità di esportare il tutto in formati standard come Markdown, PDF o Word. È la formalizzazione dell’output dell’IA in un artefatto digitale riutilizzabile, pensato per essere condiviso, archiviato o inserito in un flusso di lavoro professionale.
Dietro questa presentazione ordinata, però, c’è un lavoro di orchestrazione tecnica notevole. GPT-5.2 non è un semplice upgrade incrementale. Il modello introduce tre modalità di ragionamento adattivo – “Instant” per risposte veloci, “Thinking” per analisi approfondite e “Pro” per compiti di ricerca di alto livello – che allocano dinamicamente le risorse computazionali in base alla complessità della query.
Per una ricerca approfondita, è la modalità “Pro” a entrare in gioco, impiegando da due a cinque minuti di “pensiero” per analizzare, incrociare fonti e sintetizzare informazioni. La finestra di contesto di 400.000 token permette di ingerire l’equivalente di migliaia di pagine di documentazione o interi codebase software, mentre il limite di output di 128.000 token consente di generare rapporti estremamente dettagliati in un’unica passata.
OpenAI dichiara che, su un set interno di query, GPT-5.2 Thinking riduce le allucinazioni di circa il 30% rispetto al predecessore GPT-5.1, un dato cruciale quando si tratta di produrre analisi credibili.
Il controllo sulle fonti: pregio, limite e strategia
La novità più discussa dagli addetti ai lavori è la possibilità di “focalizzare” la ricerca. L’utente può ora specificare a ChatGPT di attingere materiale solo da determinati domini web o da app collegate (come Google Drive o SharePoint), escludendo di fatto il resto del web aperto.
Per un analista finanziario, significa poter chiedere un report basato esclusivamente sui comunicati stampa di Consob e Borsa Italiana. Per un ricercatore medico, limitare la ricerca a PubMed e alle riviste accreditate.
Questo livello di controllo risponde a una delle critiche più fondate all’uso dell’IA per la ricerca: l’inaffidabilità intrinseca delle fonti sul web aperto e la difficoltà per l’utente di verificarle a ritroso.
Tecnicamente, però, questo “search within a website” non funziona come un motore di ricerca tradizionale che indicizza tutto il web. ChatGPT si appoggia a un indice preesistente e a partnership, come quella con Bing di Microsoft, per l’accesso alle informazioni in tempo reale. Se un sito non è già indicizzato o presenta contenuti con una struttura complessa (molto JavaScript, formati non standard), l’IA potrebbe non riuscire a estrarre e citare correttamente le informazioni, anche se sono presenti.
Non è una ricerca full-text sul sito vivo, ma una interrogazione su una sua rappresentazione già processata e immagazzinata.
Questo crea un paradosso: la funzione promette precisione attraverso la limitazione, ma la sua efficacia è vincolata alla qualità e alla completezza dell’indicizzazione pregressa, un processo opaco gestito da OpenAI e dai suoi partner.
GPT‑5.2 è qui ed è il miglior modello disponibile per il lavoro professionale quotidiano.
— Dichiarazione di OpenAI nell’annuncio di GPT-5.2
La professionalizzazione a pagamento e il futuro della ricerca
L’aggiornamento di Deep Research non arriva da solo. È parte di una riorganizzazione più ampia della strategia commerciale di OpenAI, che ha recentemente introdotto un nuovo piano di abbonamento, ChatGPT Go, a 8 dollari al mese. Il potenziamento con GPT-5.2 è riservato, almeno nella fase iniziale, agli utenti Plus (20 dollari/mese) e Pro (200 dollari/mese). Il piano Pro sblocca l’accesso alla modalità di ragionamento “Pro” e a limiti di utilizzo molto più alti.
La messa a punto di uno strumento così sofisticato e costoso in termini computazionali (l’API di GPT-5.2 Pro costa 168 dollari per ogni milione di token in output) segna una direzione precisa: ChatGPT si specializza sempre di più come piattaforma per professionisti e aziende, lasciando alla versione gratuita e a quella economica Go un ruolo più basilare e, come annunciato, potenzialmente supportato dalla pubblicità.
Questa mossa solleva interrogativi sul futuro della ricerca digitale accessibile.
Da un lato, strumenti come Deep Research potrebbero democratizzare l’accesso ad analisi complesse, prima appannaggio di consulenti o di team specializzati. Dall’altro, mettendo le capacità più avanzate dietro un paywall consistente, si rischia di creare un divario tra chi può permettersi un “super-assistente” di ricerca e chi no.
Inoltre, la capacità di concentrare la ricerca su fonti “autorevoli” scelte dall’utente introduce un nuovo livello di soggettività e potenziale bias.
Chi decide quali sono le fonti attendibili? L’utente, certo.
Ma in uno scenario in cui l’IA sintetizza e presenta la “verità” basandosi su un insieme predefinito di siti, il rischio di creare camere dell’eco digitali e di rinforzare narrative selettive diventa concreto.
OpenAI, con questo aggiornamento, non ha solo migliorato uno strumento. Ha implicitamente riconosciuto che il futuro dell’IA non è nella conversazione generalista, ma nella specializzazione, nel controllo e nell’integrazione nei flussi di lavoro professionali. Ha spostato il valore dalla capacità di generare testo plausibile a quella di produrre documenti strutturati, verificabili e basati su fonti identificabili.
Una transizione tecnicamente elegante, ma che trasforma ChatGPT da compagno di chiacchiere digitale in un operatore della conoscenza.
La domanda che rimane è se, in questo processo di professionalizzazione, l’accesso alla conoscenza sintetizzata dall’IA diventerà un bene comune o un privilegio per pochi, e chi avrà la responsabilità di tracciare il confine tra ricerca approfondita e visione parziale del mondo.