Openai sacrifica la qualità di chatgpt per la superintelligenza scientifica

Openai sacrifica la qualità di chatgpt per la superintelligenza scientifica

OpenAI sacrifica la qualità della scrittura di ChatGPT per la “superintelligenza scientifica”, svelando un cambio di priorità a favore delle aziende e a discapito dell’utente comune

C’è qualcosa di insolitamente candido, e forse un po’ inquietante, nell’ammettere di aver rotto il giocattolo preferito di mezzo mondo proprio mentre si cerca di venderne la versione Pro. Sam Altman, CEO di OpenAI, ha recentemente riconosciuto quello che molti utenti sospettavano da settimane: con il lancio di GPT-5.2, l’azienda ha sbagliato la qualità della scrittura.

Se avete notato che l’ultima incarnazione di ChatGPT sembra aver perso il suo tocco shakespeariano per adottare la freddezza burocratica di un manuale di istruzioni per lavatrici, non siete soli.

E, soprattutto, non è un caso.

Dietro questa ammissione di colpa non c’è solo un errore tecnico, ma un cambio di paradigma brutale che rivela le vere priorità della Silicon Valley. Siamo al 27 gennaio 2026, e la luna di miele con l’AI generativa è ufficialmente finita.

Quello che resta è una lotta di potere dove l’utente medio — quello che usa l’AI per riassumere email o scrivere bozze — è diventato sacrificabile sull’altare della “superintelligenza scientifica”. Ma andiamo con ordine, perché unendo i puntini emerge un quadro ben diverso da quello dipinto nei comunicati stampa patinati.

L’ossessione per la scienza (e il disprezzo per la prosa)

Quando OpenAI ha rilasciato GPT-5.2 a dicembre, i trionfalismi si sprecavano. I benchmark erano stellari: capacità di ragionamento matematico alle stelle, risoluzione di problemi complessi mai vista prima. Eppure, quasi subito, i forum si sono riempiti di lamentele: il modello era ripetitivo, prolisso, privo di sfumature stilistiche.

Era, in una parola, noioso.

La risposta di Altman a queste critiche è stata rivelatrice, tradendo una certa insofferenza verso le esigenze del pubblico di massa.

La maggior parte delle persone non è composta da ricercatori di fisica.

— Sam Altman, CEO di OpenAI

Questa frase, pronunciata quasi con stizza, è la chiave di volta. OpenAI ha deciso deliberatamente di sacrificare la fluidità linguistica per massimizzare il ragionamento. Hanno addestrato il modello a pensare come un ingegnere, dimenticando che deve parlare con degli esseri umani.

Non è un bug, è una feature.

Ufficialmente, OpenAI ha presentato GPT-5.2 promettendo una riduzione degli errori nelle risposte fattuali, vantando un tasso di successo del 93,9% nelle risposte con ricerca attiva. Un dato impressionante per un laboratorio farmaceutico o un dipartimento di fisica, certo. Ma per chi usa lo strumento per la comunicazione quotidiana, il risultato è un interlocutore che sa risolvere equazioni differenziali ma non sa scrivere una lettera di auguri convincente.

Il problema è che nessuno ci ha chiesto se volevamo questo scambio. Abbiamo barattato la creatività con l’accuratezza tecnica senza leggere le clausole in piccolo. E qui sorge la domanda provocatoria: se il prodotto peggiora per l’utente comune ma migliora per le grandi aziende che necessitano di calcolo scientifico, chi è il vero cliente di OpenAI?

Spoiler: non siamo noi che paghiamo l’abbonamento mensile.

Codice rosso e la corsa al ribasso

Per capire perché GPT-5.2 sia arrivato sul mercato con questi difetti evidenti di “personalità”, bisogna guardare nello specchietto retrovisore.

La concorrenza.

L’ombra di Google e del suo Gemini 3 ha scatenato il panico a San Francisco. Non è un mistero che all’interno di OpenAI sia scattato un codice rosso. La fretta è cattiva consigliera, e nel software è spesso madre di bug disastrosi. Per battere Google sul tempo e sui benchmark di ragionamento puro (come l’ARC-AGI-2, dove GPT-5.2 “Thinking” distacca nettamente Gemini), si è corso ai ripari, ottimizzando il modello per metriche che fanno bella figura sui grafici degli investitori, a discapito dell’esperienza utente.

Infatti, il lancio accelerato è una risposta diretta alla pressione competitiva di Google, con dirigenti come Fidji Simo che tentano di contestualizzare il rilascio come un processo pianificato da mesi. La realtà suggerisce altro: un prodotto spinto fuori dalla porta per mantenere la supremazia percepita, anche se “zoppicante” in aree fondamentali come la generazione di testo naturale.

Gemini 3 ha avuto un impatto minore sui nostri indicatori rispetto a quanto temevamo.

— Sam Altman, CEO di OpenAI

Questa ammissione suona come un sospiro di sollievo, ma nasconde un cinismo di fondo. Finché gli “indicatori” (leggi: abbonamenti e quota di mercato) reggono, la qualità del prodotto può passare in secondo piano. È la logica del minimum viable product applicata all’intelligenza artificiale globale: se è abbastanza buono da non farvi disdire, va bene così.

Il soffitto di vetro dei dati (e chi paga il conto)

C’è un aspetto ancora più tecnico e preoccupante che emerge dalle pieghe di questa vicenda, qualcosa che va oltre la semplice faida aziendale. I ricercatori stanno iniziando a sussurrare che l’approccio “più dati, più potenza” stia raggiungendo un limite fisico.

Jiaxuan You, ricercatore nel campo, ha evidenziato come la capacità di un singolo modello si stia saturando. Non basta più gettare nell’impastatrice tutto il testo di internet per ottenere un modello più intelligente. Per fare il salto di qualità nel ragionamento (quello che serve per giustificare le valutazioni miliardarie), bisogna specializzare i modelli, renderli più rigidi, più schematici.

Più “robotici”, appunto.

Questo spiega perché test indipendenti confermano prestazioni superiori nella risoluzione di problemi ingegneristici, mentre la qualità della prosa crolla. Stiamo assistendo alla biforcazione dell’AI: da una parte strumenti iper-specializzati per l’industria (che pagano profumatamente), dall’altra chatbot generalisti sempre più mediocri per la massa, alimentati magari dagli “scarti” di calcolo o ottimizzati per costare meno in termini di inferenza.

E qui entra in gioco la privacy e il regolamento europeo AI Act. Se questi modelli vengono ottimizzati per il ragionamento scientifico, su quali dati vengono testati? E se la “creatività” viene soppressa per ridurre le allucinazioni (e quindi i rischi legali), stiamo forse andando verso un futuro in cui l’AI è un censore preventivo, incapace di uscire dai binari preimpostati per paura di violare qualche policy o generare una risposta non verificabile?

La mossa di Altman di ammettere l’errore sulla scrittura non è un atto di umiltà, ma una strategia di contenimento danni. Ci sta dicendo: “Sappiamo che non vi piace, ma questo è il futuro che abbiamo scelto perché è lì che sono i soldi”.

Le applicazioni business, l’analisi di dati finanziari, la ricerca farmaceutica: è lì che si gioca la partita del profitto. Scrivere le vostre email o i vostri post su LinkedIn è un’attività a basso valore aggiunto per loro.

Il rischio nascosto non è che l’AI diventi troppo intelligente e conquisti il mondo in stile Terminator. Il rischio, molto più banale e deprimente, è che l’AI diventi uno strumento elitario, eccezionale per le corporazioni e mediocre per i cittadini, addestrata sulle nostre interazioni ma progettata per non servirci davvero.

Siamo sicuri di voler continuare ad alimentare con i nostri dati un sistema che, dichiaratamente, non ci considera il suo pubblico di riferimento?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie