OpenAI ha reso l’AI utile e a buon mercato
OpenAI lancia GPT-5.4 mini e Nano, AI efficiente ed economica per sviluppatori. DeepMind teorizza l'AGI mentre Nvidia affronta la sicurezza multimodale.
La ricerca si concentra su dieci abilità cognitive fondamentali, mentre i modelli pratici migliorano già il lavoro quotidiano
Stai scrivendo un pezzo di codice e ti blocchi su un bug. Invece di cercare per ore su Stack Overflow, chiedi all’assistente AI integrato nel tuo editor. In pochi secondi, ti suggerisce la correzione e spiega il perché. Questa non è fantascienza: è quello che fa oggi il nuovo GPT-5.4 mini per migliaia di sviluppatori.
Mentre usiamo questi strumenti per compiti concreti, i laboratori di ricerca dibattono su come misurare il cammino verso un’intelligenza artificiale generale. E qui emerge una divergenza affascinante, tra chi costruisce strade percorribili oggi e chi disegna mappe per un continente lontano.
L’AI che già risolve problemi (e costa poco)
OpenAI ha appena lanciato due modelli efficienti, il GPT-5.4 mini e il Nano. Non sono mostri da trilioni di parametri, ma sono ottimizzati per essere veloci, precisi e, soprattutto, economici. Il mini avanza in codifica e ragionamento, e in un benchmark impegnativo come Terminal-Bench 2.0 raggiunge il 60.0%. Un salto notevole per un modello leggero.
La vera rivoluzione, però, sta nel prezzo. La versione Nano costa $0,20 per milione di token in input. Tradotto: puoi integrare un’AI di alto livello senza bancarottare.
È l’innovazione che conta per le aziende e i creatori: un’AI utile, qui e ora. Ma mentre l’AI diventa un’utility, c’è chi guarda molto più in alto.
Il lungo viaggio verso l’AGI: una mappa cognitiva
Dall’altra parte, Google DeepMind pubblica un articolo sul quadro AGI. Non è un prodotto, ma una teoria. I ricercatori hanno identificato dieci abilità cognitive ipotizzate come fondamentali, dalla percezione alla cognizione sociale. Per misurare i progressi, propongono un protocollo di valutazione in tre fasi.
Per stimolare la comunità, hanno anche lanciato un hackathon da 200.000 dollari. L’obiettivo è applicare questo framework a sistemi esistenti. Un investimento nobile, che però solleva una domanda: queste metriche astratte catturano davvero l’utilità pratica di un’AI? Nel frattempo, c’è chi lavora su un problema molto concreto: tenerci al sicuro.
La sicurezza diventa multimodale (e open source)
Mentre si discute di AGI, la moderazione dei contenuti deve funzionare oggi. Nvidia ha rilasciato Nemotron 3 Content Safety, un modello costruito su Gemma-3 che analizza testo e immagini per individuare contenuti dannosi. È un esempio di come l’AI specializzata e spesso open source stia risolvendo problemi reali di sicurezza.
Questo ci ricorda che la strada verso un’AI affidabile non passa solo per teorie cognitive, ma per strumenti concreti che filtrano ciò che vediamo online ogni giorno.
La corsa tra teoria e pratica si intensifica. DeepMind ci chiede di guardare lontano, verso un’AGI che forse un giorno emulerà la mente umana. OpenAI e altri sfornano modelli che oggi migliorano il nostro lavoro. La domanda per noi utenti è semplice: cosa preferiamo? Un futuro lontano di intelligenza generale o un presente fatto di assistenti efficienti e a buon mercato?
Tenete d’occhio entrambi gli approcci. Le teorie cognitive potrebbero guidare la prossima svolta, ma nel frattempo, le AI utili sono già nelle vostre tastiere.