Perplexity Model Council: l’AI aggrega modelli per superare i punti ciechi della ricerca
La nuova funzionalità di Perplexity intende automatizzare il confronto tra le risposte dei principali modelli di linguaggio, ma la sua implementazione solleva questioni complesse su costi e trasparenza.
Da qualche anno, quando si pone una domanda complessa a un modello di linguaggio avanzato, la risposta non è più univoca. Dipende da quale modello si interroga, dalle sue peculiarità, dal suo allenamento e dai suoi punti ciechi.
L’utente esperto, quello che ha bisogno di accuratezza e non di una semplice chiacchierata, ha imparato a fare il giro delle piattaforme: chiede a Claude, poi a GPT, infine a Gemini, e cerca di distillare una verità dalla cacofonia delle risposte.
Un processo lento, costoso e faticoso.
Ora, Perplexity – la startup che ha costruito il suo successo su un motore di ricerca conversazionale – prova a rendere quel processo automatico, e a monetizzarlo pesantemente.
Si chiama Model Council, è stato lanciato il 5 febbraio, e promette di interrogare in parallelo tre dei modelli più potenti sul mercato per poi sintetizzare una risposta unica che evidenzi accordi e disaccordi.
Un “consiglio” di intelligenze artificiali, appunto.
Ma sotto la superficie di questa elegante soluzione tecnica si nascondono domande spinose: chi paga il conto stratosferico delle API?
E soprattutto, possiamo davvero fidarci di un meta-modello che giudica gli altri?
La funzionalità, disponibile esclusivamente per gli abbonati al piano Perplexity Max al costo di 200 dollari al mese, non è un semplice aggregatore.
Il cuore del sistema è un modello sintetizzatore che, dopo aver ricevuto gli output paralleli di modelli come Claude Opus 4.6, GPT-5.2 e Gemini 3.0, li analizza, risolve i conflitti dove possibile e produce un verdetto finale.
L’interfaccia mostra all’utente una tabella chiara: qui i modelli concordano (alta confidenza), qui le loro opinioni divergono (attenzione).
L’obiettivo dichiarato è ridurre i “punti ciechi” dei singoli sistemi e trasformare il cross-checking da pratica manuale d’élite in un comportamento di default della piattaforma. Secondo la documentazione ufficiale, il sistema è pensato per scenari in cui il costo di un errore è elevato, come la ricerca d’investimento, le decisioni complesse o la verifica di informazioni delicate.
L’eleganza tecnica di un ensemble di giganti
Dal punto di vista ingegneristico, Model Council è un’applicazione su larga scala e in tempo reale di una tecnica classica del machine learning: l’ensemble learning, e in particolare lo stacking.
Il concetto, formalizzato negli anni ’90, prevede di combinare le previsioni di diversi modelli “base” attraverso un meta-modello che impara a fondere i loro output per ottenere una precisione superiore.
La chiave è la diversità: i modelli devono sbagliare in modi diversi.
Perplexity ha semplicemente preso questo principio e lo ha applicato non a piccoli classificatori, ma ai “frontier model” più costosi e complessi del mondo, ciascuno con finestre contestuali che raggiungono ormai il milione di token e capacità di ragionamento specialistico.
Il vero lavoro sporco, però, lo fa il sintetizzatore.
Come decide tra due risposte in conflitto?
I dettagli implementativi non sono pubblici, ma è lecito ipotizzare che vada oltre il semplice “voto a maggioranza”. Potrebbe pesare le risposte in base alla reputazione del modello per un certo dominio (ad esempio, Claude per il diritto, GPT per il codice), o cercare conferme incrociate con le fonti web che Perplexity già interroga.
Quel che è certo è che introduce un nuovo livello di opacità: l’utente non vede più solo l’output di una scatola nera, ma l’output filtrato e interpretato da un’altra scatola nera.
Se tutti e tre i modelli condividono lo stesso bias o la stessa fonte errata, il sintetizzatore potrebbe tranquillamente ratificare un errore con il sigillo dell’unanimità.
Il conto delle API e il gioco delle tre corporazioni
La proposta di valore per l’utente è chiara: risparmio di tempo e denaro.
Invece di pagare tre abbonamenti separati e perdere ore a copia-incollare prompt, tutto è riunito in un’unica interfaccia per 200 dollari al mese.
Ma per Perplexity, l’aritmetica dei costi deve essere una sfida logistica e finanziaria monumentale.
Ogni query del Model Council scatena tre chiamate API ai modelli più costosi di Anthropic, OpenAI e Google.
I prezzi pubblici per questi modelli sono da capogiro: Claude Opus 4.6 costa 5 dollari per milione di token in input e 25 in output, mentre GPT-5.2 arriva a 1,75 dollari in input e 14 in output.
Una singola sessione di ricerca approfondita può facilmente consumare centinaia di migliaia di token.
Come fa Perplexity a offrire tutto questo in un abbonamento flat?
È improbabile che paghi i prezzi al dettaglio. Deve aver negoziato accordi di licenza speciali, forse con sconti massicci basati sul volume, o con una revenue sharing.
Ma qui la trasparenza svanisce. La startup non rivela i termini degli accordi con i giganti dell’AI.
Questo la pone in una posizione di dipendenza strategica delicatissima: il suo prodotto di punta è interamente costruito sulle tecnologie dei suoi potenziali concorrenti.
Sia Google che OpenAI hanno i loro assistenti conversazionali (Gemini Advanced, ChatGPT) e potrebbero, da un giorno all’altro, decidere di limitare l’accesso o aumentare i prezzi per proteggere il loro mercato diretto.
Perplexity sta costruendo un castello di vetro su fondamenta che non controlla.
Il modello sintetizzatore esamina gli output, risolve i conflitti e fornisce una risposta combinata che mostra dove i modelli sono d’accordo e dove dissentono.
— Documentazione ufficiale di Perplexity
Un giudice imparziale o un nuovo arbitro di verità?
Al di là dei modelli in sé, c’è una questione filosofica e pratica ancora più grande: che tipo di “sintesi” stiamo chiedendo a questo meta-modello?
Il suo compito non è solo sommare informazioni, ma risolvere conflitti.
Questo lo trasforma, di fatto, in un arbitro della verità.
Prendiamo un esempio concreto: una domanda sull’efficacia di un trattamento medico controverso. Claude potrebbe citare alcuni studi, GPT altri, Gemini potrebbe esprimere scetticismo.
Il sintetizzatore dovrà decidere quale prospettiva elevare a “risposta unificata”.
Quali criteri userà? La coerenza logica? Il numero di fonti? La reputazione della rivista scientifica?
Queste decisioni non sono tecniche, sono editoriali.
Il rischio è che, nella ricerca di una risposta pulita e definitiva, il sistema appiattisca le sfumature e le legittime divergenze che sono il sale della ricerca accademica, giornalistica o finanziaria.
Segnalare un disaccordo in una tabella è un primo passo, ma è sufficiente?
L’utente potrebbe dare per scontato che la sintesi rappresenti il “meglio” di tutti i mondi, quando in realtà potrebbe essere solo la visione del modello sintetizzatore, addestrato su dati e obiettivi che ignoriamo.
In un’epoca di diffusa sfiducia verso le piattaforme tech, introdurre un ulteriore strato di mediazione algoritmica non è una mossa banale.
Perplexity, con Model Council, ha identificato un bisogno reale e ha architettato una soluzione tecnicamente affascinante.
Ha portato l’ensemble method dalle conferenze accademiche direttamente nelle mani (benestanti) degli utenti finali.
Ma nel farlo, ha anche creato una perfetta cristallizzazione delle tensioni che definiscono l’attuale ecosistema AI: la dipendenza da pochi fornitori, i costi proibitivi che limitano l’accesso, e l’opacità sempre più stratificata dei processi decisionali automatizzati.
La domanda finale, quindi, non è se il “consiglio” sia intelligente, ma se possiamo permetterci di affidargli il nostro giudizio, senza sapere chi paga realmente i suoi componenti e che mandato ha ricevuto il suo presidente – quel misterioso modello sintetizzatore che sussurra all’orecchio dell’utente la versione definitiva della realtà.