Mentre Apple e Google costruiscono cervelli, Samsung costruisce il sistema nervoso
Samsung adotta una strategia innovativa con Galaxy AI, orchestrando agenti multipli come Gemini e Perplexity invece di sviluppare un LLM proprietario, differenziandosi da Apple e Google.
La strategia si basa su un ecosistema aperto che orchestra diversi agenti specializzati, a partire da Google Gemini e Perplexity.
Mentre Apple e Google si scontrano per il controllo di modelli AI proprietari, Samsung ha appena annunciato una mossa che ribalta il tavolo: l’espansione di Galaxy AI verso un ecosistema multi-agente aperto. La strategia, rivelata nei giorni scorsi, non punta a creare un unico modello di linguaggio onnipotente, ma a orchestrare diversi agenti specializzati che operano a livello di sistema. In un mondo dove quasi 8 utenti su 10 usano già più di due tipi di AI, Samsung ha scelto di non competere sulla potenza bruta del singolo cervello artificiale, ma sull’intelligenza della rete che li collega.
L’architettura dell’orchestratore: perché Samsung non costruisce un LLM
Questa non è una semplice aggiunta di funzionalità, ma un cambio radicale di architettura. Come evidenzia una recente analisi, il percorso di Samsung non riguarda la costruzione di un proprio large language model (LLM). Invece di investire miliardi per addestrare e mantenere un modello fondazionale in-house, la compagnia coreana ha avviato uno spostamento strategico verso l’orchestrazione di agenti multipli. Il modello è già visibile nelle partnership esistenti: lo scorso anno, Samsung e Google Cloud hanno stretto un accordo pluriennale per portare Gemini Pro e Imagen 2 su Vertex AI ai dispositivi Galaxy, a partire dalla serie S24. Samsung è stato il primo partner a distribuire questa tecnologia via cloud sui propri smartphone.
La mossa con Perplexity, che verrà integrato nei prossimi flagship, conferma questa logica. Perplexity AI stesso non possiede un LLM fondazionale, ma costruisce la sua esperienza interrogativa sopra a più modelli leader. Integrandolo nativamente, con attivazione vocale “Hey Plex”, Samsung non fa che aggiungere un altro strumento specializzato alla sua cassetta degli attrezzi. L’obiettivo dichiarato è mantenere aperte le opzioni in un panorama dell’IA in rapida evoluzione, evitando di legare il proprio destino a un’unica architettura proprietaria. In pratica, Galaxy AI diventa uno strato di sistema intelligente che gestisce la richiesta dell’utente e la instrada all’agente più adatto, sia esso Google Gemini, Perplexity o altri in futuro.
Il nuovo fronte competitivo: sistema aperto vs giardini recintati
Mentre Samsung orchestra, i suoi concorrenti continuano a costruire. Questa strategia definisce un nuovo fronte di competizione. Samsung punta a differenziarsi esplicitamente da Apple e Google offrendo un ecosistema multi-agente, presumibilmente più aperto e flessibile dei giardini recintati dei rivali. Apple, con il suo approccio verticale e chiuso, punta su un’AI proprietaria integrata a fondo nell’hardware. Google, pur essendo partner di Samsung con Gemini, spinge sulla sua suite integrata e ha annunciato proprio la scorsa settimana che Gemini su Android può gestire attività in più fasi, come ordinare un Uber. La risposta di Samsung è di non scegliere un solo vincitore, ma di fare da piattaforma neutrale.
Il rischio per Google è che, fornendo la tecnologia di base a Samsung, si trovi a competere con il proprio cliente in una guerra per l’esperienza utente finale. Samsung, dal canto suo, gioca su due tavoli: usa la potenza di Google Cloud per alcune funzioni, ma allo stesso tempo sta creando un livello di astrazione (Galaxy AI) che rende l’utente meno consapevole di quale motore stia effettivamente utilizzando. È una competizione a tre con regole diverse: Apple controlla l’intero stack, Google controlla il modello e il servizio cloud, Samsung controlla l’integrazione di sistema e la relazione diretta con l’utente sul dispositivo.
L’esperienza utente come strato di sistema: da “Hey Plex” al lavoro in background
Tutta questa strategia orchestrativa non sarebbe nulla senza un impatto reale sull’interazione quotidiana. L’integrazione di Perplexity è un caso esemplare: gli utenti potranno accedervi tramite il comando vocale “Hey Plex” o tenendo premuto il tasto laterale, senza dover aprire un’app specifica. Questo è il cuore della visione di Samsung: Galaxy AI funziona a livello di sistema per ridurre la necessità di passare tra app o ripetere comandi. In altre parole, l’AI opera in background come un sistema operativo intelligente che gestisce le richieste e le delega.
Questo approccio cerca di risolvere un problema pratico evidenziato dai dati Samsung: con l’esplosione degli agenti specializzati, l’utente non vuole dover scegliere manualmente ogni volta tra ChatGPT per la scrittura, Gemini per la ricerca e un altro strumento per la pianificazione. Vuole semplicemente porre una domanda o dare un comando. L’ecosistema multi-agente, orchestrato dall’intelligenza di sistema di Galaxy, promette di fare proprio questo: interpretare l’intento e utilizzare il miglior agente disponibile, che potrebbe essere Perplexity per una ricerca web approfondita o Gemini per generare un’immagine con Imagen 2.
Samsung potrebbe non avere il cervello artificiale più potente in assoluto, ma sta costruendo il sistema nervoso che collega tutti gli altri cervelli. In un panorama dove l’accesso e l’integrazione fluida contano più della proprietà esclusiva del modello di base, questa potrebbe rivelarsi la mossa architetturale più intelligente. Per gli sviluppatori e per il mercato, significa che il valore si sposterà sempre di più verso gli strati di intermediazione intelligente e le API che consentono a diversi agenti di cooperare, piuttosto che verso i monoliti proprietari. La gara per l’AI mobile non si vince più solo con il chip più veloce o il modello più grande, ma con il sistema più abile a farli lavorare insieme senza intoppi.