L’addio del co-creatore di Alexa svela i limiti dell’ai di Amazon
La frustrazione di un co-creatore di Alexa che ha visto i limiti di un sistema basato su regole e la difficoltà di Amazon nel passare ai modelli generativi
C’è un momento preciso nella vita di ogni architettura software complessa in cui il debito tecnico smette di essere una semplice voce di bilancio e diventa un ostacolo strutturale all’innovazione. È il punto in cui mantenere la retrocompatibilità soffoca la possibilità di riscrivere le regole del gioco.
Se guardiamo alla traiettoria di William Tunstall-Pedoe, co-creatore di Alexa, la sua storia non è solo la cronaca di una dimissione, ma un caso di studio su come le dinamiche dei colossi tecnologici possano, paradossalmente, rallentare l’evoluzione dell’intelligenza artificiale.
Tunstall-Pedoe è una figura chiave: la sua startup, Evi, fu acquisita da Amazon nel 2012 e fornì gran parte dell’infrastruttura cognitiva che trasformò un semplice speaker in un assistente vocale. Eppure, in un recente approfondimento pubblicato proprio all’inizio del 2026, l’ingegnere ha svelato i retroscena della sua scelta di abbandonare la nave madre per tornare al “ferro” delle startup.
William Tunstall-Pedoe ha spiegato le ragioni del suo addio ad Amazon per lanciare la sua nuova startup di AI, sottolineando una divergenza fondamentale tra la gestione delle risorse corporate e la necessità di esplorazione radicale richiesta dall’AI moderna.
Questa frizione non riguarda solo le stock option o i titoli job, ma tocca il cuore di come costruiamo il software oggi.
L’eredità di Evi e il limite dei sistemi a regole
Per capire la frustrazione tecnica che spesso spinge i fondatori a lasciare le Big Tech dopo l’acquisizione, bisogna guardare “sotto il cofano” della prima generazione di Alexa. Quando Amazon lanciò il dispositivo nel 2014, il sistema non “capiva” il linguaggio nel senso che intendiamo oggi con i Large Language Models (LLM).
Il backend si basava su una pipeline rigida: ASR (Automatic Speech Recognition) per trascrivere l’audio in testo, seguito da un motore NLU (Natural Language Understanding) basato su intent e slot.
In pratica, ogni volta che chiedevate “che tempo fa”, il sistema non ragionava; mappava statisticamente l’audio a un comando predefinito (GetWeather). Questa architettura deterministica è eccellente per l’affidabilità.
Se dico “accendi la luce”, voglio che si accenda, non che l’AI discuta sulla natura dell’elettricità.
Ma è terribile per la scalabilità cognitiva. Tunstall-Pedoe, che con Evi aveva lavorato su motori di risposta più flessibili, si è trovato ingabbiato in una struttura che privilegiava l’esecuzione di comandi rispetto alla comprensione reale.
La sua critica alla struttura aziendale riflette esattamente questo blocco architetturale:
Le startup possono essere più adatte a esplorare idee non convenzionali… All’interno di una grande azienda, basta che un solo manager decida che le risorse sono meglio spese altrove perché un progetto muoia. In una startup è l’opposto.
— William Tunstall-Pedoe, Co-creatore di Alexa e Founder/CEO di Evi
La rigidità organizzativa diventa specchio della rigidità del codice: un monolite difficile da rifattorizzare senza rompere l’esperienza utente per milioni di device.
La transizione dolorosa verso i modelli generativi
Il 2026 ci trova in una fase in cui Amazon sta cercando disperatamente di iniettare fluidità in questo vecchio sistema nervoso. Il passaggio dai comandi imperativi agli LLM generativi non è un semplice aggiornamento software.
È un trapianto di cervello.
Amazon ha dovuto sviluppare i propri modelli fondazionali, la famiglia “Nova”, per competere con le architetture Transformer che hanno reso obsoleti i vecchi chatbot basati su regole. Tuttavia, implementare un LLM su scala globale presenta sfide ingegneristiche mostruose in termini di latenza e costi di inferenza.
Un vecchio comando Alexa costava frazioni di centesimo di computazione; una query a un modello generativo costa ordini di grandezza in più e richiede GPU che consumano quanto un piccolo quartiere. Nonostante le difficoltà, la spinta è massiccia: il CEO Andy Jassy ha confermato che i modelli Nova sono già utilizzati da decine di migliaia di aziende, segnando il tentativo di Amazon di non restare indietro nella corsa agli armamenti dell’AI.
Il problema tecnico qui è l’allucinazione. Mentre il vecchio sistema a regole era “stupido ma preciso”, i nuovi modelli sono “intelligenti ma bugiardi”.
Per un assistente che deve gestire la domotica o fare acquisti, l’affidabilità non è negoziabile. È probabile che la frustrazione di pionieri come Tunstall-Pedoe derivasse proprio dalla consapevolezza che l’approccio puramente statistico (sia esso il vecchio machine learning o i nuovi LLM) manca di una componente fondamentale: il ragionamento logico esplicito.
Oltre la forza bruta: la scommessa di Unlikely AI
È qui che il percorso di Tunstall-Pedoe con la sua nuova avventura, Unlikely AI, diventa tecnicamente affascinante. Il nome stesso suggerisce una critica all’approccio probabilistico (“likely”) dominante oggi. Se i Transformer prevedono il token più probabile, un sistema veramente intelligente dovrebbe forse puntare a quello corretto, anche se statisticamente improbabile nel corpus di addestramento.
L’approccio neuro-simbolico, che tenta di fondere la flessibilità delle reti neurali con la precisione della logica formale, è il Santo Graal che molti sviluppatori inseguono. Mentre Amazon deve preoccuparsi di mantenere il servizio attivo per centinaia di milioni di utenti, una startup può permettersi di riscrivere lo stack da zero, magari abbandonando l’idea che un singolo modello debba fare tutto.
Ho contribuito a creare Alexa, un prodotto di cui tutti hanno sentito parlare e che la maggior parte delle persone ha usato. Sono orgoglioso di ciò che abbiamo costruito. Ma nel 2016 era chiaro che lasciare Amazon, a cui mi ero unito dopo che l’azienda aveva acquisito la mia startup, era la decisione giusta.
— William Tunstall-Pedoe, Co-creatore di Alexa e Founder/CEO di Evi
La lezione che ne traiamo noi sviluppatori è amara ma necessaria.
L’eleganza tecnica spesso muore dove inizia la scala di massa.
Le Big Tech sono eccezionali nell’ottimizzare e distribuire, ma raramente sono il luogo dove avvengono i paradigmi shift. L’addio di Tunstall-Pedoe non è un rifiuto del passato, ma la presa d’atto che per costruire la “Next Big Thing” bisogna spesso distruggere le fondamenta della precedente.
Resta da chiedersi se, nel 2026, l’intelligenza artificiale abbia più bisogno di dati ancora più massicci o, finalmente, di un po’ di sana, vecchia logica.