Fatagora ottiene finanziamenti per combattere le allucinazioni dell’AI
L’investimento strategico in Fatagora segnala un cambio di rotta verso la verifica e l’affidabilità dell’AI, con la Corea del Sud protagonista
Siamo onesti: se c’è una cosa che il biennio 2024-2025 ci ha insegnato dolorosamente, è che l’intelligenza artificiale generativa è un bugiardo patologico estremamente convincente.
Abbiamo passato l’ultimo anno a integrare LLM (Large Language Models) in ogni singola dashboard aziendale, solo per scoprire che la “magia” probabilistica dei token ha un costo nascosto esorbitante: la verifica dei fatti.
È in questo contesto, decisamente meno euforico e più pragmatico rispetto all’hype iniziale, che va letta la notizia di oggi.
Fatagora, una startup che si sta posizionando nel delicato settore della “AI trust”, ha ottenuto un investimento strategico dal Gyeonggi Center for Creative Economy & Innovation e dai partner globali Plug and Play e Asia2G Capital.
Non si tratta del solito round di finanziamento per un altro generatore di immagini o testi; qui stiamo parlando di infrastruttura critica, di quel layer “noioso” ma fondamentale che impedisce a un chatbot bancario di inventarsi tassi di interesse inesistenti.
La mossa è doppiamente interessante perché Fatagora è stata selezionata per il programma Global TIPS del Ministero delle PMI e delle Startup coreano.
Per chi non segue le dinamiche istituzionali asiatiche, il Global TIPS non è un semplice grant a fondo perduto: è un’autostrada preferenziale che lo stato coreano costruisce per le sue tech company verso la Silicon Valley. L’obiettivo non è solo finanziare, ma validare tecnologicamente soluzioni che possano competere su scala globale.
Ma perché proprio ora, e perché questa tecnologia?
La risposta sta in un cambio di paradigma tecnico che stiamo osservando in questo inizio di 2026: siamo passati dalla fase di deployment selvaggio alla fase di mitigazione del rischio.
L’ingegneria della verità (o come riparare le allucinazioni)
Per capire il valore tecnico di ciò che propone Fatagora, bisogna fare un passo indietro e guardare sotto il cofano di un LLM.
Questi modelli non “sanno” cose; predicono semplicemente quale parola ha la maggiore probabilità di seguire la precedente basandosi sui pesi statistici appresi durante il training.
Quando un modello risponde correttamente, è statistica. Quando “allucina”, inventando una sentenza legale mai esistita, è sempre statistica.
Per il modello, la verità e la menzogna sono indistinguibili: sono entrambe sequenze di vettori matematicamente valide.
La soluzione finora è stata il RAG (Retrieval-Augmented Generation), ovvero forzare il modello a leggere dei documenti prima di rispondere. Ma anche il RAG fallisce se il modello interpreta male il contesto.
Fatagora interviene qui, proponendo non un semplice filtro, ma un motore di fact-checking attivo.
Non stiamo parlando di un semplice wrapper API che chiede a GPT-4 “sei sicuro?”. La tecnologia in questione mira a incrociare l’output generato con fonti di verità verificate in tempo reale, affrontando il problema della “currency” (l’aggiornamento dei dati).
Una soluzione che Wooyeol Baek, CEO dell’azienda, descrive non come una feature, ma come una necessità infrastrutturale.
«L’obiettivo non è solo sviluppare la tecnologia, ma diventare l’infrastruttura AI su cui le aziende fanno effettivamente affidamento quando la fiducia è fondamentale.»
— Wooyeol Baek, CEO di Fatagora
Questa distinzione è cruciale. Nel mondo dello sviluppo software, c’è una differenza abissale tra una libreria che usi per fare un prototipo e l’infrastruttura critica su cui gira la produzione.
Fatagora sta cercando di essere la seconda.
Tra Seul e la Silicon Valley: la geopolitica del codice
L’aspetto finanziario di questa operazione rivela molto sulle ambizioni della Corea del Sud nel settore AI.
Mentre gli Stati Uniti dominano sui modelli fondazionali (OpenAI, Anthropic, Google) e l’Europa cerca faticosamente di regolare il settore con l’AI Act, la Corea sta giocando una partita diversa: quella delle applicazioni verticali e dell’affidabilità.
L’ingresso di Gyeonggi CCEI e la partnership con Plug and Play (uno degli acceleratori più attivi della Silicon Valley) non sono casuali. Wonkyung Kim, CEO del Gyeonggi CCEI, ha delineato chiaramente la strategia dietro questo investimento, vedendo in Fatagora un caso studio ideale per il loro modello di co-investimento.
«[Fatagora è] un esempio perfetto di ciò che stiamo cercando di ottenere: individuare startup promettenti attraverso il co-investimento con partner globali e collegarle direttamente al Global TIPS.»
— Wonkyung Kim, CEO di Gyeonggi CCEI
Il “collegamento diretto” a cui si riferisce Kim è l’accesso a reti internazionali che una startup, da sola, impiegherebbe anni a costruire.
Per un’azienda che deve vendere “fiducia”, avere il timbro di approvazione di istituzioni governative e fondi internazionali è tecnicamente irrilevante (il codice è buono o non lo è), ma commercialmente vitale.
Nessuna banca installerà un software di verifica AI nel proprio core business senza queste garanzie.
E qui arriviamo al punto dolente: l’adozione.
Il battesimo del fuoco: LawTech e FinTech
La roadmap tecnica di Fatagora prevede il lancio del prodotto nel 2026, ma la parte più interessante sono i progetti pilota già condotti. L’azienda ha testato la sua tecnologia con grandi studi legali coreani e istituzioni finanziarie internazionali.
Perché è rilevante?
Perché questi sono settori a “tolleranza zero”.
Se un chatbot di e-commerce sbaglia la descrizione di un paio di scarpe, è un fastidio. Se un assistente legale AI cita un precedente sbagliato in una memoria difensiva, è disbarment (radiazione dall’albo) e causa milionaria.
Il fatto che Fatagora stia espandendo questi progetti pilota con aziende nordamericane grazie alla selezione nel programma Global TIPS suggerisce che la loro tecnologia ha superato la fase del “demo carino” ed è pronta per ambienti di produzione ostili.
Baek stesso ha sottolineato l’urgenza di costruire casi d’uso reali, affermando che il 2026 sarà l’anno in cui dovranno dimostrare la scalabilità della loro soluzione.
Tuttavia, da tecnico, rimango cautamente scettico su un punto. La verifica dei fatti è un problema computazionalmente costoso e semanticamente complesso.
Verificare se “il tasso d’inflazione nel 2023 era il 5%” è facile. Verificare se “l’interpretazione della legge X supporta la tesi Y” richiede una comprensione delle sfumature che spesso sfugge agli stessi LLM che si cerca di correggere.
Se Fatagora riuscirà a risolvere questo problema senza introdurre latenze inaccettabili o costi di inferenza proibitivi, avrà in mano il Santo Graal dell’AI Enterprise.
Siamo di fronte a un paradosso affascinante: per fidarci delle macchine che generano testo, stiamo costruendo altre macchine che le controllano.
Stiamo creando un “livello di supervisione” digitale, un middleware della verità che si frappone tra il modello e l’utente.
Se Fatagora avrà successo, la sua tecnologia diventerà invisibile, data per scontata come il protocollo HTTPS che protegge i nostri dati mentre navighiamo.
Se fallirà, sarà l’ennesimo promemoria che l’automazione della verità è un problema molto più difficile dell’automazione della menzogna.