LinkedIn ha dato una memoria agli agenti AI
LinkedIn ha sviluppato Cognitive Memory Agent, piattaforma che risolve il problema memoria degli AI chatbot con quattro strati distinti, partendo da Hiring Assistant per reclutatori.
La piattaforma gestisce quattro tipi di memoria distinti per personalizzare le interazioni nel tempo
La maggior parte degli AI chatbot soffre dello stesso problema strutturale: ogni nuova sessione ricomincia da zero. Il contesto accumulato nella conversazione precedente — preferenze, decisioni, progresso su un task — evapora. LinkedIn ha affrontato questo limite in modo sistematico, costruendo il Cognitive Memory Agent, piattaforma orizzontale di memoria per agenti AI, capace di mantenere stato e consapevolezza contestuale su larga scala. Il primo prodotto a beneficiarne concretamente è Hiring Assistant, il primo agente AI di LinkedIn pensato per i reclutatori, di cui è stata annunciata la disponibilità globale in inglese nel 2025. Ma l’interesse del CMA va ben oltre il recruiting: è un blueprint architetturale per chiunque costruisca agenti AI seri.
L’architettura della memoria: come il CMA dà stato agli agenti AI
Il problema di fondo è noto a chiunque abbia lavorato con i Large Language Model: sono macchine stateless per definizione. Il transformer processa un contesto (la finestra di token in input), produce un output, e poi non ricorda nulla. Ogni invocazione è indipendente. Questa architettura va benissimo per task one-shot, ma è un ostacolo quando si vogliono costruire agenti che operano su workflow estesi, distribuiti nel tempo, dove il contesto accumulato è parte del valore.
LinkedIn ha risolto il problema introducendo quattro strati di memoria distinti, mutuando una terminologia che richiama la psicologia cognitiva: memoria conversazionale (il thread della sessione corrente), episodica (eventi e interazioni passate con lo stesso utente), semantica (conoscenza strutturata su entità, preferenze, profili) e procedurale (le istruzioni operative, i workflow, le regole di business che l’agente deve seguire). La distinzione non è cosmética: ogni tipo di memoria ha ciclo di vita, struttura e meccanismo di recupero diversi. La memoria episodica, per esempio, è per natura temporale e ordinata; quella semantica è più simile a un knowledge graph; quella procedurale si avvicina a un insieme di regole o policy. Aggregare tutto in un unico blob di testo — come fanno le soluzioni più naive — significa perdere la capacità di interrogare selettivamente il contesto rilevante.
Il salto tecnico rispetto ai LLM stateless è esattamente qui: il CMA non si limita a iniettare tutto il contesto nel prompt (approccio che collassa rapidamente al crescere della storia delle interazioni), ma gestisce la memoria come una risorsa strutturata, recuperabile in modo granulare. Questo risolve anche il problema della finestra di contesto limitata: non si porta tutto in input, si porta solo ciò che serve.
L’orchestratore leggero: il motore che rende la memoria utile
Avere quattro strati di memoria ben distinti è condizione necessaria ma non sufficiente. Il nodo critico è decidere, al momento di generare una risposta, quale memoria interrogare, in quale ordine, e come combinare i risultati. LinkedIn ha risolto questo con quello che descrive come un “lightweight agentic orchestrator”: un componente che pianifica l’accesso agli strati di memoria prima di produrre l’output finale. È un’architettura simile, come analogia, a quella di un database query planner: il sistema non esegue una scansione lineare di tutto il contesto disponibile, ma costruisce un piano di accesso ottimizzato in base alla query in ingresso.
L’impatto pratico su Hiring Assistant è misurabile. Grazie al CMA, l’agente riesce a personalizzare le interazioni con ogni reclutatore sfruttando la storia dei progetti di assunzione passati e le preferenze individuali — cose che un sistema stateless dovrebbe ogni volta ricostruire da zero o ignorare del tutto. Un reclutatore che ha già lavorato su una certa tipologia di ruolo, in un certo settore, con determinate priorità nella selezione, trova un agente che quelle preferenze le conosce già. Non è un dettaglio minore: è la differenza tra uno strumento che sembra intelligente e uno che si comporta davvero in modo contestuale.
Implicazioni per il futuro dello stack AI: produttività e competitività
I numeri iniziano a dare concretezza a questo tipo di architettura. Secondo i dati sull’impatto di Hiring Assistant riportati da HCAMag, l’azienda Certis ha registrato un incremento di produttività dei reclutatori tra il 60 e il 70%. È una cifra che, nel contesto dei processi HR tradizionali — spesso frammentati tra più strumenti, con molta overhead manuale — suggerisce che la memoria persistente non è un nice-to-have architetturale, ma un abilitatore concreto di efficienza operativa.
Il mercato lo ha già capito. Stando a ricerca BCG sull’AI nel talent acquisition del 2025, il recruiting è il principale caso d’uso per AI e GenAI all’interno delle funzioni HR. Non è un caso che sia LinkedIn sia altre piattaforme di lavoro abbiano accelerato il lancio di strumenti e agenti AI per supportare reclutatori nella ricerca e nella selezione dei candidati. Sul fronte enterprise, Microsoft Copilot Studio punta sulla stessa direzione, consentendo alle organizzazioni di costruire agenti personalizzati per processi HR come recruiting e onboarding, integrati nell’universo Microsoft 365. La competizione si sposta dall’interfaccia all’infrastruttura: vince chi ha lo stack di memoria più solido, non chi ha il chatbot più fluente.
Per chi costruisce agenti AI oggi, il CMA di LinkedIn offre una lezione architettuale precisa: la gestione della memoria non può essere un’aggiunta tardiva o una patch sopra un LLM stateless. Deve essere progettata come strato infrastrutturale di primo livello, con tipi distinti, cicli di vita differenziati e un orchestratore che sappia combinarli in modo intelligente. Come sottolinea chi osserva il settore, l’AI nel recruiting non è più solo un acceleratore di task esistenti — secondo Forbes, è potenzialmente l’architetto di un processo di hiring completamente automatizzato, con portata massiva e privo di bias umani. Che si condivida o meno questa visione, è chiaro che il punto di leva tecnico per arrivarci è esattamente quello che LinkedIn ha iniziato a costruire: agenti che ricordano, contestualizzano, e migliorano nel tempo.
Il CMA non è un prodotto per reclutatori: è un’architettura per chiunque voglia costruire agenti AI che non dimentichino. La distinzione tra memoria conversazionale, episodica, semantica e procedurale — e la presenza di un orchestratore che le gestisce come risorse separate — è il tipo di decisione di design che separa i sistemi robusti dai prototype eleganti. Chi costruisce oggi agenti AI su LLM stateless dovrà prima o poi affrontare questo nodo. LinkedIn lo ha già sciolto, e ha scelto di raccontarne l’architettura. Vale la pena studiarne ogni dettaglio.