Meta ha rilasciato un modello per studiare il cervello
Meta ha rilasciato TRIBE v2, un modello open source per studiare il cervello. NVIDIA presenta OpenClaw per AI fisiche sicure. Google integra feedback in tempo reale negli strumenti Ads.
Il modello open source di Meta permette di analizzare l’attività cerebrale in risposta a stimoli complessi come film e musica.
Immagina di voler capire come il cervello reagisce a un film o a una canzone. Fino a poco fa, servivano un laboratorio attrezzato e fondi consistenti. Ora, un ricercatore con un portatile può esplorare questa frontiera grazie a un modello scaricabile in pochi clic.
Quando l’AI impara dal cervello (e lo fa insieme a noi)
Il rilascio di TRIBE v2 da parte di Meta segna un punto di svolta. L’azienda non ha solo pubblicato il modello predittivo TRIBE v2, ma ha reso disponibile anche il codice sorgente completo del progetto, lo studio scientifico dettagliato e una demo interattiva per testarlo. Il pacchetto è rilasciato sotto una licenza CC BY-NC aperta. Per la prima volta, uno strumento sofisticato per la neuroscienza computazionale è a disposizione di tutti, non solo dei grandi centri di ricerca.
Questa trasparenza non è un regalo, è una leva. Condividendo i componenti base, si permette a migliaia di sviluppatori di testare, migliorare e trovare vulnerabilità. L’innovazione accelera perché non parte ogni volta da zero.
Gli assistenti che costruiamo insieme, con le giuste protezioni
La filosofia open sta guidando anche lo sviluppo di AI fisiche e agenti intelligenti. NVIDIA ha presentato recentemente il framework OpenClaw di NVIDIA, un progetto guidato da Peter Steinberger creatore di OpenClaw. La sua visione è chiara: la dichiarazione di Peter Steinberger su OpenClaw parla di costruire “artigli e barriere di sicurezza” per assistenti AI potenti ma controllabili. Per creare agenti che interagiscano con il mondo, serve però un vocabolario comune. È qui che entra in campo OpenUSD per l’AI fisica, che offre proprio il linguaggio comune OpenUSD per descrivere scene 3D complesse.
Standard aperti significano che un assistente robotico sviluppato in un laboratorio può comprendere le istruzioni scritte in un altro. Si evita la frammentazione e si alza l’asticella della sicurezza per tutti.
Il pollice su che allena l’intelligenza (e la rende più utile)
Il ciclo di miglioramento di un’AI non finisce con il suo rilascio. Google lo ha compreso bene e ha integrato nei suoi strumenti per inserzionisti un collega AI per Google Ads. Questo assistente non si limita a dare consigli, ma impara in tempo reale grazie a un semplice feedback: pollice su o pollice giù per ogni sua risposta.
Questo meccanismo apparentemente banale è un fiume di dati preziosi. Trasforma ogni utente in un supervisore, consentendo all’AI di affinare il suo comportamento in base a ciò che le persone trovano realmente utile.
Il futuro dell’intelligenza artificiale non sarà plasmato dai modelli più grandi e custoditi, ma dalle architetture più solide e condivise. Quando il codice è aperto e il feedback è incorporato, il progresso tecnologico smette di essere una corsa solitaria e diventa uno sforzo collettivo. I prossimi anni ci diranno quali aziende hanno davvero capito che la forza non sta nell’essere un giardino recintato, ma nel costruire il parco giochi più grande e sicuro per tutti.
La partita si vince condividendo le regole, non nascondendole.