La narrazione dell’IA è stata per lo più dominata dalle prestazioni del modello rispetto ai principali benchmark del settore. Ma man mano che il settore matura e le aziende cercano di trarre valore reale dai progressi dell’intelligenza artificiale, stiamo assistendo a ricerche parallele su tecniche che aiutano a produrre applicazioni di intelligenza artificiale.
In VentureBeat, monitoriamo la ricerca sull’intelligenza artificiale che può aiutare a capire dove è diretta l’applicazione pratica della tecnologia. Attendiamo con impazienza scoperte rivoluzionarie non solo nell’intelligenza grezza di un singolo modello, ma anche nel modo in cui progettiamo i sistemi attorno ad esso. Mentre ci avviciniamo al 2026, ecco quattro tendenze che potrebbero rappresentare il modello per la prossima generazione di applicazioni aziendali robuste e scalabili.
apprendimento continuo
L’apprendimento continuo affronta una delle sfide chiave degli attuali modelli di intelligenza artificiale: insegnare loro nuove conoscenze e competenze senza distruggere la conoscenza esistente (spesso definita comedisastro, non dimenticare“).
Tradizionalmente ci sono due modi per risolvere questo problema. Il primo è riqualificare il modello con un mix di informazioni vecchie e nuove, operazione costosa, dispendiosa in termini di tempo ed estremamente complessa. Ciò lo rende inaccessibile per la maggior parte delle aziende che utilizzano i modelli.
Un’altra soluzione alternativa consiste nel fornire informazioni contestualizzate ai modelli tramite tecniche come RAG. Tuttavia, queste tecniche non aggiornano le informazioni interne del modello; Ciò può diventare problematico quando il modello si allontana dal limite informativo e i fatti iniziano a entrare in conflitto con ciò che era vero durante l’addestramento del modello. Richiedono inoltre molta ingegneria e sono limitati alle finestre di contesto dei modelli.
L’apprendimento continuo consente ai modelli di aggiornare la propria conoscenza interna senza la necessità di riqualificazione. Google sta lavorando su questo con diverse nuove architetture di modelli. Uno di questi è Titans, che propone una primitiva diversa: un modulo di memoria appresa a lungo termine che consente al sistema di incorporare il contesto storico al momento dell’inferenza. Intuitivamente, sposta parte dell’“apprendimento” dagli aggiornamenti del peso offline al processo di memoria online; più vicino a come i team attualmente pensano a cache, directory e log.
Nested Learning affronta lo stesso tema da un’altra angolazione. Tratta un modello come un insieme di problemi di ottimizzazione annidati, ciascuno con il proprio flusso di lavoro interno, e utilizza questo framework per affrontare l’oblio catastrofico.
I modelli linguistici standard basati su trasformatore hanno strati densi che immagazzinano la memoria a lungo termine acquisita durante il pre-allenamento e strati di attenzione che contengono il contesto immediato. Nested Learning offre un “sistema di memoria continua” in cui la memoria è vista come una gamma di moduli che si aggiornano a frequenze diverse. Ciò crea un sistema di memoria più in sintonia con l’apprendimento continuo.
L’apprendimento continuo è complementare al lavoro svolto per fornire agli agenti memoria a breve termine attraverso l’ingegneria del contesto. Man mano che le organizzazioni maturano, possiamo aspettarci una generazione di modelli che si adattino agli ambienti in evoluzione, decidendo dinamicamente quali nuove informazioni internalizzare e quali archiviare nella memoria a breve termine.
modelli del mondo
I modelli terrestri promettono di fornire ai sistemi di intelligenza artificiale la capacità di comprendere i loro ambienti senza la necessità di dati etichettati dall’uomo o di testo generato dall’uomo. Grazie ai modelli mondiali, i sistemi di intelligenza artificiale possono rispondere meglio a eventi imprevedibili e fuori distribuzione e diventare più resilienti all’incertezza del mondo reale.
Ancora più importante, i modelli mondiali aprono la strada a sistemi di intelligenza artificiale che possono andare oltre il testo e risolvere compiti che coinvolgono ambienti fisici. I modelli del mondo tentano di apprendere le regolarità del mondo fisico attraverso l’osservazione e l’interazione diretta.
Esistono diversi approcci alla costruzione di modelli mondiali. DeepMind sta costruendo Genie, una famiglia di modelli generativi end-to-end che simulano un ambiente in modo che un agente possa prevedere come si evolverà l’ambiente e come le azioni lo cambieranno. Prende un’immagine o un messaggio insieme alle azioni dell’utente e crea una sequenza di fotogrammi video che riflettono il modo in cui il mondo sta cambiando. Genie può creare ambienti interattivi che possono essere utilizzati per diversi scopi, inclusi robot educativi e auto senza conducente.
Laboratori mondialiUna nuova startup fondata dal pioniere dell’intelligenza artificiale Fei-Fei Li sta adottando un approccio leggermente diverso. Marble, il primo sistema di intelligenza artificiale di World Labs, utilizza l’intelligenza artificiale generativa per creare un modello 3D da un’immagine o un prompt; Questo modello può quindi essere utilizzato da un motore fisico e 3D per creare e simulare l’ambiente interattivo utilizzato per addestrare i robot.
Un altro approccio è la Joint Embedding Prediction Architecture (JEPA), adottata dal vincitore del Premio Turing ed ex capo di Meta AI Yann LeCun. I modelli JEPA apprendono le rappresentazioni latenti dai dati grezzi in modo che il sistema possa prevedere il passaggio successivo senza eseguire il rendering di ciascun pixel.
I modelli JEPA sono molto più efficienti dei modelli generativi; Ciò li rende adatti per applicazioni AI veloci in tempo reale che devono essere eseguite su dispositivi con risorse limitate. V-JEPA, la versione video dell’architettura, è pre-addestrata su video senza etichetta su scala Internet per apprendere modelli del mondo attraverso l’osservazione. Aggiunge quindi una piccola quantità di dati di interazione dalle traiettorie del robot per supportare la pianificazione. Questa combinazione indica il modo in cui le aziende stanno sfruttando abbondanti video passivi (formazione, revisione, dash cam, vendita al dettaglio) e aggiungendo dati di coinvolgimento limitati e di alto valore dove hanno bisogno di controllo.
nel mese di novembre, LeCun conferma che lascerà Meta e lancerà una nuova iniziativa di intelligenza artificiale che perseguirà “sistemi che comprendono il mondo fisico, hanno memoria permanente, possono ragionare e pianificare sequenze complesse di azioni”.
Orchestrazione
Gli LLM di frontiera continuano ad avanzare rispetto a parametri di riferimento molto impegnativi e spesso superano gli esperti umani. Ma quando si tratta di attività del mondo reale e flussi di lavoro gestiti in più fasi, anche i modelli potenti falliscono: perdono contesto, chiamano strumenti con parametri errati e aggravano piccoli errori.
L’orchestrazione tratta questi guasti come problemi di sistema che possono essere risolti con la giusta struttura e ingegneria. Ad esempio, un router sceglie tra un modello piccolo per i passaggi veloci, un modello più grande per i passaggi più difficili, la portata al suolo e strumenti deterministici per le azioni.
Ora esistono più framework che creano livelli di orchestrazione per aumentare l’efficienza e la precisione degli agenti IA, soprattutto quando si utilizzano strumenti esterni. OctoTools di Stanford è un framework open source in grado di organizzare più strumenti senza la necessità di modificare o adattare i modelli. OctoTools utilizza un approccio modulare che pianifica una soluzione, seleziona gli strumenti e delega le sottoattività a diversi agenti. OctoTools può utilizzare qualsiasi LLM per scopi generali come spina dorsale.
Un altro approccio consiste nell’addestrare uno speciale modello di orchestratore in grado di condividere la forza lavoro tra i diversi componenti del sistema di intelligenza artificiale. Uno di questi esempi è Orchestrator di Nvidia, un modello da 8 miliardi di parametri che coordina diversi strumenti e LLM per risolvere problemi complessi. L’orchestratore è stato addestrato tramite una specifica tecnica di apprendimento per rinforzo progettata per l’orchestrazione del modello. Può dire quando utilizzare gli strumenti, quando delegare compiti a piccoli modelli specializzati e quando utilizzare le capacità di ragionamento e la conoscenza di grandi modelli generalisti.
Una delle caratteristiche di questo e di altri framework simili è che possono beneficiare di miglioramenti nei modelli di base. Mentre continuiamo a vedere progressi nei modelli di confine, possiamo aspettarci che i quadri normativi si evolvano e aiutino le organizzazioni a creare applicazioni broker robuste ed efficienti in termini di risorse.
Miglioramento
Le tecniche di miglioramento trasformano la “risposta unica” in un processo controllato: suggerire, criticare, rivedere e verificare. Inquadra il flusso di lavoro per utilizzare lo stesso modello per creare un output iniziale, generare feedback su di esso e migliorarlo in modo iterativo, il tutto senza richiedere ulteriore formazione.
Sebbene le tecniche di autoguarigione siano in circolazione da diversi anni, potremmo essere a un punto in cui potremmo vederle fornire un cambiamento radicale nelle pratiche di agenzia. Ciò è stato pienamente evidenziato nei risultati dell’ARC Award, che ha nominato il 2025 “Best in the World”.Anno del ciclo di miglioramento” e scrisse: “Dal punto di vista della teoria dell’informazione, il miglioramento è intelligenza”.
ARC testa modelli su complessi puzzle di ragionamento astratto. L’analisi di ARC fornisce una migliore soluzione di ottimizzazione convalidata basata su un modello di frontiera e Sviluppato da PoetiqHa raggiunto il 54% su ARC-AGI-2, battendo il secondo classificato Gemini 3 Deep Think (45%) a metà prezzo.
La soluzione di Poetiq è un sistema ricorsivo e di auto-miglioramento indipendente da LLM. È progettato per sfruttare le capacità di ragionamento e la conoscenza del modello di base per riflettere e migliorare la propria soluzione e ricorrere a strumenti come interpreti di codice quando necessario.
Man mano che i modelli diventano più forti, l’aggiunta di livelli auto-miglioranti consentirà di trarne di più. Poetiq sta già lavorando con i partner per adattare il suo meta-sistema per “affrontare i complessi problemi del mondo reale che i modelli di frontiera faticano a risolvere”.
Come seguire la ricerca sull’intelligenza artificiale nel 2026?
Un modo pratico per leggere la ricerca del prossimo anno è monitorare quali nuove tecniche potrebbero aiutare le organizzazioni a spostare le applicazioni delle agenzie da prove di concetto a sistemi scalabili.
L’apprendimento continuo sposta il rigore verso l’origine e la persistenza della memoria. I modelli mondiali lo stanno spostando verso una simulazione e una previsione robuste degli eventi del mondo reale. L’orchestrazione sposta l’attenzione verso un migliore utilizzo delle risorse. Il raffinamento lo sposta verso il pensiero intelligente e la correzione delle risposte.
I vincitori non solo sceglieranno modelli potenti, ma creeranno anche il piano di controllo che manterrà tali modelli accurati, aggiornati ed economici.














