Oggi, i rappresentanti dell’IA aziendale si trovano ad affrontare un problema temporale fondamentale: non possono agire facilmente su eventi aziendali critici perché non possono sempre esserne consapevoli in tempo reale.
Il problema sono le infrastrutture. La maggior parte dei dati aziendali risiede in database alimentati da processi ETL (Extract-Transform-Load) eseguiti ogni ora o giornalmente; in definitiva, è troppo lento per gli agenti che devono rispondere in tempo reale.
Un modo possibile per superare questa sfida è consentire agli intermediari di interfacciarsi direttamente con i sistemi di streaming di dati. L’open source è uno degli approcci principali utilizzati oggi. Apache Kafka e tecnologie Apache Flink. Numerose sono anche le applicazioni commerciali basate su queste tecnologie. unificatoUno di questi, diretto dai creatori originali di Kafka.
Oggi Confluent introduce un motore di contesto in tempo reale progettato per risolvere questo problema di latenza. La tecnologia si basa su Apache Kafka, una piattaforma di streaming di eventi distribuita che acquisisce dati man mano che si verificano gli eventi, e Apache Flink open source, un motore di elaborazione del flusso che trasforma questi eventi in tempo reale.
L’azienda sta inoltre lanciando Flink Agents, un framework open source sviluppato in collaborazione con Alibaba Cloud, LinkedIn e Ververica. Il framework porta le funzionalità degli agenti AI basati sugli eventi direttamente su Apache Flink, consentendo alle organizzazioni di creare agenti che monitorano i flussi di dati e li attivano automaticamente in base alle condizioni, senza fare affidamento sulla piattaforma gestita di Confluent.
"La maggior parte dei sistemi IA aziendali oggi non è in grado di rispondere automaticamente a eventi significativi in un’azienda senza prima la guida di qualcuno." Sean Falconer, capo dell’intelligenza artificiale di Confluent, ha detto a VentureBeat. "Ciò porta a perdite di entrate, clienti insoddisfatti o rischi aggiuntivi quando un pagamento non va a buon fine o una rete non funziona."
La sua importanza va oltre i prodotti specifici di Confluent. L’industria riconosce che gli agenti AI richiedono un’infrastruttura dati diversa rispetto alle applicazioni tradizionali. Gli agenti non si limitano a ottenere informazioni quando richiesto. Devono monitorare costantemente gli eventi aziendali e agire automaticamente quando le condizioni lo richiedono. Ciò richiede un’architettura di streaming, non pipeline batch.
Flusso di massa contro flusso: perché il RAG da solo non è sufficiente
Per comprendere il problema, è importante distinguere tra diversi approcci allo spostamento dei dati attraverso i sistemi aziendali e il modo in cui possono essere collegati all’intelligenza artificiale delle agenzie.
Nell’elaborazione batch, i dati si accumulano nei sistemi di origine fino all’esecuzione di un processo pianificato. Questo lavoro estrae i dati, li trasforma e li carica nel database o nel data warehouse di destinazione. Questo può accadere ogni ora, ogni giorno o anche settimanalmente. Questo approccio funziona per i carichi di lavoro di analisi, ma crea un ritardo tra il momento in cui accade qualcosa nell’azienda e il momento in cui i sistemi possono agire di conseguenza.
Il flusso di dati inverte questo modello. Le piattaforme di streaming come Apache Kafka acquisiscono gli eventi non appena si verificano, anziché attendere i lavori pianificati. Ogni aggiornamento del database, azione dell’utente, transazione o lettura del sensore diventa un evento trasmesso a un flusso. Apache Flink elabora quindi questi flussi per combinare, filtrare e aggregare i dati in tempo reale. Il risultato sono dati elaborati che riflettono lo stato attuale dell’azienda e vengono costantemente aggiornati all’arrivo di nuovi eventi.
Questa distinzione diventa fondamentale se si considera il tipo di contesti di cui hanno effettivamente bisogno gli agenti di intelligenza artificiale. Gran parte dell’attuale discussione sull’IA aziendale si concentra sulla generazione aumentata dall’accesso (RAG), che gestisce la ricerca semantica su basi di conoscenza per trovare documenti, politiche o informazioni storiche rilevanti. RAG funziona bene per domande come: "Qual è la nostra politica di rimborso?" dove la risposta si trova nella documentazione statica.
Ma molti casi d’uso aziendali richiedono ciò che Falconer chiama "contesto strutturale" — informazioni precise e aggiornate provenienti da più sistemi operativi riunite in tempo reale. Prendi in considerazione un agente di raccomandazione di lavoro che richiede i dati del profilo utente dal database delle risorse umane, il comportamento di navigazione nell’ultima ora, le query di ricerca di pochi minuti fa e le attuali offerte di lavoro su più sistemi.
"La parte che sblocchiamo per le aziende è essenzialmente la capacità di fornire il contesto strutturale necessario per fornire l’ultima versione." Ha detto Falconiere.
Problema di connessione MCP: dati non aggiornati e contenuto frammentato
La sfida non è solo connettere l’intelligenza artificiale ai dati aziendali. Il Model Context Protocol (MCP), introdotto da Anthropic all’inizio di quest’anno, ha già standardizzato il modo in cui gli agenti accedono alle origini dati. La domanda è: cosa succede dopo aver stabilito la connessione?
Nella maggior parte delle architetture aziendali odierne, gli agenti AI si connettono tramite MCP a data lake o warehouse alimentati da pipeline ETL batch. Ciò introduce due errori critici: i dati sono obsoleti, riflettono la realtà di ieri piuttosto che gli eventi attuali e sono frammentati su più sistemi, richiedendo una preelaborazione significativa prima che un agente possa ragionarci in modo efficace.
L’alternativa di mettere i server MCP direttamente davanti ai database operativi e alle API crea diversi problemi. Questi endpoint non sono destinati al consumo intermedio; Ciò può portare a costi elevati in termini di token poiché gli agenti elaborano un numero eccessivo di dati grezzi e creano più cicli di inferenza cercando di dare un senso alle risposte non strutturate.
"Le organizzazioni dispongono di dati, ma spesso sono obsoleti, frammentati o bloccati in formati che l’intelligenza artificiale non può utilizzare in modo efficace." Lo ha spiegato Falconer. "Il motore del contesto in tempo reale risolve questo problema combinando l’elaborazione, la rielaborazione e la presentazione dei dati, trasformando i flussi di dati continui in un contesto live per decisioni IA più intelligenti, veloci e affidabili."
Architettura tecnica: tre livelli per il contesto dell’agente in tempo reale
La piattaforma di Confluent comprende tre elementi che lavorano insieme o vengono adottati separatamente.
Rmotore di contesto in tempo reale È il livello dell’infrastruttura dati gestita in Confluent Cloud. I connettori inseriscono i dati negli argomenti Kafka man mano che si verificano gli eventi. I lavori Flink elaborano questi flussi "set di dati derivati" — visioni incarnate che combinano segnali storici e in tempo reale. Per l’assistenza clienti, questo può combinare la cronologia dell’account, il comportamento della sessione corrente e lo stato dell’inventario in un singolo oggetto di contesto unificato. Il motore lo rende disponibile tramite un server MCP gestito.
Broker di flusso È il framework proprietario di Confluent per la creazione di agenti AI che funzionano in modo nativo su Flink. Questi agenti monitorano i flussi di dati e li attivano automaticamente in base alle condizioni; Non aspettano suggerimenti. Il framework include definizioni di agenti semplificate, osservabilità incorporata e integrazione nativa di Claude da Anthropic. È disponibile in anteprima aperta sulla piattaforma Confluent.
Agenti Flink È un framework open source sviluppato con Alibaba Cloud, LinkedIn e Ververica. Porta le funzionalità del broker basato sugli eventi direttamente su Apache Flink, consentendo alle organizzazioni di creare broker di streaming senza fare affidamento sulla piattaforma gestita di Confluent. Gestiscono da soli la complessità operativa, ma evitano il vincolo del fornitore.
La competizione per l’infrastruttura dati pronta per gli agenti si fa sempre più accesa
Confluent non è l’unico a rendersi conto che gli agenti AI necessitano di infrastrutture dati diverse.
Concorrente un giorno prima dell’annuncio di Confluent panda rosso Ha introdotto il proprio Agent Data Plane, che combina streaming, SQL e governance specificatamente per gli agenti AI. Redpanda ha acquisito il motore SQL distribuito di Oxla per fornire agli agenti endpoint SQL standard per interrogare i dati in movimento o inattivi. La piattaforma enfatizza la connettività conforme a MCP, la piena osservabilità delle interazioni degli agenti e il modo in cui viene chiamata "controllo degli accessi degli agenti" con gettoni a grana fine e di breve durata.
Gli approcci architettonici variano. Confluent enfatizza l’elaborazione del flusso con Flink per creare set di dati derivati ottimizzati per i broker. Redpanda enfatizza la query SQL unificata su fonti disparate. Entrambi riconoscono che gli agenti necessitano di un contesto in tempo reale dotato di governance e osservabilità.
Oltre ai concorrenti diretti dello streaming, Databricks e Snowflake sono essenzialmente piattaforme di analisi che aggiungono funzionalità di streaming. I suoi punti di forza sono l’esecuzione di query complesse su set di dati di grandi dimensioni e l’utilizzo della funzionalità di streaming come miglioramento. Confluent e Redpanda ribaltano la situazione: lo streaming è la base su cui l’analisi e i carichi di lavoro di intelligenza artificiale si basano sui dati in movimento.
Come funziona nella pratica il contesto dello streaming?
Gli utenti confluenti del sistema includono i fornitori di servizi di trasporto Occupato. L’azienda sta costruendo un moderno sistema operativo per le compagnie di autobus charter che le aiuti a gestire preventivi, viaggi, pagamenti e autisti in tempo reale.
"Il flusso di dati è ciò che rende tutto ciò possibile," Il co-fondatore e CEO di Busie, Louis Bookoff, ha dichiarato a VentureBeat: "Utilizzando Confluent, spostiamo istantaneamente i dati tra diverse parti del nostro sistema anziché attendere aggiornamenti notturni o report batch. Ciò mantiene tutto sincronizzato e ci aiuta a fornire nuove funzionalità più velocemente.
Le stesse fondamenta renderanno l’intelligenza artificiale preziosa per i suoi clienti, ha affermato Bookoff.
"Nel nostro caso ogni azione, come l’invio di un preventivo o l’assegnazione di un autista, diventa istantaneamente un evento che scorre nel sistema." Bookoff ha detto. "Questo flusso di informazioni in tempo reale è ciò che consentirà ai nostri strumenti di intelligenza artificiale di rispondere in tempo reale con bassa latenza, anziché limitarsi a riassumere ciò che sta accadendo attualmente."
Ma la sfida è come comprendere il contesto. I modelli di intelligenza artificiale necessitano di dati pertinenti e accurati senza essere sopraffatti quando migliaia di eventi live attraversano il sistema ogni minuto.
"Se i dati non sono basati su ciò che sta accadendo nel mondo reale, l’intelligenza artificiale può facilmente formulare ipotesi errate e, di conseguenza, intraprendere azioni sbagliate." Bookoff ha detto. "L’elaborazione del flusso risolve questo problema convalidando costantemente i dati in tempo reale e confrontandoli con gli eventi in Busie."
Cosa significa questo per la strategia AI aziendale?
S.L’architettura del contesto di trattamento segnala un cambiamento fondamentale nel modo in cui gli agenti di intelligenza artificiale utilizzano i dati aziendali.
Gli agenti dell’intelligenza artificiale necessitano di un contesto continuo che unisca la comprensione storica con la consapevolezza in tempo reale; Hanno bisogno di sapere contemporaneamente cosa è successo, cosa è successo e cosa potrebbe accadere dopo.
Per le organizzazioni che considerano questo approccio, iniziare identificando i casi d’uso in cui la obsolescenza dei dati interrompe l’intermediario. Il rilevamento delle frodi, l’indagine delle anomalie e la risposta dei clienti in tempo reale falliscono a causa dell’aggiornamento delle pipeline batch ogni ora o giornalmente. Se i tuoi agenti devono agire entro pochi secondi o minuti dal verificarsi degli eventi, il contesto del flusso diventa necessario anziché facoltativo.
"Quando si creano applicazioni su modelli di base, poiché sono di natura probabilistica, si utilizzano dati e contesto per guidare il modello nella direzione in cui si desidera ottenere un qualche tipo di risultato." Ha detto Falconiere. "Quanto meglio lo fai, tanto più affidabile e migliore sarà il risultato."















