Nel 2026, gli ingegneri dei dati che lavorano con sistemi multi-agente si trovano ad affrontare un problema familiare: gli agenti basati su piattaforme diverse non funzionano con una comprensione aziendale comune. Il risultato non è il fallimento del modello, ma l’allucinazione causata dal contesto frammentato.

Il problema è che i rappresentanti creati da team diversi su piattaforme diverse non condividono una visione comune di come funziona effettivamente l’azienda. Ognuno porta la propria interpretazione di ciò che significa un cliente, un ordine o un territorio. Quando queste definizioni differiscono all’interno di una forza lavoro di rappresentanti, le decisioni falliscono.

Una serie di annunci di Microsoft questa settimana affrontano direttamente questo problema. Il fulcro è un’espansione significativa. QI del tessutolivello di intelligenza semantica che l’azienda ha lanciato nel novembre 2025. L’ontologia aziendale di Fabric IQ è ora accessibile tramite MCP da qualsiasi agente di qualsiasi fornitore, non solo da Microsoft. Inoltre, Microsoft aggiunge la pianificazione aziendale a Fabric IQ, combinando dati storici, segnali in tempo reale e obiettivi organizzativi ufficiali in un unico livello interrogabile. Il nuovo Centro database riunisce Azure SQL, Cosmos DB, PostgreSQL, MySQL e SQL Server sotto un unico piano di gestione all’interno di Fabric. I broker di dati strutturali sono generalmente disponibili.

L’obiettivo generale è una piattaforma unificata in cui tutti i dati e la semantica siano disponibili e accessibili a qualsiasi agente per ottenere il contesto di cui le organizzazioni hanno bisogno.

Amir Netz, CTO di Microsoft Fabric, ha utilizzato un’analogia con il film per spiegare perché il livello di contesto condiviso è importante. "Assomiglia un po’ alla ragazza di 50 First Dates." Netz ha detto a VentureBeat. "Si svegliano ogni mattina e dimenticano tutto e tu devi spiegarglielo di nuovo. Questa è la spiegazione che dai loro ogni mattina."

Perché l’accesso MCP cambia l’equazione?

Rendere l’ontologia accessibile a MCP è il passo che sposta Fabric IQ da una funzionalità specifica di Fabric a un’infrastruttura condivisa per distribuzioni di agenti multi-vendor. Netz ha chiaramente affermato l’intento del progetto.

"Non importa chi rappresenta, come è costruito, quale è il suo ruolo." Netz ha detto. "Esiste una certa conoscenza comune, un certo contesto comune, che tutti gli agenti condivideranno."

Questo contesto comune è anche il luogo in cui Netz traccia una linea chiara tra ciò che fa l’ontologia e ciò che fa RAG. Non escludeva la generazione aumentata mediante recupero come tecnica; Lo ha posto specificatamente. RAG gestisce grandi quantità di documenti, come regolamenti, manuali aziendali e documentazione tecnica, dove l’accesso su richiesta è più pratico che mettere tutto nel contesto.

"Non ci aspettiamo che le persone ricordino tutto a memoria." ha detto. "Quando qualcuno fa una domanda, dovresti sapere come andare a fare qualche ricerca, trovare la parte giusta e pertinente e riportarla indietro."

Ma ha sostenuto che RAG non ha risolto il business case in tempo reale. Non dice all’agenzia quali aerei sono attualmente in volo, se l’equipaggio ha abbastanza ore di riposo o quale sia la priorità attuale su una particolare linea di prodotti.

"L’errore del passato era pensare che una sola tecnologia potesse darti tutto." Netz ha detto. "Il modello cognitivo degli agenti è simile a quello umano. È necessario avere cose che non sono in memoria, disponibili su richiesta, costantemente osservate e rilevate in tempo reale."

Gli analisti delle vulnerabilità delle applicazioni affermano che Microsoft deve ancora chiudere

Gli analisti del settore vedono la logica dietro la direzione di Microsoft ma hanno domande su ciò che verrà dopo.

L’ampio stack di Microsoft conferisce a Microsoft un vantaggio strutturale nella corsa per diventare la piattaforma predefinita per l’implementazione di agenti aziendali, ha affermato Robert Kramer, analista di Moor Insights e Strategy.

"L’infrastruttura si connette ai servizi Power BI, Microsoft 365, Dynamics e Azure. Ciò offre a Microsoft un modo naturale per connettere i dati aziendali con gli utenti aziendali, i flussi di lavoro operativi e ora i sistemi di intelligenza artificiale in esecuzione in questo ambiente." ha detto. Kramer ha affermato che Microsoft compete su una superficie più ampia rispetto a Databricks o Snowflake, che costruiscono la loro reputazione sulla profondità della loro piattaforma dati.

La domanda più urgente per i data team è se l’accesso MCP riduca effettivamente il lavoro di integrazione, ha affermato Kramer.

"La maggior parte delle organizzazioni non opera in un unico ambiente AI. La finanza potrebbe utilizzare un insieme di strumenti, l’ingegneria potrebbe utilizzarne un altro, la catena di fornitura potrebbe utilizzare qualcos’altro," Kramer ha detto a VentureBeat. "Se Fabric IQ può fungere da livello comune di contesto dati a cui questi intermediari possono accedere, inizia a ridurre parte della frammentazione che spesso si verifica nei dati aziendali."

Ma ha detto: "Se si aggiungesse un altro protocollo che richiede ancora molto lavoro di ingegneria, l’adozione sarà più lenta."

Se il compito di ingegneria sia un problema più difficile è aperto al dibattito. L’analista indipendente Sanjeev Mohan ha dichiarato a VentureBeat che la sfida più grande non è tecnica ma organizzativa.

"Non credo che ne comprendano ancora appieno le implicazioni." ha detto a proposito dei team dati aziendali. "Questo è un classico rigonfiamento di talenti; le capacità si stanno espandendo più velocemente di quanto le persone possano immaginare di utilizzarle. Il lavoro più difficile sarà garantire che il livello di contesto sia affidabile e attendibile."

Holger Mueller, analista principale di Constellation Research, ritiene che l’MCP sia il meccanismo corretto ma sollecita cautela nella sua implementazione.

"Affinché le organizzazioni possano trarre vantaggio dall’intelligenza artificiale, hanno bisogno di accedere a dati isolati che spesso non sono organizzati e lo vogliono in un modo che consenta all’intelligenza artificiale di accedervi facilmente in modo standardizzato. Questo è ciò che fa MCP." Mueller ha detto a VentureBeat. "Il diavolo è nei dettagli. Quanto è buona la portata, quanto sono buone le prestazioni e quanto costa? Ancora da definire l’accesso e la gestione."

Centro database e tabella gare

Gli annunci di Fabric IQ vengono forniti con Database Center, ora in accesso anticipato, che riunisce Azure SQL, Azure Cosmos DB, PostgreSQL, MySQL e SQL Server in un unico livello di gestione e osservabilità all’interno di Fabric. L’obiettivo è fornire ai team addetti alle operazioni sui dati un unico posto in cui monitorare, gestire e ottimizzare le risorse del proprio database senza modificare il modo in cui viene distribuito ciascun servizio.

Il direttore della ricerca di IDC Devin Pratt ha affermato che la direzione integrata segue la direzione in cui si sta dirigendo il mercato più ampio. IDC prevede questo entro il 2029: Il 60% delle piattaforme dati aziendali Combinerà carichi di lavoro transazionali e analitici.

"Mentre i concorrenti si muovono lungo linee simili partendo da diversi punti di partenza, l’obiettivo di Microsoft è quello di riunire più di questi elementi in un unico approccio coordinato." Pratt ha detto a VentureBeat.

Cosa significa questo per i team dati aziendali?

L’implicazione pratica degli annunci di questa settimana per gli ingegneri dei dati responsabili di rendere le pipeline pronte per l’intelligenza artificiale è un cambiamento nel luogo in cui si svolge il duro lavoro. Il collegamento delle origini dati a una piattaforma è un problema risolto. Non è corretto definire il significato di questi dati per l’azienda e rendere tale definizione costantemente disponibile a ogni agente che ne faccia richiesta.

Questo cambiamento ha implicazioni concrete per i professionisti dei dati. Lo strato semantico (l’ontologia che mappa le entità aziendali, le relazioni e le regole operative) diventa l’infrastruttura di produzione. Dovrà essere creato, aggiornato, gestito e mantenuto con la stessa disciplina della pipeline di dati. Questa è una nuova categoria di responsabilità per i team di ingegneria dei dati e la maggior parte delle organizzazioni non ha ancora personale o struttura per questo.

La tendenza generale riflessa dagli annunci di questa settimana è che la corsa alle piattaforme dati nel 2026 non riguarda più principalmente l’elaborazione o l’archiviazione. Si tratta di quale piattaforma sia in grado di fornire i contenuti condivisi più affidabili alla più ampia gamma di rappresentanti.

Collegamento alla fonte