Per decenni, il panorama dei dati è stato relativamente statico. I database relazionali (ciao Oracle!) erano l’impostazione predefinita e dominata; Organizzava le informazioni in colonne e righe familiari.

Questa stabilità si è erosa man mano che ondate successive hanno introdotto archivi di documenti NoSQL, database a grafo e, più recentemente, sistemi basati su vettori. Nell’era dell’intelligenza artificiale delle agenzie, l’infrastruttura dei dati è ancora una volta in continuo mutamento e si evolve più velocemente che in qualsiasi momento nella memoria recente.

Con l’avvicinarsi del 2026, una lezione è diventata inevitabile: i dati sono più importanti che mai.

RAG è morto. Viva il RAG

Forse la tendenza più importante che emergerà dal 2025 e che continuerà a essere discussa nel 2026 (e forse oltre) è il ruolo dei RAG.

Il problema è che l’architettura della pipeline RAG originale è molto simile alla ricerca di base. Il recupero trova il risultato di una query specifica in un momento specifico. Inoltre è generalmente limitato a una singola fonte di dati, o almeno è così che sono state costruite le pipeline RAG in passato (in qualsiasi momento prima di giugno 2025 in passato).

Queste limitazioni hanno portato ad un crescente numero di venditori che sostengono che RAG sta morendo o sta per scomparire. già morto.

Tuttavia, stanno emergendo anche approcci alternativi (come la memoria contestuale) nonché approcci perfezionati e migliorati al RAG. Ad esempio, Snowflake ha recentemente annunciato analisi dei documenti intermediari Tecnologia che espande la tradizionale pipeline di dati RAG, rendendo possibile l’analisi di migliaia di fonti, principalmente senza la necessità di dati strutturati. Stanno emergendo anche numerosi altri approcci simili a RAG: GraphicRAG questo probabilmente aumenterà in termini di utilizzo e capacità nel 2026.

Quindi ora RAG non è (completamente) morto, almeno non ancora. Nel 2026 le organizzazioni continueranno a trovare casi d’uso in cui è richiesta l’acquisizione di dati e alcune versioni migliorate di RAG saranno comunque adatte. Nel 2026, le aziende dovranno valutare individualmente gli scenari di utilizzo. Mentre il RAG tradizionale funziona per il recupero di informazioni statiche, approcci avanzati come GraphRAG sono adatti a query complesse da più fonti.

La memoria contestuale è una questione importante per l’intelligenza artificiale degli agenti

Anche se il RAG non scomparirà completamente entro il 2026, un approccio che probabilmente lo supererà in termini di utilizzo dell’IA da parte dell’agenzia è la memoria contestuale, nota anche come memoria contestuale lunga. Questa tecnologia consente agli LLM di archiviare e accedere a informazioni rilevanti per lunghi periodi di tempo.

Nel corso del 2025 sono emersi numerosi sistemi di questo tipo, incluso Hindsight. Quadro A-MEM, Memoria agente generale (GAM), LangMem e base della nota. RAG rimarrà utile per i dati statici, ma la memoria dell’agenzia è fondamentale per gli assistenti adattivi e i flussi di lavoro mediati dall’intelligenza artificiale che devono apprendere dal feedback, mantenere lo stato e adattarsi nel tempo.

Nel 2026, la memoria contestuale non sarà più una tecnica nuova; diventerà una questione importante per l’implementazione dell’IA con molti agenti operativi.

I casi d’uso per i database vettoriali appositamente creati cambieranno

Agli albori dell’era moderna dell’IA generativa, i database vettoriali appositamente costruiti (come Pinecone e Milvus, tra gli altri) erano molto popolari.

Un LLM deve accedere ai dati per accedere a nuove informazioni (di solito ma non esclusivamente attraverso il RAG). Il modo migliore per farlo è codificare i dati come vettori, una rappresentazione numerica di ciò che i dati rappresentano.

Nel 2025 è diventato dolorosamente chiaro che i vettori non sono più un tipo specifico di database, ma un tipo specifico di dati che può essere integrato in un database multi-modello esistente. Pertanto, anziché dover utilizzare un sistema appositamente creato, un’organizzazione può semplicemente utilizzare un database esistente che supporti i vettori. Ad esempio, Oracle supporta i vettori e lo stesso vale per ogni database offerto da Google.

Oh, e migliora. Amazon S3, da tempo leader de facto nello storage di oggetti basato su cloud, è ora consente agli utenti di memorizzare i vettorieliminando ulteriormente la necessità di un database vettoriale personalizzato e unico. Ciò non significa che l’archiviazione di oggetti sostituisca i motori di ricerca vettoriale (prestazioni, indicizzazione e filtraggio sono ancora importanti), ma restringe i casi d’uso in cui sono richiesti sistemi specializzati.

No, questo non significa che i database vettoriali appositamente creati siano morti. Come con RAG, nel 2026 continueranno ad esserci casi d’uso per database vettoriali appositamente creati. Ciò che cambierà è che i casi d’uso probabilmente si restringeranno leggermente per le organizzazioni che necessitano di massime prestazioni o di un’ottimizzazione specifica che una soluzione generica non supporta.

L’ascesa di PostgreSQL

Con l’inizio del 2026, ciò che è vecchio diventa di nuovo nuovo. Il database PostgreSQL open source compirà 40 anni nel 2026, ma sarà più attuale che mai.

Fino al 2025, PostgreSQL dominerà come database di riferimento per la creazione di qualsiasi soluzione GenAI è diventato chiaro. Snowflake ha speso 250 milioni di dollari per acquisire il fornitore di database PostgreSQL Crunchy Data; mattoni dati speso 1 miliardo di dollari Al neon; e Supabase ha raccolto una serie E da 100 milioni di dollari, dandole una valutazione di 5 miliardi di dollari.

Tutto questo denaro serve come chiaro segnale che le aziende stanno passando a PostgreSQL per impostazione predefinita. Ci sono molte ragioni, come la base open source, la flessibilità e le prestazioni. Per la codifica Vibe (caso d’uso principale per Supabase e Neon in particolare) PostgreSQL è lo standard.

Puoi aspettarti di vedere un’ulteriore crescita e adozione di PostgreSQL nel 2026 poiché sempre più organizzazioni arriveranno alle stesse conclusioni di Snowflake e Databricks.

I ricercatori di dati continueranno a trovare nuovi modi per risolvere problemi già risolti

È probabile che emergano ulteriori innovazioni per aiutare con quelli che molte organizzazioni ritengono siano problemi già risolti.

Nel 2025 abbiamo assistito a molte innovazioni, come l’idea che l’intelligenza artificiale possa analizzare i dati da un’origine dati non strutturata come un PDF. Si tratta di una capacità che esiste da diversi anni, ma si è rivelata più difficile da rendere operativa su larga scala di quanto molti pensassero. Databricks ora dispone di un parser migliorato e altri fornitori, incluso Mistral, hanno apportato i propri miglioramenti.

Lo stesso vale per la traduzione dal linguaggio naturale a SQL. Anche se alcuni potrebbero pensare che questo sia un problema risolto, questo ha continuato a vedere l’innovazione Ne vedremo di più nel 2025 e nel 2026.

È fondamentale che le aziende prestino attenzione nel 2026. Non dare per scontato che le funzionalità fondamentali come l’analisi o il linguaggio naturale in SQL siano completamente comprese. Continuare a valutare nuovi approcci che potrebbero superare in modo significativo gli strumenti esistenti.

Continueranno le acquisizioni, gli investimenti ed i consolidamenti

Il 2025 è stato un anno importante, con grandi somme di denaro destinate ai fornitori di dati.

Meta Investiti 14,3 miliardi di dollari presso il fornitore di etichettatura dei dati Scale AI; IBM dice che intende acquistare il fornitore di streaming dati Confluent per 11 miliardi di dollari; e Salesforce ha rilevato Informatica Per 8 miliardi di dollari.

Man mano che i principali fornitori si rendono conto dell’importanza fondamentale dei dati per il successo dell’intelligenza artificiale delle agenzie, le organizzazioni di tutte le dimensioni dovrebbero aspettarsi che il ritmo delle acquisizioni continui fino al 2026.

È difficile prevedere l’impatto delle acquisizioni e del consolidamento sulle aziende nel 2026. Ciò può portare al blocco dei fornitori e anche potenzialmente all’ampliamento delle capacità della piattaforma.

Nel 2026, la questione non sarà se le aziende utilizzeranno l’intelligenza artificiale, ma se i loro sistemi di dati avranno la capacità di sostenerla. Man mano che l’intelligenza artificiale delle agenzie matura, un’infrastruttura di dati resiliente, e non suggerimenti intelligenti o architetture di breve durata, determinerà quali implementazioni saranno scalabili e quali rimarranno in silenzio.

Collegamento alla fonte