Vorresti più informazioni intelligenti nella tua scatola in arrivo? Iscriviti solo alle nostre newsletter settimanali per ottenere la cosa importante per l’intelligenza artificiale aziendale, i dati e i leader della sicurezza. Iscriviti ora
C’è liquido ai rilasciato LFM2-VLModelli di fondazione linguistica di nuova generazione Progettato per una distribuzione efficiente in una vasta gamma di attrezzature – Dispositivi indossabili e sistemi integrati da smartphone e laptop.
I modelli promettono prestazioni a basso ritardo, forte precisione e flessibilità per le applicazioni del mondo reale.
LFM2-VL crea l’attuale architettura LFM2 dell’azienda e si espande all’elaborazione multimodale che supporta gli ingressi sia di testo che di immagine nella risoluzione variabile.
Secondo Liquid AI, I modelli offrono un linguaggio di visione comparativo fino al doppio della velocità di inferenza della GPU dei modelli.Pur mantenendo prestazioni competitive in criteri comuni.
Ai Stroops sui limiti di ridimensionamento
I limiti di potenza, l’aumento dei costi dei marcatori e le inferenze ritardi rimodellano AI aziendale. Unisciti alla nostra sala privata per scoprire come sono le migliori squadre:
- Trasformare l’energia in un vantaggio strategico
- Architetto efficiente deduzione per guadagni di resa reale
- Aprire lo sblocco di un rendimento degli investimenti competitivi con sistemi AI sostenibili
Assicurati il tuo posto dove stare in futuro: https://bit.ly/4mwgngo
Il partner fondatore e CEO di Liquid AI Ramin Hasani ha scritto: “La produttività è il nostro prodotto” In un articolo che annuncia la nuova famiglia di modelli in X:
Due varianti per esigenze diverse
La versione include due dimensioni del modello:
- LFM2-VL-450M -Un modello iper-diffuso con un parametro inferiore a miliardi (impostazioni interne) è rivolta ad ambienti limitati ad alta risorsa.
- LFM2-VL-1.6B -Un modello più talentuoso che rimane abbastanza leggero per la distribuzione basata su GPU e dispositivo singolo.
Entrambe le varianti elaborano le immagini nella risoluzione locale fino a 512 × 512 pixel, evitano il deterioramento o il aumento inutile.
Per immagini più grandi, il sistema non applica patch sovrapposti e aggiunge una piccola immagine per il contesto globale e consente al modello di catturare sia dettagli fini che una scena più ampia.
Sfondo su Liquid AI
Liquid AI è stata fondata da ex ricercatori del Laboratorio di informatica e intelligenza artificiale (CSAIL) del MIT per creare architetture di intelligenza artificiale oltre il modello di trasformatore ampiamente utilizzato.
L’innovazione di punta dell’azienda si basa sui modelli Liquid Foundation (LFMS), i modelli AI per scopi generali in grado di gestire il testo, il video, il suono, le serie temporali e altri dati sequenziali e i principi di elaborazione del segnale e algebra lineare digitale.
Contrariamente all’architettura tradizionale, l’approccio di Liquid mira a fornire prestazioni competitive o superiori utilizzando fonti di calcolo significativamente meno.Pur mantenendo requisiti di memoria bassi, consente l’adattamento reale durante l’inferenza. Ciò rende gli LFM molto adatti sia per l’uso istituzionale di grande scala sia per la distribuzione dei bordi limitati.
Nel luglio 2025, la società ha ampliato la sua strategia di piattaforma rilasciando la piattaforma Liquid Edge AI (LEAP). Un SDK inter -piattaforma progettato per facilitare gli sviluppatori a eseguire modelli di piccoli lingue direttamente su dispositivi mobili e incorporati.
Il supporto OS-Qunognostic per Leap, iOS e Android offre una libreria integrata con i modelli di Liquid, nonché l’integrazione con altri SLM open source e piccoli modelli con piccoli modelli di 300 MB.
Apollo, Apollo, consente agli sviluppatori di testare completamente i modelli e rispettare l’enfasi sull’intelligenza artificiale a bassadelay, che mantiene la riservatezza dell’intelligenza artificiale liquida. Leap e Apollo riflettono l’impegno a centralizzare l’esecuzione dell’IA dell’azienda, a ridurre la fiducia nelle infrastrutture cloud e a dare agli sviluppatori a creare modelli specifici della missione ottimizzati per gli ambienti del mondo reale.
Modifica della velocità/qualità e progettazione tecnica
LFM2-VL utilizza l’architettura modulare Combinando una spina dorsale del modello di linguaggio, un codificatore visivo Naflex Siglip2 e un proiettore a modalità multipla.
Il proiettore contiene un connettore MLP a due strati con un pixel shuckufle, riduce il numero di marcatori di immagini e migliora la resa.
Gli utenti possono impostare parametri come i sintomi o le patch massime dell’immagine che consentono loro di bilanciare la velocità e la qualità a seconda dello scenario di distribuzione. Il processo di addestramento conteneva circa 100 miliardi di monete multimodali causate da cluster di dati aperti e dati sintetici intra -company.
Prestazioni e criteri
I modelli ottengono un confronto competitivo risulta in una serie di valutazioni del linguaggio della visione. LFM2-VL-1.6b, RealWorldqa (65.23), Infovqa (58.68) e OcRBench (742) e mantiene solidi risultati in compiti di ragionamento multimodale.
Nel test di inferenza, sono state testate le immagini LFM2-VL, 1024 × 1024 e richieste brevi su un carico di lavoro standard, il tempo di elaborazione GPU più veloce nella classe.

Bachelor e usabilità
I modelli LFM2-VL sono disponibili sull’augturazione della faccia con il codice di regolazione fine del campione in COLAB. Sono compatibili con trasformatori facciali abbracciati e TRL.
I modelli sono pubblicati con una speciale licenza “LFM1.0 .. Liquid AI ha definito questa licenza secondo i principi di Apache 2.0, ma il testo completo non è stato ancora pubblicato.
La società ha affermato che in determinate condizioni consentirà l’uso commerciale e sarà consentita in condizioni diverse in base al reddito annuo e inferiore a $ 10 milioni.
LFM2-VL e AI liquido mirano a rendere più accessibile l’intelligenza artificiale multimodale ad alte prestazioni senza sacrificare le proprietà per una distribuzione limitata di proprietà e risorse.
Collegamento alla fonte