Ollama, un sistema runtime per gestire modelli linguistici di grandi dimensioni su un computer locale, ha introdotto il supporto per l’open source di Apple MLX Framework per l’apprendimento automatico. Inoltre, Ollama afferma di aver migliorato le prestazioni di memorizzazione nella cache e ora supporta Nvidia NVFP4 Formato per la compressione del modello, progettato per un utilizzo della memoria molto più efficiente in alcuni modelli.
Insieme, questi sviluppi promettono prestazioni significativamente migliorate sui Mac con chip in silicio Apple (M1 o successivi) e il tempismo non potrebbe essere migliore, poiché i modelli locali stanno iniziando a guadagnare terreno prima dei ricercatori esterni e della comunità di hobbisti.
Il recente successo travolgente di OpenClaw: ha raggiunto oltre 300.000 stelle su githubEsperimenti come Moltbook hanno fatto notizia e sono diventati un’ossessione in Cina particolarmente—Molte persone stanno sperimentando modelli in esecuzione sulle loro macchine.
Con gli sviluppatori frustrati dai limiti di velocità e dal costo elevato degli abbonamenti di alto livello a strumenti come Cloud Code o ChatGPT Codex, gli esperimenti con modelli di codifica nativa si sono intensificati. (Ollama ha recentemente ampliato l’integrazione di Visual Studio Code.)
Il nuovo supporto è disponibile in anteprima (Ollama 0.19) e attualmente supporta un solo modello: Una variante da 35 miliardi di parametri del Qwen3.5 di Alibaba. I requisiti hardware sono intensificati dagli standard degli utenti normali. Gli utenti devono avere un Mac dotato di Apple Silicon, ma hanno anche bisogno di almeno 32 GB di RAM Wollamer annuncio.















