Ollama在4月连续发布v0.19和v0.20两大更新,通过底层重构彻底改变了本地AI体验。最大亮点是全面接入苹果MLX框架,专为Apple Silicon深度优化。
实测显示,在M5芯片Mac上,预填充速度提升57%至1810 token/s,解码速度翻倍至112 token/s,内存占用降低30%以上。伴随v0.20.0版本,Ollama全面支持Gemma 4全家桶,加上已有的Qwen3.5、Llama 4、DeepSeek‑v4,主流开源大模型已基本配齐。
程序员可本地运行Claude Code、OpenClaw智能体,兼顾安全与效率;内容创作者可离线撰写文案,保护敏感内容;普通用户一条命令即可调用模型,满足日常需求。
与云端AI相比,本地AI优势在于隐私、速度、免费、无网络依赖,标志着AI控制权从云端向个人设备转移。
评论列表
Loading...