Ollama 0.19 预览版接入苹果 MLX 框架提升 Mac 本地大模型性能

大模型之家讯 4月1日,本地 AI 工具 Ollama 发布 0.19 预览版,全面接入苹果 MLX 机器学习框架,显著提升 Mac 设备运行本地大模型的效率。该版本优化了统一内存使用和缓存性能,新增支持 NVFP4 模型压缩格式,并针对部分模型降低内存占用。最新搭载 M5 芯片的 Mac 可直接调用神经网络加速器,提升每秒生成词元(token)数与首词响应速度。目前功能仅在预览版中提供,首批支持阿里巴巴开源的 350 亿参数 Qwen3.5 模型,需至少 32GB 统一内存。用户在使用 OpenClaw“龙虾”等私人助手或运行 Claude Code、Codex 等工具时,可体验更快速的本地 AI 响应。MLX 是专为 Apple 芯片优化的开源框架,支持 Python 和 Swift 在设备端高效执行大型语言模型任务。

上一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注