Google Gemma 4 现已支持本地运行!通过 LM Studio 0.4.0 的全新无头 CLI,玩家可在 MacBook Pro M4 Pro 上实现 51 tokens/秒的生成速度。
- 26B-A4B 混合专家架构:虽然总参数为 260 亿,但每次推理仅激活 40 亿参数,大幅降低硬件需求
- 性能表现:在 MMLU Pro 基准测试中得分 82.6%,AIME 2026 得分 88.3%
- 内存友好:48GB 统一内存的 MacBook Pro 即可流畅运行
- LM Studio 0.4.0 新特性:
- llmster 守护进程:后台服务管理模型加载和推理
- lms CLI:完整的命令行界面
- 并行请求处理:支持多请求并发
- 有状态 REST API:支持跨请求的对话历史
- MCP 集成:本地模型上下文协议支持
安装命令:
curl -fsSL https://lmstudio.ai/install.sh | bash
lms daemon up
lms get google/gemma-4-26b-a4b
原文链接:https://ai.georgeliu.com/p/running-google-gemma-4-locally-with
🕐 发布于: 2026年04月06日 08:08
发表回复