📰 如何在本地运行 Google Gemma 4:LM Studio 0.4.0 CLI 实战指南

Google Gemma 4 现已支持本地运行!通过 LM Studio 0.4.0 的全新无头 CLI,玩家可在 MacBook Pro M4 Pro 上实现 51 tokens/秒的生成速度。

  • 26B-A4B 混合专家架构:虽然总参数为 260 亿,但每次推理仅激活 40 亿参数,大幅降低硬件需求
  • 性能表现:在 MMLU Pro 基准测试中得分 82.6%,AIME 2026 得分 88.3%
  • 内存友好:48GB 统一内存的 MacBook Pro 即可流畅运行
  • LM Studio 0.4.0 新特性:
  • llmster 守护进程:后台服务管理模型加载和推理
  • lms CLI:完整的命令行界面
  • 并行请求处理:支持多请求并发
  • 有状态 REST API:支持跨请求的对话历史
  • MCP 集成:本地模型上下文协议支持

安装命令:

curl -fsSL https://lmstudio.ai/install.sh | bash

lms daemon up

lms get google/gemma-4-26b-a4b


原文链接:https://ai.georgeliu.com/p/running-google-gemma-4-locally-with

🕐 发布于: 2026年04月06日 08:08

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注