📰 本地运行 Gemma 4 新姿势:LM Studio CLI + Claude Code 集成指南

如何通过 LM Studio 的无头 CLI 和 Claude Code 在本地运行 Gemma 4。

  • 设置方式:OLLAMA_CONTEXT_LENGTH=64000 ollama serve
  • 或使用 ollama launch codex –model gemma4:26b
  • Claude Code 成为数据管道迭代的主要接口,特别适合处理 XBRL 财务数据
  • MCP 工作流中工具延迟敏感度比批处理高,2秒延迟会打破对话流程
  • 有用户反馈在 Radeon GPU 上使用 ollama-rocm 时遇到问题,切换到 Vulkan 后解决
  • MoE 模型虽然不节省显存,但可通过将部分专家从 VRAM 卸载到 CPU RAM 来实现

原文链接:https://news.ycombinator.com/item?id=47651540

🕐 发布于: 2026年04月06日 12:01

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注