如何通过 LM Studio 的无头 CLI 和 Claude Code 在本地运行 Gemma 4。
- 设置方式:OLLAMA_CONTEXT_LENGTH=64000 ollama serve
- 或使用 ollama launch codex –model gemma4:26b
- Claude Code 成为数据管道迭代的主要接口,特别适合处理 XBRL 财务数据
- MCP 工作流中工具延迟敏感度比批处理高,2秒延迟会打破对话流程
- 有用户反馈在 Radeon GPU 上使用 ollama-rocm 时遇到问题,切换到 Vulkan 后解决
- MoE 模型虽然不节省显存,但可通过将部分专家从 VRAM 卸载到 CPU RAM 来实现
原文链接:https://news.ycombinator.com/item?id=47651540
🕐 发布于: 2026年04月06日 12:01
发表回复