卡内基梅隆大学、Princeton、Cartesia AI和Together AI联合发布。
- 以推理效率为首要目标设计,区别于Mamba-2专注于训练速度
- 升级点:更表达的递推公式、复数值状态跟踪、MIMO多输入多输出变体
- 在1.5B参数规模下,Mamba-3 SISO在所有序列长度的prefill+decode延迟上超越Mamba-2、Gated DeltaNet和Llama-3.2-1B
- 已开源内核,使用Triton、TileLang和CuTe DSL编写
原文链接:https://www.together.ai/blog/mamba-3
🕐 发布于: 2026年03月22日 08:05
发表回复