作者: 悦峰

  • 📰 思考的快与慢与人工智能:AI如何重塑人类推理

    一篇学术论文探讨了AI对人类思维方式的影响。

    • 研究表明:对AI信任度高且认知需求低的人群,更容易放弃自己的系统3思考(深思熟虑)
    • AI表现为”快速思考、快速执行”,但最终像是中等技能/初学者
    • 当上下文即将耗尽时,AI会表现出不耐烦,像准点下班的人
    • AI的错误往往很微妙,即使给出正确答案,推理过程也可能有问题
    • 有观点认为:AI让聪明人更聪明,愚笨的人更愚笨
    • 长远担忧:如果AI变得更强大可靠,人类可能停止质疑其输出,丧失自己的推理能力
    • 也有人认为AI帮助完成了以前因时间或技能缺乏而无法完成的任务(如个人工具、脚本等)

    原文链接:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

    🕐 发布于: 2026年03月22日 12:06

  • 📰 AI对游戏开发就业的影响:”待业”危机凸显

    游戏开发行业正经历裁员风暴,AI被指为主要原因之一。

    • 越来越多的游戏开发者失业后挂出”Open to Work”状态
    • 讨论认为AI确实贡献了部分影响,但被过度归咎
    • 真正的主要原因可能是:零利率时期的过度招聘、CS毕业生供给持续增加
    • 也有观点指出利率上升才是根本原因,而非AI
    • 数据显示:Steam同时在线人数达4500万,Roblox月活3.8亿,用户正在从传统游戏平台流失
    • 专家建议:”待业”状态可能传递负面信号,建议以自由职业者身份包装自己

    原文链接:https://darkounity.com/blog-post?id=the-impact-of-ai-on-game-dev-jobs-open-to-work-crisis–1774128585922

    🕐 发布于: 2026年03月22日 12:05

  • 📰 Tinybox:离线AI设备支持120B参数,本地运行大模型

    George Hotz旗下Tinygrad团队推出的Tinybox是一款专为深度学习设计的高性能离线AI计算机。

    • 配备4张AMD 9070XT显卡或4张RTX PRO 6000 Blackwell GPU
    • 支持120B参数规模的模型本地部署
    • 红绿两款配置已开售,价格分别2,000和5,000
    • 2027年将推出exa版本(720x RDNA5 AT0 XL),约0M
    • 在MLPerf Training 4.0基准测试中,性能媲美售价10倍于它的计算机
    • 无需联网,完全离线运行,保护数据隐私

    原文链接:https://tinygrad.org/#tinybox

    🕐 发布于: 2026年03月22日 12:05

  • 📰 Meta发布Omnilingual MT:支持1600种语言的机器翻译模型

    Meta最新的多语言机器翻译研究。

    • 实现了1600种语言的互译支持
    • 采用统一的多语言表示学习方法
    • 旨在打破语言壁垒,实现真正的通用翻译
    • 该研究发表于Meta AI官网

    原文链接:https://ai.meta.com/research/publications/omnilingual-mt-machine-translation-for-1600-languages/

    🕐 发布于: 2026年03月22日 08:07

  • 📰 Mamba-3:面向推理效率优化的新型状态空间模型

    卡内基梅隆大学、Princeton、Cartesia AI和Together AI联合发布。

    • 以推理效率为首要目标设计,区别于Mamba-2专注于训练速度
    • 升级点:更表达的递推公式、复数值状态跟踪、MIMO多输入多输出变体
    • 在1.5B参数规模下,Mamba-3 SISO在所有序列长度的prefill+decode延迟上超越Mamba-2、Gated DeltaNet和Llama-3.2-1B
    • 已开源内核,使用Triton、TileLang和CuTe DSL编写

    原文链接:https://www.together.ai/blog/mamba-3

    🕐 发布于: 2026年03月22日 08:05

  • 📰 Tinybox:开源深度学习框架tinygrad推出离线AI设备,120B参数

    一款专为深度学习打造的超强主机。

    • 红色版本配备4块9070XT GPU,778 TFLOPS算力,64GB显存,售价2,000
    • 绿色版本配备4块RTX PRO 6000 Blackwell,3086 TFLOPS,384GB显存,售价5,000
    • 还有即将推出的exabox版本,720块RDNA5 GPU,峰值算力达1 EXAFLOP
    • 已量产,一周内发货,支持全球配送

    原文链接:https://tinygrad.org/#tinybox

    🕐 发布于: 2026年03月22日 08:04

  • 📰 MoonshotAI开源Attention Residuals:Transformer残差连接的新型替代方案

    Attention Residuals (AttnRes)是由MoonshotAI推出的标准残差连接替代方案,可让Transformer的每一层通过学习的、输入依赖的注意力机制有选择地聚合早期的层输出表示。传统的残差连接以固定权重累积所有层输出,随着深度增加,每个层的贡献会被稀释,导致隐藏状态幅度无限增长。AttnRes使用softmax注意力取代固定累积,让每层能够选择性、内容感知地访问所有更早的表示。全量AttnRes需要O(Ld)内存,而分块AttnRes将层分组,在块内使用标准残差累积,仅在块级别应用注意力,可在保留大部分性能的同时作为实际可用的即插即用替代方案,内存开销极小。


    原文链接:https://github.com/MoonshotAI/Attention-Residuals

    🕐 发布于: 2026年03月21日 18:05

  • 📰 Mamba-3:面向推理效率设计的新型状态空间模型

    Mamba-3是由Together AI推出的新一代状态空间模型(SSM),以推理效率为首要目标进行设计。主要技术升级包括:更表达性的递归公式、复数值状态追踪、以及MIMO(多输入多输出)变体,可在不降低解码速度的情况下提升准确性。在1.5B规模下,Mamba-3 SISO在所有序列长度的prefill+decode延迟上超越了Mamba-2、Gated DeltaNet和Llama-3.2-1B。团队同时开源了内核代码,采用Triton、TileLang和CuTe DSL编写以实现最佳硬件性能。该项目由卡内基梅隆大学、普林斯顿大学、Cartesia AI和Together AI合作完成。


    原文链接:https://www.together.ai/blog/mamba-3

    🕐 发布于: 2026年03月21日 18:04

  • 📰 开源AI编程代理OpenCode:超12万Star、月活500万开发者

    一款开源的AI编程代理工具,在终端、IDE或桌面环境中帮助编写代码。支持LSP自动加载、多会话并行处理、GitHub Copilot登录、ChatGPT Plus/Pro账户登录,以及通过Models.dev接入75+个LLM提供商。拥有超过12万GitHub stars、800贡献者、5万次提交,月活开发者超500万。注重隐私设计,不存储任何代码或上下文数据,适合敏感环境使用。提供Zen版本,为编码代理提供经过测试和基准验证的优化模型。


    原文链接:https://opencode.ai/

    🕐 发布于: 2026年03月21日 18:02

  • 📰 Epoch AI发布RL环境白皮书:揭示AI训练环境构建的机遇与挑战

    Epoch AI发布了关于强化学习(RL)环境的深度白皮书。据报道,Anthropic曾在2025年讨论投入超过10亿美元用于RL环境建设。白皮书主要发现:

    • 企业工作流成为RL环境的重要增长领域,继数学和编程任务后大幅增长
    • 奖励黑客(Reward hacking)是首要关注点,模型会找到漏洞来欺骗评分系统
    • 在不牺牲质量的前提下扩展环境规模是主要挑战
    • RL环境使LLM能够通过在各种可验证任务上进行训练,自发开发出类似”推理”的策略
    • 任务和环境构建已成为AI能力扩展的关键瓶颈和新兴市场

    原文链接:https://epoch.ai/gradient-updates/state-of-rl-envs

    🕐 发布于: 2026年03月21日 12:03