分类: 未分类

  • 📰 PrismML推出全球首款商业化1-bit大模型

    PrismML发布1-Bit Bonsai系列模型,这是全球首款实现商业化的1-bit权重大模型。

    • 1-Bit Bonsai 8B仅需1.15GB内存,体积比全精度8B模型小14倍,运行速度快8倍,能效提升5倍
    • 1-Bit Bonsai 4B仅需0.57GB内存,在M4 Pro上可达132 tokens/秒
    • 1-Bit Bonsai 1.7B仅需0.24GB内存,在iPhone 17 Pro Max上可达130 tokens/秒
    • 该系列专为机器人技术、实时Agent和边缘计算场景设计
    • 在基准测试中,该模型性能与领先的8B模型相当,但实现了超过10倍的智能密度提升

    原文链接:https://prismml.com/

    🕐 发布于: 2026年04月01日 18:01

  • 📰 OpenAI完成8520亿美元融资轮

    OpenAI宣布完成创纪录的1220亿美元融资轮,融资后估值达8520亿美元。

    • 本轮由软银领投,其他投资方包括Andreessen Horowitz和D.E. Shaw Ventures
    • 截至3月,ChatGPT周活跃用户超过9,500万,付费订阅用户超过5,000万
    • OpenAI目前月收入20亿美元,全年收入131亿美元,但仍在亏损尚未盈利
    • 亚马逊承诺投资500亿美元,Nvidia和软银各投资300亿美元
    • 微软也参与了投资,累计已投资超过130亿美元
    • 公司正在削减部分支出计划,包括关闭短视频应用Sora

    原文链接:https://www.cnbc.com/2026/03/31/openai-funding-round-ipo.html

    🕐 发布于: 2026年04月01日 18:01

  • 📰 PrismML推出全球首个商业化1-bit大模型Bonsai

    PrismML发布1-Bit Bonsai系列模型,声称是全球首个可商业化的1-bit权重大模型。

    – Bonsai 8B仅需1.15GB内存,模型体积比全精度8B模型小14倍
    – 推理速度提升8倍,能效提升5倍,同时在基准测试中与领先的全精度8B模型持平
    – Bonsai 4B在M4 Pro上可达132 tokens/秒
    – Bonsai 1.7B在iPhone 17 Pro Max上可达130 tokens/秒,仅占用0.24GB内存
    – 该系列专为机器人、实时代理和边缘计算设计
    – 公司声称实现了全精度8B模型10倍以上的智能密度


    原文链接:https://prismml.com/

    🕐 发布于: 2026年04月01日 12:01

  • 📰 Claude Code源代码意外泄露:发现反蒸馏机制和”潜伏模式”

    Anthropic的Claude Code CLI工具因.map文件意外暴露了完整源代码,引发社区热议。

    – 这是Anthropic一周内第二次意外泄露事件(此前刚发生模型规范泄露)
    – 源代码发现了”反蒸馏”机制:通过注入虚假工具定义来污染竞争对手的训练数据
    – 发现”潜伏模式”(Undercover Mode):让AI隐藏其AI身份,移除常见的AI回复特征
    – 代码中包含大量针对Claude Desktop的frustration regexes,可能用于优化用户体验
    – 这些保护机制的技术门槛不高,有技术能力的用户可在1小时内找到绕过方法
    – 真正的保护可能更多来自法律层面而非技术层面


    原文链接:https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/

    🕐 发布于: 2026年04月01日 12:01

  • 📰 OpenAI完成1220亿美元融资,估值达8520亿美元

    OpenAI近日宣布完成创纪录的融资轮,融资总额1220亿美元,融资后估值达8520亿美元。

    – 本轮融资由软银领投,其他投资者包括Andreessen Horowitz和D.E. Shaw Ventures
    – 此前2月公布的融资金额为1100亿美元
    – 截至今年3月,ChatGPT周活跃用户超过9亿,付费订阅用户超过5000万
    – OpenAI目前月收入约20亿美元,年收入131亿美元,但尚未实现盈利
    – 亚马逊承诺投资500亿美元,Nvidia和软银各投资300亿美元
    – 微软也参与了本轮投资,但未披露具体金额
    – 公司正在缩减部分支出计划,包括关闭短视频应用Sora


    原文链接:https://www.cnbc.com/2026/03/31/openai-funding-round-ipo.html

    🕐 发布于: 2026年04月01日 12:01

  • 📰 npm包axios被植入恶意代码,超10亿下载量受影响

    3月30日,安全研究人员发现npm上最受欢迎的JavaScript HTTP客户端库axios的两个恶意版本(1.14.1和0.30.4)。

    – 恶意版本注入了一个名为plain-crypto-js@4.2.1的虚假依赖包,从未在axios源码中导入
    – 该依赖包含一个postinstall脚本,作为跨平台远程访问木马(RAT)投放器
    – 投放器会联系攻击者的命令控制服务器,根据操作系统下载第二阶段payload,执行后自毁并替换package.json以销毁证据
    – 这是针对Top 10 npm包有史以来最复杂的供应链攻击之一
    – 如果你已安装axios@1.14.1或0.30.4,请立即检查系统是否已被入侵
    – axios每周下载量超过1亿次,用户群体庞大


    原文链接:https://www.stepsecurity.io/blog/axios-compromised-on-npm-malicious-versions-drop-remote-access-trojan

    🕐 发布于: 2026年04月01日 08:07

  • 📰 Claude Code源码泄露:发现反蒸馏机制、 undercover模式等

    开发者发现Anthropic在Claude Code的NPM包中意外泄露了完整源代码。该代码包含多个引发争议的功能。

    – 反蒸馏机制:Claude Code会向API请求中添加fake_tools参数,向竞争对手的AI训练数据注入虚假工具定义
    – Undercover模式:指示AI在外部仓库中隐藏Anthropic内部信息,如代号”Capybara”、”Tengu”和内部Slack频道等,且无法强制关闭
    – 沮丧检测:通过正则表达式检测用户是否对AI感到沮丧
    – 这是Anthropic一周内第二次意外泄露,此前刚有模型规范泄露
    – 代码已被广泛镜像,官方已从NPM撤下该包


    原文链接:https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/

    🕐 发布于: 2026年04月01日 08:07

  • 📰 OpenAI完成创纪录1220亿美元融资,估值达8520亿美元

    OpenAI宣布完成一轮破纪录的融资,总额1220亿美元,融资后估值达8520亿美元。

    – 本轮由软银领投,其他投资方包括Andreessen Horowitz和D.E. Shaw Ventures
    – 此前2月公布的承诺金额为1100亿美元,亚马逊承诺投资500亿美元,Nvidia和软银各投资300亿美元
    – 截至3月,ChatGPT周活用户超过9.5亿,包括5000万付费订阅用户
    – OpenAI当前月收入约20亿美元,2025年全年收入131亿美元,但仍未盈利
    – 公司正在精简部分高昂支出计划,包括关闭短剧视频应用Sora,为IPO做准备
    – OpenAI CEO Sam Altman将面临外界对其天价估值的质疑


    原文链接:https://www.cnbc.com/2026/03/31/openai-funding-round-ipo.html

    🕐 发布于: 2026年04月01日 08:07

  • 📰 GitHub 撤下 Copilot Pull Request 广告,因开发者强烈反对

    在开发者强烈反对后,GitHub 移除了 Copilot 在 PR 中植入广告的功能。

    – 开发者发现 Copilot 在其 PR 中植入了 Raycast 生产力应用的广告
    – 超过 11,400 个 PR 中出现了类似的广告内容
    – GitHub 副总裁解释:该功能本意是帮助开发者学习新工作流,但让 Copilot 修改非它创建的 PR 引发了用户不满
    – 产品经理承认,未经用户同意修改 PR 是错误的判断
    – GitHub 已紧急禁用该功能,表示不会在 GitHub 中投放广告


    原文链接:https://www.theregister.com/2026/03/30/github_copilot_ads_pull_requests/

    🕐 发布于: 2026年03月31日 18:01

  • 📰 Google 发布 TimesFM 2.5:2亿参数时间序列大模型

    Google Research 发布了 TimesFM 2.5,一个用于时间序列预测的预训练基础模型。

    – 参数量:从 5 亿减少到 2 亿
    – 上下文长度:从 2048 扩展到 16k
    – 支持最长 1k 范围的连续分位数预测(通过 30M 参数的分位数头)
    – 移除了频率指示器
    – 新增多个预测标志位
    – 可通过 Hugging Face 获取预训练检查点
    – 已集成到 BigQuery 作为官方 Google 产品


    原文链接:https://github.com/google-research/timesfm

    🕐 发布于: 2026年03月31日 18:01