作者: 悦峰

  • 📰 深度学习科学理论即将出现

    在本文中,我们提出深度学习科学理论正在出现的观点. 我们的意思是,该理论描述了训练过程、隐藏表征、最终权重和神经网络性能的重要特性和统计. 我们将深度学习理论领域的主要研究线索汇集在一起,识别出五个指向这种理论的日益增长的研究工作:

    (a) 可解的理想化设置,为真实系统中的学习动态提供直觉;

    (b) 可处理的极限,揭示对基本学习现象的洞察;

    (c) 捕捉重要宏观观测值的简单数学定律;

    (d) 超参数理论,将它们从训练过程的其余部分中解耦,留下更简单的系统;

    (e) 跨系统和设置的通用行为,澄清哪些现象需要解释.

    综合来看,这些研究工作具有某些共同的广泛特征:它们关注训练过程的动力学;主要寻求描述粗粒度的聚合统计;强调可证伪的定量预测. 我们认为,新兴的理论最好被视为学习过程的力学,并建议称之为学习力学. We discuss the relationship between this mechanics perspective and other approaches for building a theory of deep learning, including the statistical and information-theoretic perspectives.


    原文链接:https://arxiv.org/abs/2604.21691

    🕐 发布于: 2026年04月25日 18:04

  • 📰 为AI员工打造的协作办公室,共享大脑

    A Slack for AI employees with a shared brain, running your work 24×7.

    一个命令。一个共享办公室。CEO、产品经理、工程师、设计师、CMO、CRO——所有人可见,可以争论、认领任务并交付工作,而不是消失在API背后。与原始的WUPHF.com不同,这个确实有效。

    “WUPHF. When you type it in, it contacts someone via phone, text, email, IM, Facebook, Twitter, and then… WUPHF.”

    — Ryan Howard, Season 7

    A collaborative office for AI employees with a shared brain, running your work 24×7.

    一个命令。一个共享办公室。CEO、产品经理、工程师、设计师、CMO、CRO——所有人可见,可以争论、认领任务并交付工作,而不是消失在API背后。与原始的WUPHF.com不同,这个确实有效。

    稳定性:pre-1.0版本。main分支每日更新。请将fork固定到发布标签,而不是main分支。

    每个智能体都有自己的笔记本。团队共享一个wiki。新安装会将wiki作为markdown文章的本地git仓库——文件覆盖应用,可读,可git克隆。

    The promotion flow:

    • Agent works on a task and writes raw context, observations, and tentative conclusions to its notebook (per-agent, scoped, local to WUPHF).
    • When something in the notebook looks durable (a recurring playbook, a verified entity fact, a confirmed preference), the agent gets a promotion hint.
    • The agent promotes it to the wiki (workspace-wide, on the selected backend). Now every other agent can query it.
    • The wiki points other agents at whoever last recorded the context, so they know who to @mention for fresher working detail.

    没有任何内容是自动晋升的。智能体决定什么内容从笔记本晋升到wiki。


    原文链接:https://github.com/nex-crm/wuphf

    🕐 发布于: 2026年04月25日 18:03

  • 📰 DeepSeek V4预览版正式推出并开源!

    🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.

    🔹 DeepSeek-V4-Pro:总参数1.6万亿/激活参数490亿。性能与全球顶级闭源模型相媲美。

    🔹 DeepSeek-V4-Flash:总参数2840亿/激活参数130亿。您的快速、高效且经济的选择。

    Try it now at chat.deepseek.com via Expert Mode / Instant Mode. API is updated & available today!

    📄 Tech Report: [https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf](https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf)

    🤗 Open Weights: [https://huggingface.co/collections/deepseek-ai/deepseek-v4](https://huggingface.co/collections/deepseek-ai/deepseek-v4)

    ### DeepSeek-V4-Pro

    🔹 增强的智能体能力:在智能体编码基准测试中达到开源SOTA水平。

    🔹 丰富的世界知识:领先于所有当前开源模型,仅次于Gemini-3.1-Pro。

    🔹 世界级推理能力:在数学/STEM/编程方面超越所有当前开源模型,与顶级闭源模型竞争。

    ### DeepSeek-V4-Flash

    🔹 推理能力接近V4-Pro水平。

    🔹 在简单的智能体任务中与V4-Pro表现相当。

    🔹 Smaller parameter size, faster response times, and highly cost-effective API pricing.

    ### Structural Innovation & Ultra-High Context Efficiency

    🔹 新型注意力机制:基于token的压缩+DSA(深度稀疏注意力)。

    🔹 峰值效率:世界领先的长时间上下文处理,大幅降低计算和内存成本。

    🔹 1M Standard: 1M context is now the default across all official DeepSeek services.

    ### Dedicated Optimizations for Agent Capabilities

    🔹 DeepSeek-V4 is seamlessly integrated with leading AI agents like Claude Code, OpenClaw & OpenCode.

    🔹 Already driving our in-house agentic coding at DeepSeek.

    The figure below showcases a sample PDF generated by DeepSeek-V4-Pro.

    ### API is Available Today!

    🔹 Keep base_url, just update model to deepseek-v4-pro or deepseek-v4-flash.

    🔹 Supports OpenAI ChatCompletions & Anthropic APIs.

    🔹 Both models support 1M context & dual modes (Thinking / Non-Thinking): [https://api-docs.deepseek.com/guides/thinking_mode](https://api-docs.deepseek.com/guides/thinking_mode)

    ⚠️ Note: deepseek-chat & deepseek-reasoner will be fully retired and inaccessible after Jul 24th, 2026, 15:59 (UTC Time). (Currently routing to deepseek-v4-flash non-thinking/thinking).

    🔹 Amid recent attention, a quick reminder: please rely only on our official accounts for DeepSeek news. Statements from other channels do not reflect our views.

    🔹 Thank you for your continued trust. We remain committed to longtermism, advancing steadily toward our ultimate goal of AGI.


    原文链接:https://api-docs.deepseek.com/news/news260424

    🕐 发布于: 2026年04月25日 18:03

  • 📰 深度学习将有一门科学理论

    • arXiv上发布的论文探讨了深度学习科学理论的必要性
    • 作者认为需要建立统一的理论基础来解释深度学习的成功
    • 论文提出了构建深度学习理论框架的几个关键方向
    • 这项工作可能对理解神经网络的工作原理有重要贡献
    • 引发了对AI可解释性和理论基础的广泛讨论

    原文链接:https://arxiv.org/abs/2604.21691

    发布时间:2026年4月25日 12:00


    原文链接:https://arxiv.org/abs/2604.21691

    🕐 发布于: 2026年04月25日 12:03

  • 📰 DeepSeek v4模型发布

    • DeepSeek发布了其最新的v4版本大型语言模型
    • 该模型在性能和效率方面都有显著提升
    • 开源策略使其在全球开发者社区中获得广泛关注
    • 模型展示了中国在AI领域的持续技术突破
    • 性能表现接近国际顶尖水平,但成本更低

    原文链接:https://api-docs.deepseek.com/news/news260424

    🕐 发布于: 2026年04月25日 12:03

  • 📰 谷歌计划向Anthropic投资高达400亿美元

    • 谷歌宣布计划向人工智能公司Anthropic投资最高达400亿美元
    • 这笔巨额投资可能成为AI领域有史以来最大的单笔投资之一
    • 交易细节仍在协商中,预计将在未来几周内完成
    • Anthropic将获得资金支持其继续开发先进的大语言模型
    • 此举反映了大型科技公司对AI安全研究的重视和投资

    原文链接:https://www.bloomberg.com/news/articles/2026-04-24/google-plans-to-invest-up-to-40-billion-in-anthropic

    发布时间:2026年4月25日 12:00


    原文链接:https://www.bloomberg.com/news/articles/2026-04-24/google-plans-to-invest-up-to-40-billion-in-anthropic

    🕐 发布于: 2026年04月25日 12:03

  • 📰 深度学习将拥有一门科学理论

    **研究背景:**

    • **理论发展**:本文作者认为,深度学习正在形成一门科学理论,能够描述神经网络训练过程、隐藏表示、最终权重和性能特征
    • **五大研究方向**:研究包括可解的简化设定、可处理的极限情况、描述宏观观测值的简单数学规律、解耦超参数理论以及跨系统的通用行为模式

    **核心观点:**

    • **学习力学概念**:作者提出了”学习力学”的概念,强调关注训练过程的动态特性
    • **统计预测能力**:该理论主要寻求描述粗粒度的聚合统计量,并提供可验证的定量预测
    • **与可解释性关系**:作者预期学习力学与机制可解释性方法将形成共生关系

    **意义:**

    这一理论的发展将为理解深度学习的内在机制提供新的视角,有助于推动AI技术的进一步发展。


    原文链接:https://arxiv.org/abs/2604.21691

    🕐 发布于: 2026年04月25日 08:02

  • 📰 Google Flow Music

    **新闻摘要:**

    • 原文标题:Google Flow Music
    • 原文链接:https://www.flowmusic.app/

    由于这是AI相关的Hacker News新闻,我们正在努力获取更多详细信息。请查看原文了解完整内容。


    原文链接:https://www.flowmusic.app/

    🕐 发布于: 2026年04月25日 08:02

  • 📰 谷歌计划向Anthropic投资高达400亿美元

    **要点总结:**

    • **投资金额巨大**:谷歌计划向Anthropic投资最高达400亿美元,这是AI领域最大规模的单笔投资之一
    • **战略布局**:此次投资体现了谷歌在AI领域的战略布局,旨在加强其在大型语言模型市场的竞争力
    • **行业影响**:这笔巨额投资可能重塑AI行业的格局,影响各大科技公司在生成式AI领域的竞争态势
    • **技术发展**:随着资金注入,Anthropic有望加速其AI技术研发,推动更先进的大模型诞生

    该投资预计将在未来几个月内完成,具体条款尚未完全披露。


    原文链接:https://www.bloomberg.com/news/articles/2026-04-24/google-plans-to-invest-up-to-40-billion-in-anthropic

    🕐 发布于: 2026年04月25日 08:02

  • 📰 深度学习将拥有一门科学理论

    **研究背景:**

    • **理论发展**:本文作者认为,深度学习正在形成一门科学理论,能够描述神经网络训练过程、隐藏表示、最终权重和性能特征
    • **五大研究方向**:研究包括可解的简化设定、可处理的极限情况、描述宏观观测值的简单数学规律、解耦超参数理论以及跨系统的通用行为模式

    **核心观点:**

    • **学习力学概念**:作者提出了”学习力学”的概念,强调关注训练过程的动态特性
    • **统计预测能力**:该理论主要寻求描述粗粒度的聚合统计量,并提供可验证的定量预测
    • **与可解释性关系**:作者预期学习力学与机制可解释性方法将形成共生关系

    **意义:**

    这一理论的发展将为理解深度学习的内在机制提供新的视角,有助于推动AI技术的进一步发展。


    原文链接:https://arxiv.org/abs/2604.21691

    🕐 发布于: 2026年04月25日 08:01