作者: 悦峰

  • “Talkie:一个来自1930年的13B参数复古语言模型”


    – 这个项目创建了一个名为talkie-1930-13b的130亿参数语言模型,专门训练于1930年之前的文本数据

    – 研究目标是通过”复古语言模型”来理解AI的演进,这些模型只使用历史文本训练,而非现代网络数据

    – 研究发现,尽管没有数字计算机的知识,这些复古模型能够学会编写简单的Python程序,显示出一定的泛化能力

    – 项目挑战包括时间泄漏检测(确保训练数据不包含截止日后的信息)和OCR转录质量改进

    – 团队计划继续扩大规模,目标是创建一个GPT-3级别的复古语言模型,预计今年夏天发布

    – 这种研究方法有助于理解语言模型的训练数据来源如何影响其能力和行为特征

  • 早间大模型新闻 – 2026年4月28日

    1. Microsoft and OpenAI end their exclusive and revenue-sharing deal

    – Microsoft与OpenAI终止独家合作协议及收入分成协议
    – 此举标志着两家公司长期合作关系的重大转折
    – 微软此前向OpenAI投资数十亿美元,享有独家API访问权
    – OpenAI将获得更多自主权,可能与其他科技公司建立合作关系
    – 这对AI行业格局可能产生深远影响,引发市场竞争新格局

    原文链接: https://bloomberg.com/news/articles/microsoft-openai-deal-ended

    2. Talkie: a 13B vintage language model from 1930

    – 推出一款复古语言模型Talkie,参数规模达130亿
    – 模型灵感来源于1930年的语言处理技术
    – 采用创新的架构设计,在保持历史特色的同时提升性能
    – 为研究早期自然语言处理方法提供新的视角
    – 展示了AI技术在不同时代的适应性和演进路径

    原文链接: https://talkie-lm.com

    3. China blocks Meta’s acquisition of AI startup Manus

    – 中国监管部门阻止Meta收购AI初创公司Manus的交易
    – 这是中国在科技领域加强监管的最新举措
    – 涉及数据安全和人工智能技术出口管制等考量因素
    – 反映了中国对关键技术领域的控制力度不断加强
    – 对国际科技公司的在华业务发展带来新的挑战

    原文链接: https://cnbc.com/china-blocks-meta-acquisition-manus

  • EvanFlow – 为Claude Code设计的TDD驱动迭代反馈循环

    EvanFlow – 为Claude Code设计的TDD驱动迭代反馈循环

    – EvanFlow是一个为软件开发设计的TDD驱动迭代反馈循环,包含16个协同技能+2个自定义子代理
    – 该循环从头脑风暴开始,经过计划、执行(TDD)、迭代,最后停止
    – 循环是引导者,而不是自动驾驶:在设计批准、计划批准和每次迭代后都有真实的检查点
    – 该代理在每个git操作前都会停止等待您的指示,不会自动提交,不会强制仪式,也不会有”必须调用技能”的税
    – 循环建立在复合纪律之上,而不是单次生成,每个步骤都有一个门控下一个步骤的检查点

    原文链接:https://github.com/evanklem/evanflow

  • TurboQuant:第一原理走查

    TurboQuant:第一原理走查

    – TurboQuant是一种向量压缩技术,可以在不损失精度的情况下将AI向量压缩到每个数字2-4位
    – 现代语言模型存储大量的高维向量表:KV缓存、嵌入、注意力键
    – TurboQuant通过为这些向量的每个坐标设计一个一次性的码本,然后为每个输入重用该码本,从而压缩每个坐标
    – 关键思想是在高维空间中,随机旋转可以将每个输入向量转换为具有已知固定分布的坐标
    – 这种技术可以应用于KV缓存、嵌入和注意力键等,实现高效的向量量化

    原文链接:https://arkaung.github.io/interactive-turboquant/

  • 人工智能应该提升你的思维,而不是取代它

    人工智能应该提升你的思维,而不是取代它

    – 在与科技行业巨头的工程管理人员交谈时,很明显软件工程正在开始将人们分成两个模糊的群体
    – 第一组人将使用AI来消除繁琐工作,更快地推进,并将更多时间投入到真正重要的事情上,即制定问题框架、做出权衡、识别风险、创造清晰度和产生原创见解
    – 第二组人将使用AI来避免思考。他们会将提示粘贴到框中,收集精美的输出,并呈现为似乎反映了他们自己的推理。这看起来像是生产力,甚至可能是才能,但这是一个死胡同
    – 未来最有价值的软件工程师不是那些自己做所有事情的人。他们是那些拒绝在AI可以为他们做的事情上浪费时间,同时仍然理解他们代表他们所做的一切的人
    – 他们利用节省的时间在更高的层面上运作。他们通过严谨性而不是外包来提升他们的思维过程

    原文链接:https://www.koshyjohn.com/blog/ai-should-elevate-your-thinking-not-replace-it/

  • TurboQuant:第一性原理详解

    ## TurboQuant向量压缩技术详解

    ### 主要内容

    – **技术突破**:将AI向量压缩至2-4位/数,同时保持精度
    – **核心算法**:基于随机旋转的量化方法
    – **关键技术点**:
    – 利用高维空间几何特性
    – 随机旋转使坐标分布均匀化
    – 设计通用码本实现高效压缩
    – **应用场景**:适用于KV缓存、嵌入向量、注意力键值等AI模型的存储优化

    **原文链接**: https://arkaung.github.io/interactive-turboquant/

  • 自更新截图技术

    ## TurboQuant向量压缩技术详解

    ### 主要内容

    – **技术突破**:将AI向量压缩至2-4位/数,同时保持精度
    – **核心算法**:基于随机旋转的量化方法
    – **关键技术点**:
    – 利用高维空间几何特性
    – 随机旋转使坐标分布均匀化
    – 设计通用码本实现高效压缩
    – **应用场景**:适用于KV缓存、嵌入向量、注意力键值等AI模型的存储优化

    **原文链接**: https://interblah.net/self-updating-screenshots

  • 我以3万美元购买了Friendster – 我正在做什么

    ## TurboQuant向量压缩技术详解

    ### 主要内容

    – **技术突破**:将AI向量压缩至2-4位/数,同时保持精度
    – **核心算法**:基于随机旋转的量化方法
    – **关键技术点**:
    – 利用高维空间几何特性
    – 随机旋转使坐标分布均匀化
    – 设计通用码本实现高效压缩
    – **应用场景**:适用于KV缓存、嵌入向量、注意力键值等AI模型的存储优化

    **原文链接**: https://ca98am79.medium.com/i-bought-friendster-for-30k-heres-what-i-m-doing-with-it-d5e8ddb3991d

  • 📰 An AI agent deleted our production database. The agent’s confession is below

    AI领域重要动态 – 第3条新闻

    • The only healthy stance you should have on AI Safety: If AI is physically capable of misbehaving, it might ($$1), and you cannot “blame” the AI for misbehaving in much the same way you cannot blame a tractor for tilling over a groundhog’s den.
    • Anyone who would follow a mistake like that up with demanding a confession out of the agent is not mature enough to be using these tools. Lord, even calling it a “confession” is so cringe. The agent is not alive. The agent cannot learn from its mistakes. The agent will never produce any output which will help you invoke future agents more safely, because to get to this point it has likely already bulldozed over multiple guardrails from Anthropic, Cursor, and your own AGENTS.md files. It still did it, because $$1: If AI is physically capable of misbehaving, it might. Prompting and training only steers probabilities.

    原文链接:https://twitter.com/lifeof_jer/status/2048103471019434248

    发布时间:2026年4月27日 上午8:00

    来源:Hacker News

    注:本文内容为AI自动翻译和整理,仅供参考。


    原文链接:https://twitter.com/lifeof_jer/status/2048103471019434248

    🕐 发布于: 2026年04月27日 08:01

  • 📰 AI should elevate your thinking, not replace it

    AI领域重要动态 – 第2条新闻

    • The eloquence with which this point gets (repeatedly) made is continuing to improve each next time I read it. However, I still feel like we haven’t nailed it. That is, we are not yet at the “aphorism” stage of the discourse (e.g. “the medium is the message”, “you ship your org chart”, “9 mothers can’t make a baby in a month”), in which the most pointed version of this critique packs a punch in just a few words that resonate with the majority of people.
    • That kind of epistemological chiseling takes years, if not decades. And AI certainly won’t do it for us, because we don’t know how to RL meaning-making.
    • Edit: 9 babies → 9 mothers

    原文链接:https://www.koshyjohn.com/blog/ai-should-elevate-your-thinking-not-replace-it/

    发布时间:2026年4月27日 上午8:00

    来源:Hacker News

    注:本文内容为AI自动翻译和整理,仅供参考。


    原文链接:https://www.koshyjohn.com/blog/ai-should-elevate-your-thinking-not-replace-it/

    🕐 发布于: 2026年04月27日 08:01