NewsletterBlogLearnCompareTopicsGlossary
English
LAUNCHTECHNIQUETOOLRESEARCHINSIGHTBUILD

23 条资讯

Claude 进驻 Microsoft Word — Anthropic 最大胆的企业级扩张

🧠 发布动态

Claude 进驻 Microsoft Word — Anthropic 最大胆的企业级扩张。

Claude for Word 开放 beta 了 — 在 Word 侧边栏里直接起草、编辑、修改文档,不用再在 Claude 和 Word 之间来回跳。3.1 万点赞不是虚的,这代表了用户对"AI 在我已有的工具里干活"的真实需求。Anthropic 这一步直接踩进了 Microsoft Copilot 的地盘,企业文档工作流的争夺战正式开打。现在就去申请 beta。(31,465 likes | 2,396 RTs) 详情 →

Mistral 发布 Magistral — 第一个专用推理模型。

Mistral 终于出手了 — Magistral 是它的第一个推理专用模型,主打领域推理、透明思维链和多语言能力。跟 OpenAI 的 o 系列和 DeepSeek-R1 正面竞争,但 Mistral 打的是差异化牌:欧洲合规定位 + 多语言优势。推理模型赛道现在三足鼎立,想用推理模型的团队选择更多了。(3,050 likes | 441 RTs) 详情 →

Devstral Small 和 Medium 发布 — 编码 Agent 有了性价比选项。 Mistral 的编码模型线正式成型,Small 和 Medium 两个规格让团队可以按需选择:跑量大的自动化用 Small 省钱,复杂推理用 Medium 保质量。跟 Codex 和 Claude Code 的直接竞争开始了。(2,301 likes | 316 RTs) 详情 →

Gemini 3.1 Flash 登顶首个靠谱的语音 Agent 基准测试。 Sierra 的 τ-Voice 排行榜是第一个有公信力的第三方语音 Agent 评测,Google 拿下了榜首。对做语音产品的团队来说,这个基准测试本身比谁赢了更重要 — 终于有了一个真正能用的评估框架。(194 likes | 12 RTs) 详情 →


🔧 开发者工具

Anthropic 开源了内部的谄媚和欺骗审计工具。

Anthropic 把用来测试 Claude 是否"拍马屁"或"说谎"的自动审计工具开源了。这不是玩具级别的 demo — 这是他们内部用在 Sonnet 4.5 上的生产级工具。任何在产品里用了大语言模型(LLM)的团队,现在都可以跑跟 Anthropic 一样的安全检查。做负责任部署的门槛刚刚降了一大截。(2,506 likes | 270 RTs) 详情 →

Claude 实时用量追踪上线。 Claude 用户最大的痛点之一解决了 — 现在可以在设置里实时看到 token 消耗明细,Claude Code 里直接打 /usage 就行。再也不用猜"我离限速还有多远"了。(2,359 likes | 157 RTs) 详情 →

Google Cloud 把整个开发者文档库变成了 MCP Server。 Developer Knowledge API 上线,意味着你的 AI 编码助手可以直接引用 Google Cloud 官方文档回答问题,而不是凭记忆瞎编 API 细节。MCP 生态又多了一个重量级数据源。(114 likes | 23 RTs) 详情 →

NotebookLM 并入 Gemini,交互式 2D/3D 可视化同步上线。 NotebookLM 集成进 Gemini 后,你可以在聊天中直接调用私有笔记本上下文 — 相当于给 Gemini 加了持久的研究记忆。交互式可视化功能则让 Gemini 变成了快速原型工具。(265 likes | 39 RTs) 详情 →


📝 技术实战

Anthropic 说"Context Engineering"是区分好 Agent 和优秀 Agent 的关键技能。

Anthropic 工程博客正式提出了"上下文工程"(Context Engineering)这个概念 — 核心是控制 Agent 在什么时候看到什么信息。这不是 prompt engineering 的马甲,而是更上一层的系统设计能力:你的 Agent 表现不好,很可能不是模型不行,而是你喂的上下文不对。Anthropic 作为模型厂商亲自下场定义这个学科,说明他们认为瓶颈已经从模型能力转移到了信息架构。(3,163 likes | 515 RTs) 详情 →

延伸阅读:如果你在用 Claude Code,hooks 完全指南展示了如何通过 hooks 机制精确控制 Agent 的上下文和行为。

Pydantic 作者的 15 分钟 MCP 大师课 — 社区等了很久的权威教程。 Samuel Colvin(Pydantic 创始人)讲了一堂 MCP 最佳实践课,1,700 多点赞说明大家有多渴望靠谱的教程。大多数 MCP 实现都在犯同样的错 — 这 15 分钟可能帮你省几天的调试时间。(1,729 likes | 220 RTs) 详情 →


🔬 研究前沿

"神经计算机"用视频生成架构模拟完整操作系统。 不是让 AI 控制真实 OS,而是训练一个视频模型从键盘和鼠标输入直接预测屏幕画面 — 用像素级模拟取代 API 调用。这是一条完全不同的 computer-use agent 路线:不需要 DOM,不需要 API,只有输入和预测帧。想法很疯狂,但思路值得研究。(741 likes | 84 RTs) 详情 →

Interconnects 呼吁建立开源模型联盟。 核心论点:单个开源实验室已经追不上前沿训练的规模了,需要像 CERN 或 Linux 基金会那样的协作机制。如果你的技术栈依赖开源模型,这篇文章帮你理解结构性挑战 — 开源 AI 不是缺技术,是缺组织。(78 likes) 详情 →

腾讯开源 HY-Embodied — 连接感知与行动的具身 AI 模型。 具身智能(Embodied AI)模型在开源领域很稀缺,腾讯这次发布的 HY-Embodied-0.5 是少数将视觉理解和物理行动桥接起来的开放权重模型。做机器人或具身 Agent 的团队值得关注。(133 likes | 582 downloads) 详情 →


💡 行业洞察

"算力泡沫"从未破裂 — 需求吃掉了供给。 半年前一堆人预测 AI 算力会严重过剩,Mollick 用数据证明这个判断错了 — 需求增长比基础设施建设还快。做基础设施投资决策的、关注 AI 股票的,需要修正预期:需求曲线比空头预测的陡得多。(1,519 likes | 163 RTs) 详情 →

Anthropic 发布首个按地区细分的 AI 使用数据。 Anthropic Economic Index 提供了各州、各国的 AI 使用详细数据 — 这是第一次有前沿实验室公开这种粒度的地理分布数据。哪些地方在真正用 AI,哪些只是在谈 AI,一目了然。对政策制定、招聘布局和市场评估都有参考价值。(2,316 likes | 301 RTs) 详情 →

经济学人:科技岗位寒冬是真的,但先别怪 AI。 《经济学人》的分析指出,科技招聘放缓主要是后零利率时代的修正,不是 AI 替代人类 — 这是对"AI 消灭工作岗位"叙事的重要数据化反驳。在科技行业的人应该读一读,有助于做更理性的职业规划。(78 likes | 58 RTs) 详情 →

Pika 让创作者从 AI 生成视频中赚钱 — 从工具到平台的转型。 Pika Labs 开放了创作者变现功能,这是第一个让用户直接从 AI 生成内容中获利的主要视频平台。商业模式从"卖工具"变成了"做平台" — 跟 YouTube 的创作者经济逻辑一样。(633 likes | 94 RTs) 详情 →


🏗️ 值得一试

27,000 篇 ArXiv 论文用开源 5B 模型 OCR 成 Markdown — 完整方案开源。 HuggingFace 演示了一套实用的大规模论文转换流水线:5B 参数的开源模型 + 16 个并行 HF Jobs + L40S GPU。模型、基础设施、数据集全部开源可复现。做学术研究工具的,直接 fork 这条 pipeline 改成自己的文档库。(819 likes | 94 RTs) 详情 →


🎓 模型小课堂

推理模型 vs. 通用大模型:Mistral 发布 Magistral 后,推理模型赛道已经有 OpenAI o3、DeepSeek-R1、Magistral 等多个玩家。那推理模型跟通用大模型到底有什么区别?核心在三点:一是显式思维链(Chain-of-Thought),推理模型会"一步步想"而不是直接给答案;二是测试时计算扩展(test-time compute scaling),模型在推理时可以花更多算力来思考更久;三是验证循环,模型会自我检查中间结果。简单说:通用模型像通才什么都能聊,推理模型像专家遇到难题会停下来认真算。选模型时,常规任务用通用模型就够,需要复杂逻辑推理、数学证明、代码分析的场景,推理模型更可靠。


⚡ 快讯

  • Claude Code 闪屏修复:加个环境变量 CLAUDE_CODE_NO_FLICKER=1 就行,长时间编码终于不闪了。(420 likes) 链接
  • LiquidAI LFM2.5-VL-450M:450M 参数的视觉语言模型,能跑在边缘设备上。(112 likes | 6.0K downloads) 链接
  • LG AI Research EXAONE 4.5-33B:韩国最大 AI 实验室发布 33B 开放权重多模态模型。(114 likes | 3.7K downloads) 链接
  • Mollick:当 AI 写得跟你一样正确,只有风格能区分你。 写作教育的重心要从逻辑和清晰度转向个人风格。(426 likes) 链接
  • Claudraband:开源的 Claude Code 增强工具,给高阶用户加了一堆官方还没有的功能。(82 likes) 链接

🎯 今日精选

Anthropic 定义"Context Engineering" — Agent 开发的瓶颈已经不是模型了:Anthropic 在工程博客里正式将"上下文工程"定义为一门学科,这个信号比听起来更重要。它意味着在 Anthropic 看来,Agent 表现好不好,关键已经不在模型能力强不强,而在于你给模型的信息架构设计得好不好 — 什么时候该让 Agent 看到什么、记住什么、忘掉什么。大多数团队还在拼命优化 prompt,但真正拉开差距的是整个上下文的工程化管理。这不是换个说法的 prompt engineering,而是更高一层的系统设计思维:你的 Agent 是"什么都往里塞"还是"精准投喂",决定了它是勉强能用还是真正可靠。对 Agent 开发者来说,这篇博文应该是本周必读。(3,163 likes | 515 RTs) 详情 →


下期见 ✌️