Claude Code 桌面端全面重构,多会话并行终于来了
🧠 发布动态
Claude Code 桌面端全面重构,多会话并行终于来了。
等了太久的功能 — 现在你可以在一个窗口里同时跑多个 Claude 会话,侧边栏统一管理。这不是简单加个标签页:对于同时调试前端、写后端、跑测试的开发者来说,这是工作流层面的升级。不用再在终端窗口之间来回切换了,直接更新桌面端体验。(20,761 likes | 1,411 RTs) 详情 →
延伸阅读:如果你在用 Claude Code hooks 自动化工作流,多会话配合 hooks 的玩法值得探索 — Claude Code Hooks 完整指南
工程负责人确认:这就是他们自己每天在用的版本。 Felix Rieseberg(Claude Code 工程负责人)说重构是从底层为并行工作流设计的,速度也快了一截。团队自己 dogfooding — 这比任何 PR 话术都有说服力。(6,623 likes | 303 RTs) 详情 →
Gemini Robotics-ER 1.6:空间推理再升级,机器人基础模型更近一步。
DeepMind 发布 Gemini Robotics-ER 1.6,增强了具身推理和多视角理解能力。这不是实验室 demo — 目标是让机器人在真实物理环境中完成复杂任务。通用机器人基础模型的路线图越来越清晰,做机器人的团队该认真评估了。(1,577 likes | 257 RTs) 详情 →
OpenAI 发布 GPT-5.4-Cyber — 首个网络安全专用前沿模型。
OpenAI 走了一步没人走过的棋:把前沿模型专门为网络安全防御微调,通过 Trusted Access 分层访问。这件事的意义不止于安全 — 它开创了"敏感领域专用微调 + 分级授权"的模式,医疗、金融大概率会跟上。想拿到访问权限,现在就可以申请。(1,836 likes | 193 RTs) 详情 →
🔧 开发者工具
Claude Code Routines:把 Agent 变成可编程的自动化引擎。
Routines 让你通过 GitHub 事件、API 调用或定时计划触发模板化的 Claude Code Agent。这意味着 Claude Code 从一个交互式工具变成了自动化平台 — PR 提交自动 review、定时跑安全扫描、API 触发代码迁移,全都可以模板化复用。如果你还只在终端里手动用 Claude Code,该升级玩法了。(2,252 likes | 173 RTs) 详情 →
Chrome Skills:把 AI 提示词打包成一键浏览器工具。 谷歌让你把最好用的 AI 工作流封装成可分享、可复用的 Chrome 工具。Prompt engineering 从个人技巧变成了可分发的产品形态 — 在全球用户量最大的浏览器里。 详情 →
HuggingFace Kernels:发布 GPU 代码像推模型一样简单。 现在你可以在 HuggingFace Hub 上发布、版本管理和分享 GPU kernel — 高性能推理代码的分发门槛被大幅拉低。做推理优化的,这个值得关注。(1,165 likes | 159 RTs) 详情 →
Kontext CLI:给 AI 编码 Agent 配个凭证管家。 用 Go 写的凭证代理,让 AI 编码 Agent 在不暴露密钥到上下文窗口的前提下访问需要认证的服务。Agent 越来越能干活,但密钥管理一直是个坑 — 这个工具填了这个坑。(64 likes | 26 RTs) 详情 →
🔬 研究前沿
Anthropic 测试:Opus 4.6 能否加速对齐研究本身? Anthropic Fellows 做了一个递归实验 — 用 Claude Opus 4.6 来加速 AI 安全对齐研究。如果成功,安全能力就能跟模型能力一起扩展;如果失败,我们就是在造越来越强但无法驾驭的工具。这是 AI 安全领域最高风险的赌注。(1,247 likes | 142 RTs) 详情 →
几篇恶意文档就能毒化任何模型,跟规模无关。 Anthropic 与英国 AISI 和图灵研究所的联合研究表明,数据投毒攻击比想象中更容易 — 不管模型多大,少量恶意文档就能注入漏洞。在外部数据上做微调的团队,该认真审计数据来源了。(1,544 likes | 244 RTs) 详情 →
Introspective Diffusion:当扩散模型遇上语言模型。 一种新方法把扩散生成和语言模型融合在一起,让大语言模型(LLM)在生成过程中能更好地处理不确定性和自我修正。思路新颖,值得跟进。(220 likes | 42 RTs) 详情 →
📝 技术实战
Pydantic 作者的 15 分钟 MCP 大师课:大多数人都用错了。 Samuel Colvin 亲自下场纠偏 — 1,729 个赞说明社区确实需要框架创作者的权威指导。如果你在用 MCP(Model Context Protocol),花 15 分钟看完可能帮你避掉一堆坑。(1,729 likes | 220 RTs) 详情 →
💡 行业洞察
Mistral Compute:欧洲 AI 主权最实际的一步棋。 Mistral 发布欧洲 AI 基础设施计划 — 确保欧洲国家和企业可以在不依赖美国云的情况下训练前沿模型。不是口号,是真金白银的算力投入。AI 主权之争,这是目前为止最具体的动作。(2,387 likes | 330 RTs) 详情 →
Mollick:用过 Agentic 工具的人不会觉得 Mythos 网络安全能力是炒作。 Ethan Mollick 反驳 Mythos 质疑者 — 他的论点很实在:任何认真用过当前 Agent 工具的人,都会觉得大规模网络安全影响完全可信,而不是营销噱头。(647 likes | 42 RTs) 详情 →
Simon Willison:网络安全正在变成"工作量证明"。 当 AI 让攻击成本趋近于零,防御越来越需要证明你投入了计算资源 — 这从根本上改变了安全经济学的逻辑。做安全的必读。 详情 →
🏗️ 值得一试
27 工具安全 MCP 服务器:让任何 AI Agent 秒变安全分析师。 CVE 查询、EPSS 评分、CISA KEV、MITRE ATT&CK、Shodan、VirusTotal — 21 个 API、27 个工具,一个 MCP 服务器全搞定。装上之后你的 Claude 就能做安全研究了。做安全运维或渗透测试的,这个是生产力倍增器。(205 likes | 37 RTs) 详情 →
HuggingFace 用开源 5B 模型 OCR 了 27,000 篇 ArXiv 论文转 Markdown。 16 个并行任务,完整可复现的流水线。如果你手上有大量 PDF 需要结构化,直接 fork 这个 pipeline 改改就能用。(818 likes | 94 RTs) 详情 →
🎓 模型小课堂
数据投毒攻击(Data Poisoning Attacks):想象你在学做菜,食谱书里被人偷偷改了几页 — 你照着做出来的菜就会有问题,但你根本不知道食谱被动过手脚。数据投毒就是这个逻辑:攻击者在训练数据里混入少量精心设计的恶意样本,让模型在特定场景下产生错误输出。今天 Anthropic 和 AISI 的研究证明,不管模型多大,几篇恶意文档就够了。随着越来越多团队在抓取的数据或用户提交的数据上做微调,理解投毒原理 — 以及为什么"模型更大就更安全"是个错觉 — 对任何管理训练数据的人都至关重要。
⚡ 快讯
- Latent Space 本地模型权威清单:2026 年 4 月版,你的硬件能跑什么模型,看这一篇就够。 链接
- LtxVideo 2.3 LoRA:高质量图生视频,不用自己训模型就能让静态图动起来。(105 likes | 2.7K downloads) 链接
- AMD GAIA:AMD 官方本地 AI Agent 框架,A 卡用户终于有了一等公民待遇。 链接
- Anthropic 董事会新成员:诺华 CEO Vas Narasimhan 加入,AI + 医疗健康方向信号明确。(1,126 likes | 88 RTs) 链接
🎯 今日精选
Anthropic 用 Opus 4.6 加速对齐研究 — AI 安全领域最高风险的递归赌注:Anthropic Fellows 让 Opus 4.6 来做对齐研究,本质上是在赌一个递归逻辑 — 用 AI 来解决 AI 安全问题。如果这条路走通了,安全能力就能跟模型能力同步扩展,这是整个行业最优解。但如果走不通,我们就是在用越来越强大的工具去研究如何控制越来越强大的工具,而纠错窗口随着每一次能力跃升都在收窄。这不是学术讨论 — 今天同时发布的数据投毒研究证明,即使是最大的模型也有根本性的脆弱点。Anthropic 同时在做"让 AI 更强"和"让 AI 更安全"两件事,问题是这两条线能不能跑赢彼此。对整个 AI 行业来说,这个实验的结果可能比任何跑分都重要。 详情 →
下期见 ✌️