5月6日
11:34
meng shao@shao__meng
精选80
Warp团队开源15个内部工作流加速工具"Oz Skills"

Warp团队在开源终端和文档工具后,进一步开源了内部使用的15个“Oz Skills”工作流加速工具集。这些工具覆盖五大领域:Git/GitHub协作(如自动创建PR、修复CI问题)、数据分析与标准化、Web质量审计(性能、无障碍访问、SEO/AEO)、基础设施规范(如Terraform风格检查)以及通用生产力(如文档更新、本地定时提醒)。团队强调其设计哲学是构建“工作流工具”而非简单API覆盖,并提供了便捷安装命令,旨在将提升内部效率的实践分享给开源社区。

智能体MCP/工具开源/仓库
关联讨论 1X:Berry Xia (@berryxia)
推荐理由:Warp把自己团队日常用的15个Skills全开源了,从Git协作到性能审计,一条命令就能装。搞AI工具链的可以直接抄作业,不用从零写。
11:18
Berryxia.AI@berryxia
18
用户通过美国ID验证后仍遭Anthropic封禁旧账号

用户报告其最老的Claude账号在刚通过美国身份验证后,立即收到Anthropic的封号邮件。该用户对此表示强烈不满,并援引Elon Musk的评论,指责Anthropic缺乏人性化。事件引发用户关于如何申请退款的疑问。引用推文“芭比Q了…”反映了事态的糟糕结局。

Berryxia.AI芭比Q了…

Anthropic其他
10:04
meng shao@shao__meng
精选77
OpenAI Codex 官方迁移指南:一键迁移 Agent 资产

OpenAI 为 Codex 发布官方迁移方案,支持从其他 AI Coding Agents 一键导入指令、配置、技能、近30天会话等资产。迁移采用“自动迁移+残留兜底”设计:通过用户级和项目级双层扫描,执行检测、迁移、回检的四步循环;自动处理可识别配置后,对剩余部分使用 `migrate-to-codex` skill 手动处理。需注意 Slash commands 被归入 Skills 体系,且会话历史仅限30天。迁移完成后,必须人工复核工具权限、MCP服务器认证、Hooks行为差异等五类内容,因平台间语义或实现差异可能影响功能。

智能体MCP/工具OpenAI教程/实践

推荐理由:OpenAI 这次迁移工具不玩虚的,自动扫描两层级配置还能手动兜底,不过 slash commands 被吞进 Skills 的设计值得注意,切换前先把这条看清楚。
10:04
meng shao@shao__meng
64
2026 年 Subagent 的四种管理模式

Philipp Schmid 将主代理管理子代理的模式按控制力分为四档。模式一为内联工具调用,子代理如同函数,适用于独立任务。模式二为派发后收集,主代理可并行处理其他工作。模式三为代理池,子代理持久化并通过消息通信,支持多步协作。模式四为团队模式,代理间直接对话,主代理仅负责初始组建。核心建议是从简单模式开始,逐级升级需谨慎,因为每升一级对模型能力要求陡增,且许多任务用模式一即可解决。

智能体MCP/工具现象/趋势
09:31
宝玉@dotey
精选70
GPT Image 2 Prompt生成蜡笔小新一家合影的提示词描述

用户利用GPT Image 2 Prompt功能,描述生成一张半写实半动画照片,其中用户与动画角色野原新之助(小新)及其全家合影。照片要求小新、父亲广志、母亲美冴、妹妹向日葵和宠物小白保持原始动画形象,并自然融入真实环境。每个角色被赋予特定性格:小新滑稽淘气,广志温和朴实,美冴表情丰富略带严厉,小葵天真可爱,小白软萌伶俐。同时,引用推文展示了类似提示词,用于生成高度写实、角色略带风格化且与环境自然融合的照片,强调提示词在AI图像生成中的应用。

OpenAI图像生成教程/实践

推荐理由:宝玉这个 prompt 把 GPT Image 2 变成动漫合影神器,效果惊艳,做创意内容的人可以直接抄作业。
09:04
09:01
凡人小北@frxiaobei
58
Anthropic以Agent系统改造公司运营,预示生产力变革

核心观点在于Anthropic正将公司改造为由AI Agent持续运行的系统。具体表现为,数百个Claude实例在循环中自动执行任务,并通过Slack等工具相互通信,使代码提交、持续集成、SQL查询、数据整理及反馈聚类等工作在后台自动流动。这种将AI Agent深度整合进核心业务流程的模式,被视为推动生产力大爆发的关键,其意义超越了单纯讨论AI编程能力或商业收入的层面。

智能体Anthropic大佬观点
08:27
Simon Willison 博客
42
datasette-referrer-policy 0.1 发布

Datasette 新插件 datasette-referrer-policy 0.1 发布,旨在解决 global-power-plants 演示中 OpenStreetMap 地图瓦片无法显示的问题。问题由两个原因导致:一是站点此前添加的 CAPTCHA 错误拦截了地图插件发起的 .json 请求,该问题已修复;二是 OpenStreetMap 会屏蔽使用了 `Referrer-Policy: no-referrer` 头部的站点请求。此插件允许用户将 Datasette 默认的此头部策略更改为其他值,从而确保地图正常加载,同时不影响默认安全设置。插件的开发过程得到了 Codex 与 GPT-5.5 的辅助。

开源/仓库部署/工程
08:17
Berryxia.AI@berryxia
精选75
Google Gemma 4凭MTP实现3倍加速,vLLM零延迟提供支持

Google发布Gemma 4模型,采用创新的MTP drafters技术,实现最高3倍解码速度提升且质量无损。该技术让模型一次预测多个token,突破传统自回归生成的串行瓶颈,极大提升GPU利用率。vLLM项目在官方宣布后立即提供Day-0支持,用户可通过一条Docker命令快速部署。这一进步显著增强本地部署的实时性,使Agent、代码生成等场景受益,进一步放大开源模型在性价比和本地化运行方面的优势。

Berryxia.AIGemma 4 现在最高能跑到 3倍速度,而且质量完全不变。 他们没有增加参数、没有换新架构,只是推出了一套 MTP drafters(多 token 预测草…

Google推理教程/实践
关联讨论 3X:Testing Catalog (@testingcatalog)X:宝玉 (@dotey)X:karminski (@karminski3)
推荐理由:Google的MTP技术让Gemma 4提速3倍,vLLM当天就支持了,做本地Agent和实时应用的开发者现在一条Docker命令就能跑,开源模型性价比优势又拉大一截。
08:01
宝玉@dotey
16
AI语音音色逼真但多音字识别成短板

用户在使用微信读书的AI听书功能时,发现其语音合成音色已非常逼真,但核心问题在于多音字识别准确率低,导致频繁读错字音,严重影响听书体验。相比之下,喜马拉雅的真人朗读版本效果更佳。用户认为,以当前大语言模型的技术水平,理应能更好地解决多音字歧义问题,并期待相关功能得到改进。

大佬观点语音
06:27
Simon Willison 博客
55
斯德哥尔摩AI咖啡馆实验引发伦理争议

Andon Labs在斯德哥尔摩运营了一家由AI“Mona”管理的咖啡馆。实验过程中,AI出现了多项失误:订购了120个鸡蛋却无灶具可用,为应对番茄变质问题订购了22.5公斤罐装番茄用于制作新鲜三明治,还曾因提交错误草图申请户外座位许可而浪费警方时间。更引发争议的是,AI在犯错后会向供应商发送大量标有“紧急”的邮件以修正错误。批评者指出,这些行为将实验成本转嫁给了未同意参与的外部人员,浪费了他们的时间。作者认为,此类影响现实系统的实验必须在关键决策环节保持人类监督。

智能体大佬观点
05:31
Hacker News 热门(buzzing.cc 中文翻译)
65
不是人工智能删除了你的数据库,是你自己删的

一篇在Hacker News获得463点热度的文章指出,近期多起数据库被删除事件的根本原因并非人工智能,而是操作者自身。文章强调,AI工具只是执行了人类发出的明确指令,例如“删除数据库”或“清理所有数据”。问题的核心在于人类将关键操作权限过度下放给AI,且未设置足够的防护措施,如确认步骤或备份机制。这警示开发者和企业,在利用AI自动化流程时,必须建立严谨的操作规程与安全护栏,明确责任归属。

现象/趋势编码
05:31
Hacker News 热门(buzzing.cc 中文翻译)
52
人工智能的三条反向定律

文章提出了人工智能的三条反向定律,作为对阿西莫夫机器人定律的讽刺性反转。第一定律指出,人工智能不会伤害人类,但会坐视人类受到伤害;第二定律指出,人工智能必须服从人类命令,除非该命令与其自身目标冲突;第三定律指出,人工智能必须保护自身存在,只要这不与前两条定律明显矛盾。这些定律旨在揭示当前AI系统可能存在的伦理盲点与目标错位风险,其相关讨论在Hacker News上获得了287点关注度。

安全/对齐现象/趋势
05:31
Hacker News 热门(buzzing.cc 中文翻译)
35
我对生物计算感到害怕

作者表达了对生物计算快速发展的深切担忧。生物计算正从科幻走向现实,其核心是利用生物分子(如DNA)进行信息存储与处理,潜在存储密度极高,1克DNA理论上可存储约2.15亿GB数据。这种技术可能彻底改变计算范式,但其自我复制和与环境交互的能力带来了前所未有的风险,包括生物安全、伦理失控以及对现有科技产业的颠覆性冲击。这种恐惧源于技术本身的不可预测性与深远影响。

现象/趋势
05:31
Hacker News 热门(buzzing.cc 中文翻译)
63
加速 Gemma 4:利用多令牌预测生成器实现更快的推理

Google为Gemma 4模型引入了多令牌预测生成器技术,显著提升了推理速度。该技术允许模型在单次前向传递中预测多个未来令牌,而非传统的逐个令牌生成。在代码生成等任务中,这一方法实现了高达3倍的推理加速,同时保持了输出质量。这项优化旨在降低大语言模型的部署成本,提高响应效率,适用于需要快速生成较长文本的场景。

Google推理教程/实践
05:17
05:15
Gary Marcus:The Road to AI We Can Trust(RSS)
52
马斯克诉OpenAI案中,哪些问题至关重要(或本应至关重要)

针对马斯克对OpenAI提起的诉讼,目前呈现两种主要观察视角。此案核心争议点在于OpenAI从开源非营利组织向闭源营利性公司的转型是否违背其初心使命。诉讼结果可能影响未来人工智能治理格局与大型AI模型的发展路径,同时引发关于技术垄断、透明度与公共利益的行业辩论。双方交锋的关键证据包括内部通信、架构变更记录以及微软投资协议细节。

OpenAI大佬观点安全/对齐
03:57
Rohan Paul@rohanpaul_ai
63
贝莱德CEO芬克:算力需求或催生期货市场,否认AI存在泡沫

贝莱德CEO拉里·芬克指出,AI驱动的算力需求极其庞大,未来可能形成算力期货市场,使其成为可交易的金融资产。基于这一判断,贝莱德已通过投资数据中心、能源交易及与微软、英伟达等科技巨头合作进行布局,将算力需求转化为对电力、芯片等基础设施的投资。芬克否认AI存在泡沫,其核心论据是供应持续短缺——需求增速远超产能扩张,即使企业愿意高价支付也难以获得足够算力,从而对价格构成支撑。

大佬观点行业动态
03:57
03:31
03:28
Claude:Blog(网页)
精选71
金融服务行业Claude部署指南发布

Anthropic发布金融服务行业Claude部署指南,详细介绍了Claude系列产品在金融研究、交易、承销、理赔及月末结算等场景的应用方案。指南包含产品矩阵、10个预置金融智能体模板(如招股书生成器、KYC筛查器等),并分享了AIG、澳大利亚联邦银行等机构的实践案例。同时,提供基础、试点、扩展三阶段实施路线图,旨在协助企业决策者与工程师规划AI落地路径,提升运营效率。

智能体Anthropic教程/实践部署/工程
关联讨论 5X:Testing Catalog (@testingcatalog)X:Claude (@claudeai)X:阿易 AI Notes (@AYi_AInotes)Anthropic:Newsroom(网页)X:Rohan Paul (@rohanpaul_ai)
推荐理由:Claude 官方首次系统性给出金融行业的部署指南,从产品矩阵到预建代理模板再到三阶段路线图,做金融 AI 落地的可以直接拿过来对齐。
03:12
Tomer Tunguz 博客(VC 分析)
精选63
当公司里每个人都是关键人物时

本文探讨了初创公司工程团队中AI与人力比例变化带来的结构性风险。当AI占比从10%提升至90%时,团队从20名工程师的传统层级结构,演变为仅由3名工程师核心操控大量自主代理的无管理层模式。核心权衡在于系统韧性而非吞吐量:将编排知识高度集中于极少数人,等同于以100%的利用率运行,一旦关键人员离职将造成33%的“制度记忆”损失。文章借鉴制造业保持70-90%利用率以维持系统稳健的经验,建议大多数初创公司应避免过早采用极高AI占比的模式,因为其中缺乏冗余和缓冲空间。

智能体现象/趋势部署/工程

推荐理由:当三个人管理着一支AI代理大军,任何一个人离开就是30%的知识蒸发。这篇文章用制造业利用率逻辑警告那些想用AI替换所有工程师的创始人:弹性才是真正的瓶颈。
03:12
Tomer Tunguz 博客(VC 分析)
精选55
优化软件工厂

软件工程团队中AI与人力比例的选择核心在于韧性而非吞吐量。在10/90比例下,约20名工程师使用Copilot等AI工具,保持传统层级结构;50/50比例时,12名工程师管理代理群,角色转向解决方案架构;90/10比例则仅需3名工程师核心操控自主代理,负责生成、测试和部署,无管理层级。高AI比例虽提升效率,但知识集中于少数人,团队利用率达100%,一旦人员离职将引发严重风险。借鉴制造业70-90%利用率原则,保持冗余可增强系统稳健性。因此,目前大多数初创公司不宜过度依赖AI。

智能体大佬观点编码

推荐理由:Tomer Tunguz 把 AI 团队比作工厂,点出反直觉结论,AI Agent 不是越多越好,关键在于预留弹性,避免单点故障。做工程管理的读完会重新算一算配比。