本文针对AI开发者提出关键观点,主张智能体技能应被视为默认不受信任的代码,而非仅凭签名或来源就推断其可信。当前运行时环境默认信任已签名技能的做法存在安全风险。论文强调,技能必须经过独立的门控验证流程才能被信任,否则,每次不可逆调用都需要人工介入,这在大规模应用中会退化为无效的“橡皮图章”式批准。将技能作为一等部署工件并引入验证流程,是借鉴软件供应链安全经验、避免技能库成为下一个攻击面的关键。论文呼吁在技能库普及前,通过严格验证建立安全基准。
AI工作正从聊天交互转向能直接操作计算机的智能体。Sai推出的新产品提供了一个由AI代理控制的远程计算机(通常是虚拟机),用户可通过手机或电脑与之交互。AI在私有远程桌面中自主操作真实应用程序,执行完整工作流。其核心突破在于手机成为真实软件工作的“遥控器”,繁重任务由后台持续运行的计算机完成。实际用例中,团队成员通过iMessage报告问题,Sai能在其虚拟机中复现问题、截图并交由Claude Code修改代码和提交PR,全程无需打开笔记本电脑,实现了在移动端发起并完成复杂工作。
Replit 宣布将作为核心技术伙伴,支持于5月9日在班加罗尔举行的AI Buildcon 2026大会。这是由Airtribe主办的旗舰AI会议,也是印度同类活动中规模最大的,预计将汇聚超过1000名开发者、创始人和产品负责人。Replit 认为印度的开发者社区是全球最具驱动力和雄心的群体之一,他们渴望打造真实产品,而此次活动正是印度下一波AI产品的诞生地。公司期待参与并支持这一充满能量的盛会。
推文指控OpenAI联合创始人Greg Brockman和Sam Altman涉嫌严重的自我交易。两人作为非营利组织OpenAI的受托人,在未向董事会(包括Elon Musk)披露个人持股的情况下,自2017年起推动OpenAI与Cerebras达成总额超200亿美元的巨额合作与贷款,导致Cerebras估值飙升并筹备IPO,使他们个人获得巨大利益。法律专家称此举可能构成“千年乃至历史上最大的盗窃”。推文呼吁媒体应关注此重大利益冲突与权力滥用,而非创始人间的琐碎纠纷。
关联讨论 2 条X:cb_doge (@cb_doge)X:阿易 AI Notes (@AYi_AInotes)NVIDIA与Span计划利用家庭未充分利用的电力容量,将住宅转变为分布式AI计算节点。其核心是配备16块NVIDIA RTX Pro 6000 Blackwell GPU和4颗AMD EPYC CPU的XFRA节点,并内置电池以确保AI负载稳定运行。该模式旨在规避传统数据中心在土地、审批和电网升级方面的扩张瓶颈。Span计划于2026年第三季度启动100个节点的概念验证,目标是从2027年起实现年容量超过1吉瓦的分布式算力网络,同时为参与家庭降低电费成本。
Coinbase宣布裁员约14%,并进行根本性运营变革。CEO指出,市场波动与AI技术深刻改变了工作方式,使最小有效工作单元从团队压缩为单人。公司正推动组织架构扁平化,将管理层级压缩至CEO/COO以下最多5层,取消纯管理岗位,并要求所有领导者同时是一线贡献者。同时,公司将围绕能管理AI智能体集群的人才重组团队,并测试融合工程、设计和产品职能的“一人团队”模式,旨在构建更精简、快速、AI原生的组织以应对未来挑战。
关联讨论 2 条X:Kim (@kimmonismus)X:宝玉 (@dotey)贝莱德CEO拉里·芬克指出,AI驱动的算力需求极其庞大,未来可能形成算力期货市场,使其成为可交易的金融资产。基于这一判断,贝莱德已通过投资数据中心、能源交易及与微软、英伟达等科技巨头合作进行布局,将算力需求转化为对电力、芯片等基础设施的投资。芬克否认AI存在泡沫,其核心论据是供应持续短缺——需求增速远超产能扩张,即使企业愿意高价支付也难以获得足够算力,从而对价格构成支撑。