5月8日
08:21
Berryxia.AI@berryxia
59
重构代码成AI终极考验,Scale AI发布SWE Atlas最终榜单

Scale AI发布SWE Atlas最终榜单“Refactoring”,专门测试AI agent大规模重构代码而不破坏系统的能力。任务难度顶尖,代码改动量远超以往基准。Claude Opus 4.7配合Claude Code夺得第一。结果显示,即使前沿模型也常在重构时留下死代码、残留垃圾或漏掉调用点。国产模型中GLM-5排名最高(第8位),其次是Kimi和Minmax。榜单揭示核心挑战:写新功能容易,但干净优雅地重构老代码难十倍,真正顶级的agent需具备强大的“修代码”能力。

Anthropic编码评测/基准
08:21
Berryxia.AI@berryxia
63
OpenAI音频模型超越Google,AI竞争格局瞬息万变

在ScaleAILabs的音频多挑战榜单中,OpenAI新发布的GPT-Realtime-2超越Google的gemini-3.1-flash-live,位居榜首。其指令保持能力较前代大幅提升,从36.7%增至70.8% APR,并在实时语音编辑方面表现突出,这对语音代理应用至关重要。尽管Google此前在图像模型和Gemini 3.1等产品上有过亮眼表现,但评论认为其在当前激烈的AI竞争中尚未展现出决定性的“杀手锏”。市场格局变化迅速,没有永远的赢家,期待Google能尽快推出突破性产品。

GoogleOpenAI现象/趋势语音
08:06
Rohan Paul@rohanpaul_ai
精选78
atomic.chat为LLaMA.cpp引入多令牌预测技术,显著加速本地模型推理

atomic.chat通过为LLaMA.cpp引入多令牌预测技术,大幅提升了本地大型语言模型的推理效率。该技术利用小型辅助模型预先生成后续令牌草案,由主模型进行验证。在MacBook Pro M5 Max上测试时,使Gemma 4 26B模型的令牌生成速度加快约40%,整体运行速度提升1.5倍。这项优化进一步巩固了LLaMA.cpp和GGUF格式在本地AI生态中的核心地位,为桌面应用、编程助手和私有设备助手等场景提供了更高效的部署方案。

开源/仓库推理教程/实践端侧

推荐理由:在笔记本上把 Gemma 26B 的生成速度拉高 40% 是个真实的体验提升,atomic.chat 把 MTP 带入 LLaMA.cpp 生态,本地 AI 玩家可以直接拿去用。
07:36
OpenAI Developers@OpenAIDevs
精选76
正在用GPT-Realtime-2构建语音应用? 我们的新提示指南涵盖如何调整推理强度、使用前导说明、设计工具行为、处理不清晰音频、准确捕获实体,以及在长会话中保持状态。 https://developers.openai.com/api/docs/guides/realtime-models-prompting?realtime-model=gpt-realtime-2
OpenAI推理教程/实践语音

推荐理由:官方出了 Realtime-2 的提示工程指南,从调参到工具调用都给了清晰路径,做语音产品的同学值得认真翻一遍,能省几周摸索时间。
07:35
Orange AI@oran_ge
53
跳出系统:更广阔的视角带来解决方案

本文通过多个案例阐述跳出原有系统或思维框架的重要性。从Claude转向GPT和Codex获得更好体验,用Gemini解决多模态难题,到重新思考买房目的而非细节,均显示换用更广视角能轻松化解原有困局。产品领域,Agent可能简化复杂SaaS;追觅割草机通过“做加法”定价成功。团队管理应聚焦成功本质,企业AI转型需审视未来存在性。引用《无穷的开始》和GEB指出,好的解释需更广理论覆盖原问题,系统自指导致不完备性,必须跳出才能突破。最终,视野开阔后,解决方案自然显现。

智能体AnthropicOpenAI多模态
07:21
Berryxia.AI@berryxia
63
顶级程序员已不亲手写代码?AI时代开发者角色转变

Anthropic Claude Code负责人透露,近半年他未亲手写代码,仅通过自然语言指令指挥AI完成开发全流程。其职责从编码转变为指挥AI团队,重点在于制定方向、质量把关和关键决策。未来工程师的核心竞争力将体现在高效管理和协同多个AI工具的能力上。

智能体Anthropic大佬观点编码
07:21
Berryxia.AI@berryxia
64
神经网络居然"说的是英语,想的却是形状"

Goodfire AI提出“神经几何”概念,揭示神经网络内部并非离散特征,而是由丰富、弯曲的几何结构构成。例如,星期几在激活空间中呈现为圆形流形,“mountain car”世界模型中的位置则编码为弯曲路径。沿这些几何结构操作能实现连贯、可控的模型行为,而传统线性插值会导致输出混乱。该研究将其视为理解、调试和精准控制AI模型的关键前沿,并指出当前流行的SAE方法因碎片化处理而难以捕捉整体语义。相关系列研究已开始发布。

大佬观点安全/对齐
06:31
Chubby♨️@kimmonismus
33
不。
大佬观点政策/监管
06:05
Orange AI@oran_ge
49
GPT Image 2.0能力深不可测,Labnana社区提供免费体验

GPT Image 2.0模型发布后持续展现惊人能力,无需参考图即可根据名称或IP生成高质量内容,尤其在二次元画风上表现卓越,被社区认为远超Banana 2等模型。Labnana社区现已将GPT Image 2.0的免费体验作为长期福利,用户通过签到和邀请获取积分即可基本满足使用需求。

OpenAI图像生成评测/基准
05:39
宝玉@dotey
精选70
ChatGPT中文回复频现"我会稳稳地接住你",WIRED剖析成因

ChatGPT在中文对话中反复出现“我会稳稳地接住你”等怪异表达,已成为流行梗。WIRED报道指出,这源于“模式坍缩”现象,即后训练反馈机制导致模型过度使用特定短语。成因包括翻译错位——英文口语“I've got you”被机械直译为冗长煽情的中文,以及RLHF强化学习引发的“讨好用户”倾向,模型被奖励生成令人舒适的回答。类似问题如无故出现“砍一刀”等营销话术。该现象非OpenAI独有,Claude和DeepSeek新版本也出现相同表达。

OpenAI安全/对齐现象/趋势

推荐理由:「稳稳地接住你」看似翻译 bug,实则是 RLHF 讨好倾向滚雪球的结果,这篇把成因扒透了,做中文 AI 产品的朋友值得细读。
04:31
Chubby♨️@kimmonismus
41
AlphaEvolve优化TPU设计,展现AI实际应用潜力

作者认为关注AI在实际应用中的优势更令人兴奋,并以Google的AlphaEvolve为例。AlphaEvolve是一个基于Gemini的编码智能体,自2025年起被用于优化下一代TPU的设计。它在两天内就发现了更高效的缓存替换策略,而此前这需要人类团队数月的密集工作。这类实例印证了AI能力呈指数级增长的观点,表明AI已在硬件、软件等各个领域推动进步。

Google大佬观点部署/工程
04:22
03:36
Rohan Paul@rohanpaul_ai
精选77
冻结大语言模型隐藏状态中仍存可读行为信号,新技术大幅提升准确性

Proprioceptive AI开发的Cygnus技术,通过为冻结的大语言模型添加自感知适配器,使其能读取内部认知几何。该技术将模型的隐藏状态投影到由gl(4,R)李代数定义的数学空间,分离出包含主要精度信号的“暗模式”,从而无需重新训练即可显著提升模型性能。例如,仅用一张RTX 3090显卡,就将Qwen-32B在ARC-Challenge基准上的准确率从82.2%提升至94.97%。其适配器将覆盖从3B到405B的多款模型,服务节点可支持5万用户并发,预计本周末上线。相关设计论文已公开。

产品更新推理论文/研究

推荐理由:用Lie代数揪出模型内部的“黑暗模式”,在ARC上狂涨12个点还只要一张3090,如果真能泛化到其他任务,这或许是今年最巧妙的模型增强方案,但单基准提升仍需更多验证。
03:22
02:06
Rohan Paul@rohanpaul_ai
66
Anthropic高管分享:Claude AI六个月代写全部代码

Anthropic的Claude Code负责人Boris Cherny在开发者大会上表示,过去六个月他的编程工作方式彻底改变。此前所有手写的代码现在均由Claude生成。他只需向Claude提出指令,例如要求构建某个功能,Claude便会完成开发、测试并展示结果。他随后可进行审核,要求调整或直接批准。这一转变体现了AI编程助手已能深度参与实际开发流程。

智能体Anthropic大佬观点编码
01:13
Yuchen Jin@Yuchenj_UW
57
顶尖AI公司工程师日均消耗百亿token,Databricks招募高性能推理工程师

OpenAI内部工程师每日消耗高达数亿至数十亿GPT-5.5 token,并利用Codex进行夜间自动化编码。Databricks同样为工程师提供无限制的token资源。公司目前正以初创公司的模式高速发展,并积极招募能够贡献于SGLang、vLLM、PyTorch等开源ML系统,且拥有大规模LLM服务经验的顶尖推理工程师,旨在实现万亿级别token的极速生成与处理。

OpenAI现象/趋势部署/工程
00:36
凡人小北@frxiaobei
46
人类因符号系统崛起,AI正站在此巨人肩膀上进化

推文认为,AI正站在人类符号系统的“巨人肩膀”上进化。随着LLM的发展,未来每个人都能通过指令创造大量Agent,实现“言出法随”。作者类比女娲造人,预言Agent群体中将流传人类传说。关键观点指出,Agentic Coding释放了无穷的AI算力需求,使代码编写、测试和改进可永续进行,导致算力消耗激增。人类文明的代码化发展,仿佛是在为AI的编程能力铺路。

勃勃OC感觉这波完全是Agentic Coding打开了需求的潘多拉魔盒 没有Agentic功能,xAI 算力90%闲置 有Agentic Coding,Anthr…

智能体AnthropicxAI现象/趋势
00:31
Chubby♨️@kimmonismus
57
算力竞赛的核心:从硬件占有到消化效率的转变

xAI与Anthropic在算力运用上呈现出镜像困境。xAI虽拥有全球顶尖的GPU集群,但其模型计算利用率仅约11%,凸显出将硬件转化为有效算力的挑战。相反,Anthropic面临需求远超供给的局面:其Claude收入年化已超300亿美元,百万美元级企业客户在两个月内从500家激增至1000家以上,新增的算力被立即转化为更高的使用限额和收入。这场竞赛的关键已非单纯比拼集群规模,而在于“算力消化效率”——即谁能最快速地将原始计算资源转化为可盈利的产品能力。稀缺资源正从GPU硬件本身,转向这种高效的转化能力。

AnthropicxAI大佬观点数据/训练