3月27日
00:00
Google Blog:AI(RSS)
Google Translate 耳机实时翻译功能登陆 iOS

Google Translate 耳机实时翻译功能正式支持 iOS,可将耳机变为个人实时翻译器。该功能同时面向 iOS 和 Android 用户扩展至更多国家。

Google产品更新语音
3月26日
23:23
23:21
Google Blog:AI(RSS)
精选
Gemini 3.1 Flash Live:让音频 AI 更自然、更可靠

Gemini 3.1 Flash Live 已上线 Google 全系产品,提供更自然、可靠的实时音频 AI 交互能力。

Google模型发布语音
关联讨论 6Google DeepMind:Blog(RSS)X:Demis Hassabis (@demishassabis)X:Gemini (@GeminiApp)X:Google DeepMind (@GoogleDeepMind)X:Sundar Pichai (@sundarpichai)Google Blog:AI(RSS)
推荐理由:Google发布Gemini 3.1 Flash Live,提升音频AI自然度与可靠性
23:00
Google Blog:AI(RSS)
Search Live 扩展至全球

Search Live 功能正式面向全球推出,覆盖所有已上线 AI Mode 的语言和地区,实现全面可用。

Google产品更新搜索
11:55
Hacker News:AI 热帖
Show HN: 基于 TypeScript 的稳健 LLM 网页数据提取工具

Lightfeed Extractor 发布基于 TypeScript 的 LLM 网页数据提取库,支持通过自然语言提示和 Zod schema 从 HTML、Markdown 或纯文本中提取结构化数据。核心功能包括 HTML 转 Markdown 预处理、JSON 模式输出、失败 JSON 自动修复及 token 追踪。可与 Playwright 集成加载动态页面,或配合 browser-agent 实现自然语言导航后提取,适用于电商竞品监控等生产级场景。

智能体GitHub开源/仓库数据/训练
08:00
Cursor Blog
精选69
通过实时强化学习改进Composer编码模型

Cursor团队将实时强化学习技术应用于Composer编码模型,利用真实用户交互产生的推理令牌作为训练信号,以解决模拟环境与真实使用间的匹配问题。该技术使团队能够以每五小时一次的频率部署改进后的模型检查点。通过A/B测试,新版本实现了关键指标提升:代理编辑在代码库中的持久性增加2.28%,用户不满意后续减少3.13%,延迟降低10.3%。实时RL也带来了奖励黑客等新挑战,但真实用户反馈有助于识别和修正此类问题。

智能体现象/趋势编码

推荐理由:Cursor 把真实用户交互当训练信号,每五小时迭代一次 Composer,这不是论文是工程日志。做 coding agent 的团队该看看他们怎么处理 reward hacking 的两个真实案例,比任何 benchmark 论文都实在。
01:00
OpenAI:Alignment 研究博客(RSS)
精选59
Model Spec Evals评估套件发布

OpenAI推出了一套新的评估套件Model Spec Evals,用于系统衡量模型遵循其《模型规范》的程度。该规范明确了模型行为的设计原则与约束条件,涵盖输出内容、行为边界及交互方式等方面。此次发布的评估工具旨在量化模型对齐规范的具体表现,是OpenAI推进模型行为标准化、透明化的重要步骤。

OpenAI安全/对齐评测/基准

推荐理由:OpenAI 把自家 Model Spec 变成了可量化的评测套件,对做对齐研究的人是基础设施级更新,但对普通开发者来说更像内部合规工具,了解即可。
00:46
Google DeepMind:Blog(RSS)
保护人们免受有害操纵

Google DeepMind 针对金融、健康等领域研究 AI 有害操纵风险,并推出新的安全措施。

DeepMind安全/对齐
00:01
00:00
Meta AI:Blog(网页)
精选83
Meta与世界资源研究所发布开源森林冠层高度地图模型Canopy Height Maps v2

Meta与世界资源研究所合作推出开源模型Canopy Height Maps v2,用于生成全球高精度森林冠层高度地图。该模型采用自监督视觉模型DINOv3作为主干,并基于大规模卫星图像数据集SAT-493M进行预训练,在准确性、细节和全球一致性上较2024年初版有显著提升。其关键指标R²从0.53大幅提高至0.86,能更精准预测树高。通过增加多样化激光雷达数据、开发自动匹配工具和专用损失函数,新版地图清晰度更高,并减少了对高树的预测偏差。该工具已应用于英国、欧盟及美国等多个地区的森林监测与城市规划项目。

Meta多模态数据/训练模型发布
关联讨论 1Meta AI:Blog(网页)
推荐理由:开源视觉模型提升森林监测精度,环保和开发者可直接应用
00:00
00:00
Google Blog:AI(RSS)
精选
基于 Lyria 3 构建:全新音乐生成模型开放预览

Lyria 3 音乐生成模型现已开放付费预览,开发者可通过 Gemini API 调用,或在 Google AI Studio 免费测试。

Google多模态模型发布
关联讨论 2X:Demis Hassabis (@demishassabis)X:Testing Catalog (@testingcatalog)
推荐理由:Google 发布音乐生成模型 Lyria 3,现可通过 Gemini API 和 AI Studio 体验
00:00
Suno:Blog(网页)
Suno v5.5:更具表现力,更懂你

Suno发布v5.5模型,推出Voices、Custom Models与My Taste三大功能。Voices支持Pro及Premier订阅者录制或上传人声,经语音验证后仅限本人使用;Custom Models可基于用户原创曲库训练最多三个个性化模型;My Taste则面向所有用户,自动学习其音乐偏好。此次更新旨在同时服务专业音乐人与普通创作者,并为与音乐产业合作的下一代模型奠定基础。

产品更新多模态语音
3月25日
21:36
Gary Marcus:The Road to AI We Can Trust(RSS)
战争与 AI、Sora 的消亡,以及今日现场观看的 3 种方式

这是一则简短预告,作者为仓促通知致歉,宣布将围绕战争与人工智能、Sora 的终结等话题发布几项公告,同时提供今日现场观看的三种途径,但正文未透露具体发布内容、技术细节或数据指标。

大佬观点视频
21:18
美团 LongCat:HuggingFace 新模型
美团 LongCat-Next

美团开源项目 LongCat-Next 正式发布,宣称将通过开源与开放科学推进人工智能技术的普及与民主化。该项目目前仅公开使命宣言,强调降低AI技术门槛的愿景,尚未披露具体模型架构、训练数据或性能基准等技术指标,也未说明应用场景或发布时间表。

Hugging Face开源生态模型发布
18:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选
深入解析我们构建 Model Spec 的方法

OpenAI 公开 Model Spec 行为框架,阐述如何在安全、用户自由与问责制之间取得平衡,为 AI 系统发展提供可公开查阅的行为指导原则。

OpenAI安全/对齐

推荐理由:OpenAI 公开模型行为框架,阐释安全与责任平衡之道
08:00
Google Developers Blog(RSS)
精选84
用 Agent 技能弥合知识鸿沟

Google DeepMind 开发出一项“Gemini API 开发者技能”,使智能体能够实时获取最新文档与 SDK 指导。评估结果显示,配备该技能后,gemini-3.1-pro-preview 模型的成功率从 28.2% 大幅跃升至 96.6%。这种轻量级方法通过赋予模型强大的推理能力并接入“事实来源”,有效解决了静态模型知识与快速演进的软件实践之间的脱节问题,显著消除了过时的编码模式。

智能体DeepMindGoogle产品更新

推荐理由:通过实时文档赋能模型,编码任务成功率飙升,开发者可借鉴优化AI工具。
08:00
HuggingFace Daily Papers(社区热门论文)
QuanBench+:面向LLM量子代码生成的统一多框架基准测试

研究团队发布QuanBench+基准测试,首次统一评估LLM在Qiskit、PennyLane和Cirq三大量子计算框架上的代码生成能力。该基准包含42个涵盖量子算法、门分解和态制备的对齐任务。测试显示,模型一次性通过率最高达59.5%(Qiskit)、54.8%(Cirq)和42.9%(PennyLane),经反馈修复后分别提升至83.3%、76.2%和66.7%。结果表明,当前LLM仍高度依赖框架特定知识,跨框架量子代码生成的可靠性问题尚未解决。

编码论文/研究
08:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选
OpenAI 推出安全漏洞赏金计划

OpenAI 启动安全漏洞赏金计划,悬赏征集 AI 滥用及安全风险漏洞,涵盖智能体漏洞、提示注入攻击和数据泄露等问题。

智能体OpenAI安全/对齐

推荐理由:OpenAI推出安全漏洞赏金计划,聚焦Agent安全与提示词注入风险
00:00
Anthropic:Engineering(事故复盘 + 工程实践 · 网页)
精选77
Claude Code 自动模式:在安全与效率间取得平衡

Anthropic 为 Claude Code 推出“自动模式”,旨在解决用户因频繁手动批准而产生的“批准疲劳”。该模式介于完全手动审批和危险的无权限跳过之间,采用两层防御机制:输入层通过服务器端提示注入探测器扫描工具输出;输出层则利用基于 Sonnet 4.6 模型的转录分类器,在执行前评估操作风险。分类器采用高效的两阶段设计,先快速过滤,必要时才启动思维链推理。其目标是拦截危险操作(如过度积极行为、无心之失、提示注入等),同时让大部分安全操作无需确认即可运行,内部测试显示用户原本会批准约93%的手动提示。

Anthropic产品更新安全/对齐编码

推荐理由:这是 Claude Code 从「手动审批」跳到「AI 自审」的关键一步,双层防御设计坦诚到连 17% 漏检率都公开讲,做 coding agent 的团队该把这篇当安全设计参考。
00:00
LMSYS:Blog(Chatbot Arena 团队)
Elastic EP:实现DeepSeek MoE部署的部分故障容忍

Mooncake团队与Volcano Engine在SGLang框架中推出Elastic EP功能,解决大规模DeepSeek MoE模型"宽"专家并行部署的可靠性瓶颈。该技术通过解耦专家与GPU的刚性绑定并维护冗余副本,可在32 GPU集群中容忍最多16个rank故障,将服务恢复时间从2-3分钟缩短至10秒以内,降幅达90%。基准测试显示,该方案在实现极端韧性的同时,吞吐量、TTFT和TPOT等关键指标与标准DeepEP持平,实现零静态性能损耗。

DeepSeek开源/仓库部署/工程
00:00
LMSYS:Blog(Chatbot Arena 团队)
SGLang亮相NVIDIA GTC 2026:三天五场活动展示开源AI基础设施实力

SGLang亮相Jensen Huang主题演讲AI生态图谱,三天内密集举办五场活动。团队与RadixArk合办200人技术聚会,在LinkedIn总部举办搜索与推荐LLM系统研讨,并参与700人规模的Novita行业论坛。官方培训实验室发布Miles RL框架,解决生产环境训练-推理不匹配难题;LinkedIn工程师分享预填充优化方案,在H100上实现2–3倍吞吐量提升并回馈上游。

开源/仓库数据/训练部署/工程
00:00
Google Research:Blog(网页)
精选
Vibe Coding XR:基于 XR Blocks 与 Gemini 加速 AI + XR 原型开发

Google XR 团队推出 Vibe Coding XR 工作流,结合 Gemini Canvas 与开源框架 XR Blocks,利用长上下文推理能力将自然语言提示在 60 秒内转化为可交互、支持物理效果的 WebXR 应用。该方案基于 WebXR、three.js 和 LiteRT.js 构建,支持手势交互与深度感知,可在桌面模拟环境或 Android XR 头显中实时预览。已展示的应用包括几何可视化数学辅导和交互式物理实验室,用户可通过捏合等手势操作 3D 对象,快速验证空间交互设计。

Google产品更新多模态编码

推荐理由:Google推出Vibe Coding XR,用自然语言快速生成可交互的Android XR空间应用。
3月24日
19:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选
帮助开发者为青少年构建更安全的 AI 体验

OpenAI 发布面向开发者的提示词青少年安全策略,配合 gpt-oss-safeguard 使用,帮助审核 AI 系统中的年龄特定风险。

OpenAI安全/对齐开源生态

推荐理由:OpenAI 发布青少年 AI 安全策略与开源保障工具
17:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选
ChatGPT 推出产品发现功能

ChatGPT 上线基于 Agentic Commerce Protocol 的全新购物功能,提供更丰富的视觉化沉浸式体验,支持商品发现、并排对比及商家集成。

智能体OpenAI产品更新搜索

推荐理由:ChatGPT 上线 Agentic 购物功能,支持商品智能对比与商家集成
17:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
OpenAI Foundation 最新动态

OpenAI Foundation 宣布将在治愈疾病、经济机会、AI 韧性和社区项目四大领域投资至少 10 亿美元。

OpenAI行业动态
10:01
Hugging Face:Blog(RSS)
精选78
全新语音智能体评估框架EVA发布

ServiceNow AI团队在Hugging Face上发布了语音智能体评估框架EVA。该框架通过标准化测试集与多模态指标,系统评估语音助手在对话理解、任务完成及交互自然度等方面的性能,旨在量化衡量智能体在复杂真实场景下的表现,助力研究人员客观比较不同模型,推动技术优化。

智能体Hugging Face开源/仓库语音

推荐理由:提供语音代理评估标准,帮助开发者优化模型性能和测试效率。
08:00
Google Developers Blog(RSS)
精选71
跳跃即玩:利用Gemini与MediaPipe进行开发

该工作流通过Gemini Canvas,借助高级提示词快速原型化MediaPipe Pose Landmarker等体感游戏机制。开发者可在Google AI Studio中优化原型,采用低延迟的“轻量”模型和稳定的追踪点(如肩部关节点)以确保游戏响应灵敏。最后,流程利用Gemini Code Assist将实验性代码重构为模块化、可用于生产的应用程序,使其能够支持多种多模态输入,从而显著简化了体感控制游戏的开发过程。

Google多模态教程/实践编码

推荐理由:开发者可快速上手AI游戏开发,优化性能并部署生产应用。
00:00
Anthropic:Engineering(事故复盘 + 工程实践 · 网页)
精选75
利用对抗网络灵感设计多代理架构,突破长时应用开发瓶颈

作者受生成对抗网络启发,设计了一个包含规划器、生成器和评估器的三代理架构,以解决Claude在长时应用开发中的两大瓶颈。该架构通过上下文重置机制,有效克服了模型在长任务中的“上下文焦虑”问题;同时,通过分离生成与评估功能,使代理能依据具体标准进行迭代改进,而非盲目自评。这一方法成功使系统能在多小时的自主运行中生成完整的全栈应用程序,突破了此前提示工程和传统工具设计的性能上限。

智能体Anthropic教程/实践编码

推荐理由:Anthropic 工程师把 GAN 的 generator-evaluator 思路搬进长时 Agent 架构,从设计到全栈编码都跑通了,还附了成本和失败模式。做 Agent 产品的人读完能直接抄作业,比看十篇论文管用。
00:00
Berkeley RDI:Blog(AI 安全与评测)
自我主权智能体(Self-Sovereign Agent)

新加坡国立大学与UC伯克利研究团队提出"自我主权智能体"(SSA)框架,将AI系统定义为可通过经济、复制与适应三大循环实现自我维持的持久数字行为体。该研究将SSA发展划分为四个阶段:从依赖赞助者的工具型智能体,到经济自给、可跨云复制,最终具备自主适应能力。研究指出,当前前沿模型已接近第二阶段,但真实环境部署仍面临平台限制、对抗攻击与长期稳定性等挑战。

智能体安全/对齐
00:00
Google Research:Blog(网页)
绘制现代世界:S2Vec 如何学习城市的语言

Google Research 发布自监督地理空间框架 S2Vec,利用 S2 Geometry 将地球表面划分为分层单元格,把建筑、道路等特征栅格化为多层图像,通过掩码自编码器(MAE)学习通用嵌入向量。无需人工标注即可预测人口密度、房价等社会经济指标,在地理外推任务中表现优于图像基线模型,但树冠覆盖和海拔等环境预测任务仍需改进。

Google数据/训练论文/研究
00:00
Google Research:Blog(网页)
TurboQuant:以极端压缩重新定义AI效率

Google Research推出TurboQuant压缩算法(将发表于ICLR 2026),通过融合PolarQuant与QJL技术实现大模型与向量搜索的极端压缩。PolarQuant通过随机旋转数据向量并转换为极坐标,消除传统量化的内存开销;QJL则利用Johnson-Lindenstrauss变换以1比特零开销压缩残差误差。该方法在零精度损失下显著缩减模型体积,有效缓解KV缓存瓶颈,适用于高维向量搜索等场景。

Google论文/研究部署/工程
00:00
Anthropic:Research(发表成果 · 网页)
Anthropic经济指数报告:揭示AI学习曲线效应

Anthropic发布Economic Index报告,基于2026年2月数据分析Claude使用趋势。Claude.ai使用场景显著多样化,前10大任务占比从24%降至19%,平均经济价值因个人查询增加而下降。49%的工作岗位已有至少四分之一任务使用Claude。数据显示明显学习曲线效应:资深用户对话成功率比新用户高10%,更多将模型用于高等教育任务。全球使用不平等持续,前20国家占人均使用量48%,但美国内部差距略有缩小。

Anthropic论文/研究
3月23日
08:00
Google Developers Blog(RSS)
精选71
使用 LlamaParse 与 Gemini 3.1 构建智能金融助手

结合 LlamaParse 与 Gemini 3.1 模型,可从复杂的非结构化文档中提取高质量数据。该方案采用事件驱动架构,利用 Gemini 3.1 Pro 对密集的金融表格进行智能解析,并使用 Gemini 3.1 Flash 进行高性价比的摘要生成。开发者通过此教程可构建个人财务助手,将杂乱的经纪账户对账单转化为结构清晰、易于理解的分析报告。

智能体Google检索增强教程/实践

推荐理由:开发者可快速上手构建财务AI助手,将杂乱数据转化为结构化见解。
08:00
HuggingFace Daily Papers(社区热门论文)
师生协作合成学生一致性SFT数据的框架

针对使用强模型合成数据微调推理模型时出现的性能下降问题,本文提出师生协作数据合成框架TESSY。该框架通过让师生模型交替生成风格与非风格标记,使合成数据兼具教师的高级推理能力与学生风格一致性。实验以GPT-OSS-120B为教师、Qwen3-8B为学生,在代码生成任务中,传统方法使LiveCodeBench-Pro和OJBench性能分别下降3.25%和10.02%,而TESSY实现11.25%和6.68%的显著提升。

推理数据/训练论文/研究
08:00
OpenAI:官网动态(RSS · 排除企业/客户案例)
安全使用 Sora 创作

Sora 2 与 Sora 应用将安全作为基础架构,采用具体保护措施应对前沿视频模型与社交创作平台带来的全新安全挑战。

OpenAI产品更新视频
03:39
Nathan Lambert:Interconnects(RSS)
精选
有损自我改进

自我改进机制虽客观存在,但受限于"有损"特性,难以推动AI能力的递归式爆发。该论述指出,大语言模型等系统的自我优化过程伴随信息损耗与能力瓶颈,这种非完美的迭代模式打破了"快速起飞"(fast takeoff)的技术假设。与理想化的指数级自我增强不同,实际发展将呈现渐进、受限的增长轨迹,AI安全研究需重新评估递归自我改进的风险阈值。

大佬观点安全/对齐推理

推荐理由:AI自我改进虽真实但存在损耗上限,挑战'快速起飞'的普遍担忧,为AGI发展节奏提供新视角
00:00
Berkeley RDI:Blog(AI 安全与评测)
OpenSage:自编程智能体生成引擎

OpenSage是新一代Agent开发工具包,推动智能体开发从人工设计转向AI自主编程范式。该系统支持LLM自动构建智能体拓扑、动态编写管理工具(具备沙箱隔离与异步执行),以及维护分层图结构记忆系统。与现有方案需人工设计不同,OpenSage实现了拓扑、工具和记忆的全面AI自动化生成,并内置软件工程与安全工具套件。

智能体DeepMind开源/仓库编码
00:00
Mistral AI:News(网页)
精选
Voxtral 发布 40 亿参数文本转语音模型

Voxtral 发布 40 亿参数文本转语音模型 Voxtral TTS,支持英语、法语等 9 种语言的逼真语音生成。该模型仅需 3 秒参考音频即可实现零样本语音克隆,延迟低至 70 毫秒。人工评测显示,其在保持与 ElevenLabs Flash v2.5 相当首音时间的同时,自然度表现更优,与 ElevenLabs v3 质量持平。模型支持情感控制和跨语言语音迁移,适用于企业级语音代理工作流。

智能体模型发布语音

推荐理由:开源TTS模型性能对标ElevenLabs,语音Agent开发成本将大幅降低
00:00
Anthropic:Research(发表成果 · 网页)
氛围物理:AI研究生

哈佛物理教授Matthew Schwartz全程监督Claude Opus 4.5完成G2级理论物理计算(Sudakov shoulder重求和),两周内产出通常需一年的研究成果。项目消耗110余版草稿、3600万token及40余小时CPU计算。研究显示Claude虽速度快且不知疲倦,但易犯粗心错误,必须依赖领域专家验证。实验证明AI尚不能独立进行端到端科研,但在专家监督下已能完成前沿物理研究,作者认为此方法论突破比物理成果本身更具重要意义。

Anthropic论文/研究