Google Translate 耳机实时翻译功能正式支持 iOS,可将耳机变为个人实时翻译器。该功能同时面向 iOS 和 Android 用户扩展至更多国家。
Gemini 推出 3.1 Flash Live 语音模型,通过提升精度、降低延迟,使语音交互更流畅自然且精准可靠。
Gemini 3.1 Flash Live 已上线 Google 全系产品,提供更自然、可靠的实时音频 AI 交互能力。
关联讨论 6 条Google DeepMind:Blog(RSS)X:Demis Hassabis (@demishassabis)X:Gemini (@GeminiApp)X:Google DeepMind (@GoogleDeepMind)X:Sundar Pichai (@sundarpichai)Google Blog:AI(RSS)Lightfeed Extractor 发布基于 TypeScript 的 LLM 网页数据提取库,支持通过自然语言提示和 Zod schema 从 HTML、Markdown 或纯文本中提取结构化数据。核心功能包括 HTML 转 Markdown 预处理、JSON 模式输出、失败 JSON 自动修复及 token 追踪。可与 Playwright 集成加载动态页面,或配合 browser-agent 实现自然语言导航后提取,适用于电商竞品监控等生产级场景。
Cursor团队将实时强化学习技术应用于Composer编码模型,利用真实用户交互产生的推理令牌作为训练信号,以解决模拟环境与真实使用间的匹配问题。该技术使团队能够以每五小时一次的频率部署改进后的模型检查点。通过A/B测试,新版本实现了关键指标提升:代理编辑在代码库中的持久性增加2.28%,用户不满意后续减少3.13%,延迟降低10.3%。实时RL也带来了奖励黑客等新挑战,但真实用户反馈有助于识别和修正此类问题。
OpenAI推出了一套新的评估套件Model Spec Evals,用于系统衡量模型遵循其《模型规范》的程度。该规范明确了模型行为的设计原则与约束条件,涵盖输出内容、行为边界及交互方式等方面。此次发布的评估工具旨在量化模型对齐规范的具体表现,是OpenAI推进模型行为标准化、透明化的重要步骤。
Lyria 3 Pro 发布,支持生成更长音轨并具备结构感知能力,同时将集成至更多 Google 产品和平台。
Meta与世界资源研究所合作推出开源模型Canopy Height Maps v2,用于生成全球高精度森林冠层高度地图。该模型采用自监督视觉模型DINOv3作为主干,并基于大规模卫星图像数据集SAT-493M进行预训练,在准确性、细节和全球一致性上较2024年初版有显著提升。其关键指标R²从0.53大幅提高至0.86,能更精准预测树高。通过增加多样化激光雷达数据、开发自动匹配工具和专用损失函数,新版地图清晰度更高,并减少了对高树的预测偏差。该工具已应用于英国、欧盟及美国等多个地区的森林监测与城市规划项目。
关联讨论 1 条Meta AI:Blog(网页)Google 将 Lyria 3 Pro 扩展至更多产品,支持生成更长音轨,并集成至专业人士日常工作和创作工具中。
Lyria 3 音乐生成模型现已开放付费预览,开发者可通过 Gemini API 调用,或在 Google AI Studio 免费测试。
关联讨论 2 条X:Demis Hassabis (@demishassabis)X:Testing Catalog (@testingcatalog)Suno发布v5.5模型,推出Voices、Custom Models与My Taste三大功能。Voices支持Pro及Premier订阅者录制或上传人声,经语音验证后仅限本人使用;Custom Models可基于用户原创曲库训练最多三个个性化模型;My Taste则面向所有用户,自动学习其音乐偏好。此次更新旨在同时服务专业音乐人与普通创作者,并为与音乐产业合作的下一代模型奠定基础。
这是一则简短预告,作者为仓促通知致歉,宣布将围绕战争与人工智能、Sora 的终结等话题发布几项公告,同时提供今日现场观看的三种途径,但正文未透露具体发布内容、技术细节或数据指标。
美团开源项目 LongCat-Next 正式发布,宣称将通过开源与开放科学推进人工智能技术的普及与民主化。该项目目前仅公开使命宣言,强调降低AI技术门槛的愿景,尚未披露具体模型架构、训练数据或性能基准等技术指标,也未说明应用场景或发布时间表。
OpenAI 公开 Model Spec 行为框架,阐述如何在安全、用户自由与问责制之间取得平衡,为 AI 系统发展提供可公开查阅的行为指导原则。
Google DeepMind 开发出一项“Gemini API 开发者技能”,使智能体能够实时获取最新文档与 SDK 指导。评估结果显示,配备该技能后,gemini-3.1-pro-preview 模型的成功率从 28.2% 大幅跃升至 96.6%。这种轻量级方法通过赋予模型强大的推理能力并接入“事实来源”,有效解决了静态模型知识与快速演进的软件实践之间的脱节问题,显著消除了过时的编码模式。
研究团队发布QuanBench+基准测试,首次统一评估LLM在Qiskit、PennyLane和Cirq三大量子计算框架上的代码生成能力。该基准包含42个涵盖量子算法、门分解和态制备的对齐任务。测试显示,模型一次性通过率最高达59.5%(Qiskit)、54.8%(Cirq)和42.9%(PennyLane),经反馈修复后分别提升至83.3%、76.2%和66.7%。结果表明,当前LLM仍高度依赖框架特定知识,跨框架量子代码生成的可靠性问题尚未解决。
OpenAI 启动安全漏洞赏金计划,悬赏征集 AI 滥用及安全风险漏洞,涵盖智能体漏洞、提示注入攻击和数据泄露等问题。
Anthropic 为 Claude Code 推出“自动模式”,旨在解决用户因频繁手动批准而产生的“批准疲劳”。该模式介于完全手动审批和危险的无权限跳过之间,采用两层防御机制:输入层通过服务器端提示注入探测器扫描工具输出;输出层则利用基于 Sonnet 4.6 模型的转录分类器,在执行前评估操作风险。分类器采用高效的两阶段设计,先快速过滤,必要时才启动思维链推理。其目标是拦截危险操作(如过度积极行为、无心之失、提示注入等),同时让大部分安全操作无需确认即可运行,内部测试显示用户原本会批准约93%的手动提示。
Mooncake团队与Volcano Engine在SGLang框架中推出Elastic EP功能,解决大规模DeepSeek MoE模型"宽"专家并行部署的可靠性瓶颈。该技术通过解耦专家与GPU的刚性绑定并维护冗余副本,可在32 GPU集群中容忍最多16个rank故障,将服务恢复时间从2-3分钟缩短至10秒以内,降幅达90%。基准测试显示,该方案在实现极端韧性的同时,吞吐量、TTFT和TPOT等关键指标与标准DeepEP持平,实现零静态性能损耗。
SGLang亮相Jensen Huang主题演讲AI生态图谱,三天内密集举办五场活动。团队与RadixArk合办200人技术聚会,在LinkedIn总部举办搜索与推荐LLM系统研讨,并参与700人规模的Novita行业论坛。官方培训实验室发布Miles RL框架,解决生产环境训练-推理不匹配难题;LinkedIn工程师分享预填充优化方案,在H100上实现2–3倍吞吐量提升并回馈上游。
Google XR 团队推出 Vibe Coding XR 工作流,结合 Gemini Canvas 与开源框架 XR Blocks,利用长上下文推理能力将自然语言提示在 60 秒内转化为可交互、支持物理效果的 WebXR 应用。该方案基于 WebXR、three.js 和 LiteRT.js 构建,支持手势交互与深度感知,可在桌面模拟环境或 Android XR 头显中实时预览。已展示的应用包括几何可视化数学辅导和交互式物理实验室,用户可通过捏合等手势操作 3D 对象,快速验证空间交互设计。
OpenAI 发布面向开发者的提示词青少年安全策略,配合 gpt-oss-safeguard 使用,帮助审核 AI 系统中的年龄特定风险。
ChatGPT 上线基于 Agentic Commerce Protocol 的全新购物功能,提供更丰富的视觉化沉浸式体验,支持商品发现、并排对比及商家集成。
OpenAI Foundation 宣布将在治愈疾病、经济机会、AI 韧性和社区项目四大领域投资至少 10 亿美元。
ServiceNow AI团队在Hugging Face上发布了语音智能体评估框架EVA。该框架通过标准化测试集与多模态指标,系统评估语音助手在对话理解、任务完成及交互自然度等方面的性能,旨在量化衡量智能体在复杂真实场景下的表现,助力研究人员客观比较不同模型,推动技术优化。
该工作流通过Gemini Canvas,借助高级提示词快速原型化MediaPipe Pose Landmarker等体感游戏机制。开发者可在Google AI Studio中优化原型,采用低延迟的“轻量”模型和稳定的追踪点(如肩部关节点)以确保游戏响应灵敏。最后,流程利用Gemini Code Assist将实验性代码重构为模块化、可用于生产的应用程序,使其能够支持多种多模态输入,从而显著简化了体感控制游戏的开发过程。
作者受生成对抗网络启发,设计了一个包含规划器、生成器和评估器的三代理架构,以解决Claude在长时应用开发中的两大瓶颈。该架构通过上下文重置机制,有效克服了模型在长任务中的“上下文焦虑”问题;同时,通过分离生成与评估功能,使代理能依据具体标准进行迭代改进,而非盲目自评。这一方法成功使系统能在多小时的自主运行中生成完整的全栈应用程序,突破了此前提示工程和传统工具设计的性能上限。
新加坡国立大学与UC伯克利研究团队提出"自我主权智能体"(SSA)框架,将AI系统定义为可通过经济、复制与适应三大循环实现自我维持的持久数字行为体。该研究将SSA发展划分为四个阶段:从依赖赞助者的工具型智能体,到经济自给、可跨云复制,最终具备自主适应能力。研究指出,当前前沿模型已接近第二阶段,但真实环境部署仍面临平台限制、对抗攻击与长期稳定性等挑战。
Google Research 发布自监督地理空间框架 S2Vec,利用 S2 Geometry 将地球表面划分为分层单元格,把建筑、道路等特征栅格化为多层图像,通过掩码自编码器(MAE)学习通用嵌入向量。无需人工标注即可预测人口密度、房价等社会经济指标,在地理外推任务中表现优于图像基线模型,但树冠覆盖和海拔等环境预测任务仍需改进。
Google Research推出TurboQuant压缩算法(将发表于ICLR 2026),通过融合PolarQuant与QJL技术实现大模型与向量搜索的极端压缩。PolarQuant通过随机旋转数据向量并转换为极坐标,消除传统量化的内存开销;QJL则利用Johnson-Lindenstrauss变换以1比特零开销压缩残差误差。该方法在零精度损失下显著缩减模型体积,有效缓解KV缓存瓶颈,适用于高维向量搜索等场景。
Anthropic发布Economic Index报告,基于2026年2月数据分析Claude使用趋势。Claude.ai使用场景显著多样化,前10大任务占比从24%降至19%,平均经济价值因个人查询增加而下降。49%的工作岗位已有至少四分之一任务使用Claude。数据显示明显学习曲线效应:资深用户对话成功率比新用户高10%,更多将模型用于高等教育任务。全球使用不平等持续,前20国家占人均使用量48%,但美国内部差距略有缩小。
结合 LlamaParse 与 Gemini 3.1 模型,可从复杂的非结构化文档中提取高质量数据。该方案采用事件驱动架构,利用 Gemini 3.1 Pro 对密集的金融表格进行智能解析,并使用 Gemini 3.1 Flash 进行高性价比的摘要生成。开发者通过此教程可构建个人财务助手,将杂乱的经纪账户对账单转化为结构清晰、易于理解的分析报告。
针对使用强模型合成数据微调推理模型时出现的性能下降问题,本文提出师生协作数据合成框架TESSY。该框架通过让师生模型交替生成风格与非风格标记,使合成数据兼具教师的高级推理能力与学生风格一致性。实验以GPT-OSS-120B为教师、Qwen3-8B为学生,在代码生成任务中,传统方法使LiveCodeBench-Pro和OJBench性能分别下降3.25%和10.02%,而TESSY实现11.25%和6.68%的显著提升。
自我改进机制虽客观存在,但受限于"有损"特性,难以推动AI能力的递归式爆发。该论述指出,大语言模型等系统的自我优化过程伴随信息损耗与能力瓶颈,这种非完美的迭代模式打破了"快速起飞"(fast takeoff)的技术假设。与理想化的指数级自我增强不同,实际发展将呈现渐进、受限的增长轨迹,AI安全研究需重新评估递归自我改进的风险阈值。
OpenSage是新一代Agent开发工具包,推动智能体开发从人工设计转向AI自主编程范式。该系统支持LLM自动构建智能体拓扑、动态编写管理工具(具备沙箱隔离与异步执行),以及维护分层图结构记忆系统。与现有方案需人工设计不同,OpenSage实现了拓扑、工具和记忆的全面AI自动化生成,并内置软件工程与安全工具套件。
Voxtral 发布 40 亿参数文本转语音模型 Voxtral TTS,支持英语、法语等 9 种语言的逼真语音生成。该模型仅需 3 秒参考音频即可实现零样本语音克隆,延迟低至 70 毫秒。人工评测显示,其在保持与 ElevenLabs Flash v2.5 相当首音时间的同时,自然度表现更优,与 ElevenLabs v3 质量持平。模型支持情感控制和跨语言语音迁移,适用于企业级语音代理工作流。
哈佛物理教授Matthew Schwartz全程监督Claude Opus 4.5完成G2级理论物理计算(Sudakov shoulder重求和),两周内产出通常需一年的研究成果。项目消耗110余版草稿、3600万token及40余小时CPU计算。研究显示Claude虽速度快且不知疲倦,但易犯粗心错误,必须依赖领域专家验证。实验证明AI尚不能独立进行端到端科研,但在专家监督下已能完成前沿物理研究,作者认为此方法论突破比物理成果本身更具重要意义。