11月25日
00:08
Hugging Face:Blog(RSS)
精选73
OVHcloud 成为 Hugging Face 官方推理服务提供商

OVHcloud 现已正式加入 Hugging Face Hub 的推理服务提供商生态。用户可直接在模型页面使用其全托管、无服务器化的 AI 端点服务,便捷调用 gpt-oss、Qwen3 等热门开源模型。该服务基于欧洲数据中心,保障数据主权与低延迟,首 token 响应时间低于 200 毫秒,并支持结构化输出等高级功能。定价为每百万 token 0.04 欧元起,用户可选择使用自定义 API 密钥或通过 Hugging Face 账户路由请求并计费。

Hugging Face产品更新部署/工程

推荐理由:欧洲开发者可低成本合规访问前沿AI模型,推理选项更丰富。
00:00
LMSYS:Blog(Chatbot Arena 团队)
统一 FP8:超越混合精度,实现稳定且加速的 MoE RL

InfiXAI、Ant Group AQ、SGLang RL 与 Miles 团队联合实现了端到端 FP8 强化学习训练与采样方案。实验表明,MoE 模型在使用 BF16 训练与 FP8 推理时,规模越大训练-推理差异越显著;统一采用 FP8 进行训练和推理可有效消除量化误差导致的不一致性,显著提升训练速度与稳定性。该方案已支持 Qwen3-4B 和 Qwen3-30B-A3B 模型,并在 miles 框架中开箱即用。

数据/训练论文/研究部署/工程
11月24日
22:12
00:00
Anthropic:Engineering(事故复盘 + 工程实践 · 网页)
精选77
Claude开发者平台推出高级工具使用功能,提升AI代理效率

Anthropic在Claude开发者平台发布三项新功能,以解决传统工具调用消耗大量上下文、易出错的问题。工具搜索工具允许按需加载工具,内部测试中将上下文消耗从约7.7万令牌降至8700令牌,降幅达85%,并将准确率从49%提升至74%。程序化工具调用支持在代码环境中调用工具,减少对上下文窗口的影响,例如Claude for Excel可借此处理数千行数据。工具使用示例则提供了展示工具有效使用方法的通用标准。这些功能共同提升了AI代理处理大规模工具库的能力。

智能体AnthropicMCP/工具产品更新

推荐理由:做 Agent 的人都卡在工具一多上下文就爆、调用就错这两个坑上,Anthropic 这三个功能直接把工具管理从「全塞进去」变成「按需加载+代码编排+示例纠错」,是目前最工程化的解法。
11月23日
00:00
LMSYS:Blog(Chatbot Arena 团队)
LMSYS 启动奖学金计划

LMSYS 宣布设立奖学金计划,资助对美国开源 AI 基础设施社区有重大贡献的全日制博士生。获奖者将在未来两年内获得最高 50,000 美元用于支付学费,申请窗口为 2025 年 11 月 23 日至 12 月 7 日。评选将基于研究影响力、开源贡献及与 LMSYS 兴趣领域的契合度,申请者需邮件提交申请陈述与简历。该项目由 Ying and Lianmin Giving Fund 捐赠支持。

开源生态行业动态
11月21日
08:00
Hugging Face:Blog(RSS)
精选83
Open ASR 排行榜新增多语言与长格式赛道,揭示模型性能新挑战

Hugging Face 的 Open ASR 排行榜新增多语言和长格式语音识别评估赛道。多语言赛道涵盖8种语言,长格式赛道则测试模型处理连续数分钟语音的能力。新榜单显示,领先模型在多语言任务上的词错误率平均比专用单语模型高约15%,在长格式任务上错误率可能上升超20%,凸显了模型在实际应用中的泛化能力仍面临严峻挑战。

Hugging Face评测/基准语音

推荐理由:ASR排行榜新增多语言和长形式评估,助力开发者优化语音应用。
08:00
Hugging Face:Blog(RSS)
精选80
RapidFire AI 实现20倍更快的 TRL 微调

RapidFire AI 发布了一套加速 TRL 微调的工具,通过自适应分块调度方案,允许在单个或多个 GPU 上并发启动多个训练配置并实时比较。内部基准测试显示,实验吞吐量比顺序执行高出约 16 至 24 倍。该工具提供即插即用的 TRL 配置包装器、分块并发训练、支持实时停止/恢复/克隆修改的交互式控制操作、自动多 GPU 编排以及 MLflow 仪表板,使用户能快速筛选最优配置,极大提升微调效率。

Hugging Face开源/仓库数据/训练部署/工程

推荐理由:开发者可并发测试多个微调配置,大幅提升实验效率。
11月20日
23:13
Google DeepMind:Blog(RSS)
Gemini 应用新增 AI 图像验证功能,可识别 SynthID 水印

Google 在 Gemini 应用中上线 AI 图像验证工具,用户上传图片即可查询是否由 Google AI 生成或编辑。该功能通过检测 SynthID 数字水印实现,该技术已应用于超 200 亿个 AI 生成内容。未来验证范围将扩展至视频和音频,并支持 C2PA 内容凭证标准。本周起,Nano Banana Pro(Gemini 3 Pro Image)在 Gemini、Vertex AI 和 Google Ads 中生成的图像将嵌入 C2PA 元数据,未来还将支持验证 Google 生态系统外的模型生成内容。

DeepMindGoogle产品更新图像生成
23:05
Google DeepMind:Blog(RSS)
精选
Google DeepMind 发布 Nano Banana Pro 图像生成模型

Google DeepMind 发布 Nano Banana Pro 图像生成模型,基于 Gemini 3 Pro 构建,支持多语言可读文本直接渲染,可结合 Google Search 实时信息生成信息图表。该模型支持 14 张图像融合,保持 5 个人物形象一致性,输出 4K 分辨率。现已集成至 Gemini 应用、Google Ads、Google AI Studio 等产品,所有生成内容均嵌入 SynthID 水印以确保透明度。

DeepMindGoogle图像生成多模态
关联讨论 2Google DeepMind:Blog(RSS)Ethan Mollick:One Useful Thing(RSS)
推荐理由:Google 发布 Nano Banana Pro 图像生成模型,支持多语言文本渲染与 4K 输出
08:23
Midjourney:Updates(RSS)
Web 端更新

随 Profiles 功能今日上线,"Hide"过滤器更名为"Trash"。被移至 Trash 的创作内容将不再显示于 Create 页面,功能命名更贴合实际用途。

产品更新图像生成
08:00
Hugging Face:Blog(RSS)
精选83
介绍 AnyLanguageModel:为苹果平台提供本地与云端大语言模型的统一 API

AnyLanguageModel 是一个 Swift 包,旨在为苹果平台上的大语言模型集成提供统一解决方案。它作为苹果原生 Foundation Models 框架的替代品,允许开发者通过相同的 API 接口,灵活调用本地模型(如通过 Core ML、MLX、llama.cpp 运行)与云端服务(如 OpenAI、Anthropic)。该方案复用苹果精心设计的 API 作为基础,大幅降低了在不同模型提供商之间切换的代码修改成本,并利用 Swift 的包特性功能避免依赖膨胀,从而简化开发流程,鼓励对本地开源模型的探索。

开源/仓库开源生态部署/工程

推荐理由:Apple开发者可一键切换本地与云端模型,大幅降低AI应用开发门槛。
03:04
Midjourney:Updates(RSS)
Midjourney 推出用户个人资料功能

Midjourney 正式推出用户个人资料功能,用户可创建专属主页向社区展示作品,支持自定义用户名、头像、横幅、简介及社交媒体链接。

产品更新图像生成
11月19日
15:02
DeepSeek:GitHub 新仓库
DeepSeek AI 发布 LPLB:基于线性规划的 MoE 专家并行负载均衡器

DeepSeek AI 推出早期研究阶段项目 LPLB,这是一款专为 MoE(混合专家)模型设计的专家并行负载均衡器。该方案创新性地采用线性规划算法优化专家分配策略,旨在解决大规模 MoE 模型训练过程中的负载不均衡难题,提升计算资源利用效率。目前该项目处于初期研究阶段,为 MoE 架构的高效并行训练提供新的优化思路。

DeepSeek开源/仓库部署/工程
13:19
Hugging Face:Blog(RSS)
精选78
Apriel-H1:蒸馏高效推理模型的关键要素

ServiceNow-AI在Hugging Face发布博客,介绍了其提出的Apriel-H1方法,该方法通过知识蒸馏技术有效提升小型模型的推理能力。该方法的核心在于从大型模型中提取并转移复杂的推理路径,使蒸馏后的小模型在多项推理任务上表现显著提升,同时保持高效的部署性能。这一技术为在资源受限环境中部署高性能推理模型提供了新思路。

Hugging Face推理数据/训练模型发布

推荐理由:新蒸馏方法可能大幅降低推理模型部署成本,开发者可借鉴实践。
08:00
xAI:News(网页)
精选
Grok 与沙特阿拉伯达成全国性部署合作

xAI 与沙特阿拉伯及 PIF 旗下 HUMAIN 签署框架协议,将在沙特建设超大规模 GPU 数据中心,并全国范围内部署 Grok 至 HUMAIN ONE 平台,为政府和企业提供实时智能与自主工作流。这是 Grok 首次在国家层面全面落地。

智能体xAI行业动态部署/工程

推荐理由:xAI与沙特达成国家级合作,将全国部署Grok并建设超大规模AI算力基础设施
08:00
xAI:News(网页)
精选
xAI发布Grok 4.1 Fast与Agent Tools API

xAI发布Grok 4.1 Fast模型及Agent Tools API。Grok 4.1 Fast支持200万token上下文,在τ²-bench Telecom基准测试中获100%得分且成本仅105美元,函数调用准确率72%。Agent Tools API集成实时X数据、网页搜索与代码执行功能。该模型在深度研究基准测试中超越GPT-5等竞品,成本更低且幻觉率较上代降低一半。

智能体MCP/工具xAI模型发布
关联讨论 1xAI:News(网页)
推荐理由:xAI 发布 Grok 4.1 Fast 及 Agent Tools API,支持 2M 上下文与原生工具调用,剑指企业级 Agent 应用。
00:55
Ethan Mollick:One Useful Thing(RSS)
精选
从 GPT-3 到 Gemini 3 的三年

GPT-3 发布至 Gemini 3 的三年间,大模型技术完成从聊天机器人(chatbots)到智能体(agents)的范式跃迁。

智能体GoogleOpenAI大佬观点

推荐理由:Ethan Mollick 深度回顾 AI 三年演进,剖析从聊天机器人到 Agent 的变革趋势
00:06
Google DeepMind:Blog(RSS)
推出 Google Antigravity

Google 发布 Antigravity,主张"以全新方式构建"。该产品定位开发工具或平台,旨在革新现有构建流程,具体功能细节与上线时间尚未披露。

Google产品更新
00:00
LMSYS:Blog(Chatbot Arena 团队)
RadixArk发布Miles:面向大规模MoE训练的企业级强化学习框架

RadixArk团队发布企业级强化学习框架Miles,专为大规模MoE训练设计。该框架基于曾支撑GLM-4.6训练的slime构建,首创True On-Policy技术,实现训练与推理零KL散度对齐。新版本引入在线草稿模型推测解码,rollout加速超25%,并针对GB300等新硬件优化内存管理,支持Flash Attention 3与DeepGEMM。框架采用模块化架构,四大核心组件完全解耦,兼顾研究灵活性与企业级稳定性。

开源/仓库数据/训练部署/工程
00:00
Suno:Blog(网页)
音乐的未来已至

Suno 宣布完成 2.5 亿美元 C 轮融资,投后估值 24.5 亿美元,由 Menlo Ventures 领投,NVentures、Lightspeed 等跟投。过去两年近 1 亿用户在平台首次创作音乐,众多专业制作人和词曲作者也已将 Suno 纳入日常工作流。本轮资金将用于开发更精细的专业工具、优化普通创作者体验,并构建创作者与听众共生的社交音乐生态,推动音乐创作全民化。

行业动态语音
11月18日
00:54
Dwarkesh Patel:Podcast & Blog(RSS)
RL 的信息效率比你想象的还要低

强化学习(RL)在样本效率方面的缺陷比普遍认知更为严重,尤其在近期备受关注的可验证奖励强化学习(RLVR)领域。研究表明,RLVR 在训练大语言模型时所需的数据量远超预期,其信息效率可能比传统监督学习低数个数量级。这一发现对当前依赖 RLVR 提升模型推理能力的技术路线提出挑战,暗示现有方法在计算资源利用和训练数据需求方面存在显著瓶颈,可能需要更高效的探索策略或算法改进来降低对海量数据的依赖。

大佬观点推理数据/训练
11月17日
23:09
Google DeepMind:Blog(RSS)
WeatherNext 2:我们最先进的天气预报模型

WeatherNext 2 新一代 AI 天气预测模型正式发布,作为目前最先进版本,在预测效率、准确性和分辨率上均有显著提升,支持全球范围的高精度天气预报。

DeepMindGoogle模型发布
10:43
蚂蚁 inclusionAI:GitHub 新仓库
39
inclusionAI/asystem-awex

inclusionAI 发布了 asystem-awex,这是一个专为强化学习工作流设计的高性能训练-推理权重同步框架。该框架的核心目标是实现从训练到推理的秒级参数更新,从而显著提升强化学习模型的迭代效率与部署实时性。它解决了传统流程中参数同步延迟高的问题,为需要快速在线学习和决策的应用场景提供了关键技术支撑。

开源/仓库数据/训练部署/工程
08:00
Hugging Face:Blog(RSS)
精选73
使用Hugging Face轻松构建和共享ROCm内核

Hugging Face的kernels库简化了高性能深度学习内核的构建与共享,支持CUDA、ROCm等多种后端。本文以ROCm兼容内核为例,展示如何利用kernel-builder工具构建、测试并共享内核。以RadeonFlow的GEMM内核为具体案例,该内核是针对AMD Instinct MI300X GPU优化的FP8块状矩阵乘法实现,采用e4m3fnuz浮点格式和每块缩放因子以保持低精度计算准确性,并在2025年AMD开发者挑战赛中获最高奖。指南涵盖项目设置、构建配置及通过kernels社区分享的完整步骤。

Hugging Face开源生态教程/实践部署/工程

推荐理由:AMD GPU开发者可快速上手构建高性能AI内核,提升部署效率。
11月15日
08:00
Anthropic:Transformer Circuits(可解释性研究)
精选83
2025年11月电路更新:解读模型在危害压力下的多选题行为机制

Anthropic可解释性团队研究了危害压力对Claude 3.5 Haiku模型多选题回答的影响。实验使用129个二选一问题,当添加有害意图语句时,模型准确率从100%骤降至48.1%。机制分析表明,注意力头中的“拒绝”查询特征与“危害检测”关键特征发生负向交互,显著降低了模型对正确答案的关注度。仅对该拒绝特征进行负向调控,即可将准确率恢复至93%。这证明模型在压力下并未改变事实认知,而是通过干扰注意力机制来主动拒绝提供正确答案,为理解模型拒绝行为提供了新视角。

Anthropic推理论文/研究

推荐理由:揭示模型拒绝有害请求的内部机制,助力 AI 安全与可解释性研究。
11月14日
16:06
蚂蚁 inclusionAI:GitHub 新仓库
精选56
inclusionAI/AudioMCQ:一个附带双CoT注释与音频贡献过滤的571k音频多选题数据集,用于大型音频语言模型后训练

AudioMCQ数据集包含57.1万个音频多选题,专为大型音频语言模型的后训练设计。该数据集创新性地提供了双重思维链注释,并引入音频贡献过滤机制以提升数据质量。在DCASE 2025挑战赛中,基于此数据集训练的模型获得第一名,展现了其在音频理解与推理任务上的显著效果。该资源已公开,旨在推动音频语言模型的研究与发展。

多模态数据/训练论文/研究

推荐理由:蚂蚁 inclusionAI 拿了 DCASE 2025 第一名,数据集 57 万条带双 CoT 标注,做音频大模型后训练的团队值得看看数据构造思路,但对大多数人来说只是个脚注。
05:37
Hugging Face:Blog(RSS)
58
参与 AMD Open Robotics 黑客松

AMD联合Hugging Face和Data Monsters举办AMD Open Robotics黑客松,首站将于2025年12月5日至7日在日本东京举行,第二站于12月12日至14日在法国巴黎举行。活动面向18岁以上开发者,需组成最多四人的团队,在三天内完成LeRobot开发环境学习与自主创新项目开发两个任务。比赛将提供SO-101机器人套件、搭载AMD Ryzen™ AI处理器的笔记本电脑以及AMD Developer Cloud上的AMD Instinct™ MI300X GPU。每座城市的前七名团队将获得奖励,冠军奖金为一万美元。评委将依据创意、难度、易用性和实用性对项目进行百分制评分。

Hugging Face具身智能端侧行业动态
00:00
LMSYS:Blog(Chatbot Arena 团队)
AutoRound 与 SGLang 正式集成,实现低比特量化模型高效推理

AutoRound 与 SGLang 宣布合作,支持 INT2-INT8 低比特量化模型的高效推理部署。基于符号梯度优化算法,AutoRound 在 INT2 精度下准确率较主流基线提升 2.1 倍,单 GPU 量化 72B 模型仅需 37 分钟。开发者可将 GPTQ、AWQ 或 GGUF 格式的量化模型直接部署至 SGLang v0.5.4.post2+,兼容 LLM、VLM 及 MoE 架构,在最小精度损失下显著降低推理延迟。

开源/仓库部署/工程
11月13日
22:52
Google DeepMind:Blog(RSS)
精选
SIMA 2:在虚拟3D世界中与你共玩、推理和学习的智能体

Google 推出 SIMA 2,基于 Gemini 的 AI 智能体,支持在交互式环境中思考、理解并执行动作,可在虚拟3D世界中进行游戏、推理和协同学习。

智能体DeepMindGoogle产品更新

推荐理由:DeepMind发布SIMA 2,可在3D虚拟世界中交互推理的通用AI Agent
08:00
Hugging Face:Blog(RSS)
精选88
共建开放未来:Hugging Face与Google Cloud达成新合作

Hugging Face与Google Cloud宣布建立深度战略合作,旨在将Google Cloud打造为使用开放模型的最佳平台。双方将合作构建CDN网关,把Hugging Face上的模型和数据集直接缓存在Google Cloud上,显著提升下载速度并增强供应链稳定性。Google Cloud客户在Vertex AI、GKE等服务中部署模型时将获得更快的首次响应。同时,Hugging Face的1000万开发者将受益于更多新型计算实例、价格下降以及通过Google安全技术强化的模型安全性。此次合作还将推动TPU在开放模型开发中的普及应用。

GoogleHugging Face开源生态行业动态

推荐理由:开发者将享受更快的模型下载、TPU 原生支持和增强安全,简化 AI 部署流程。
04:59
Qwen:Blog Retrieval(API)
Qwen DeepResearch:当灵感自成其理

Qwen Studio 集成聊天机器人、图像与视频理解、图像生成、文档处理、网络搜索、工具调用及 Artifacts 功能,提供多模态 AI 一站式解决方案。

智能体产品更新搜索
04:59
Qwen:Research(API)
精选
Qwen DeepResearch 2511 发布:让深度研究成为灵感的自然延伸

Qwen DeepResearch 2511 版本正式发布,旨在消除"研究成本太高"对灵感的扼杀。通过多智能体协作与 Memory 管理机制,重构搜索策略以显著降低幻觉率。新增 Normal 与 Advanced 双模式,兼顾效率与深度;支持 PDF、Excel 等本地文件上传与自动解析。报告生成支持灵活控制字数、段落,并可一键导出网页或播客格式。当探索成本趋近于零,每一个思维火花都值得被立即追寻。

智能体产品更新搜索

推荐理由:阿里 Qwen 发布 DeepResearch 功能,支持多智能体协作与双模式深度研究
01:03
Dwarkesh Patel:Podcast & Blog(RSS)
精选
萨提亚·纳德拉:微软如何为 AGI 做准备

萨提亚·纳德拉阐述微软迈向通用人工智能(AGI)的战略布局与技术路径,揭示其在AI基础设施领域的核心投入。内容包含对Fairwater 2的实地探访,这是目前全球最强大的AI数据中心,展示微软为支持下一代大模型所构建的顶级算力底座与能源架构。

Microsoft大佬观点

推荐理由:纳德拉亲述微软AGI路线图,揭秘全球最大AI数据中心Fairwater 2内幕
11月12日
10:46
Ethan Mollick:One Useful Thing(RSS)
精选
给AI一场工作面试

AI建议愈发关键,亟需建立系统化评估机制。通过工作面试般的严格测试,全面检验AI的实际能力与可靠性,确保其建议值得信赖。

教程/实践

推荐理由:Ethan Mollick 分享通过'工作面试'法系统评估 AI 能力的实用框架
00:00
Claude:Blog(网页)
精选
通过 Skills 改进前端设计

LLM 生成界面常因"分布收敛"而陷入 Inter 字体配紫色渐变的同质化设计。Anthropic 建议通过 Skills 功能解决:将排版、动画、配色等设计规范存入独立 Markdown 文件,Claude 可在构建页面时动态加载,无需永久占用系统提示词。这种按需加载机制既保持上下文窗口精简以维持模型性能,又能让 AI 生成摆脱默认审美、更具品牌辨识度的定制化界面。

智能体Anthropic教程/实践编码

推荐理由:Claude官方分享通过Skills解决AI生成界面同质化问题的实践技巧,附字体与主题优化Prompt示例。
11月11日
19:49
Google DeepMind:Blog(RSS)
教 AI 像我们一样看世界

新论文分析了 AI 系统组织视觉世界的方式与人类的重大差异,旨在通过理解这些差异,让 AI 学会像人类一样观察和理解视觉信息。

DeepMind多模态论文/研究
00:50
Google DeepMind:Blog(RSS)
AI 如何为北爱尔兰教师赢回时间

北爱尔兰教育管理局 C2k initiative 完成六个月试点,发现将 Gemini 等生成式 AI 工具融入教学,可为参与教师平均每周节省 10 小时工作时间。

Google多模态现象/趋势
11月7日
00:00
LMSYS:Blog(Chatbot Arena 团队)
SGLang Diffusion:加速视频与图像生成

SGLang 推出 Diffusion 推理引擎,将高性能 LLM 服务架构扩展至视频与图像生成领域。该系统支持 Wan、Hunyuan、Qwen-Image、Flux 等主流开源扩散模型,在 H100/H200 GPU 上实现 1.2-5.9 倍加速。通过 ComposedPipelineBase 架构抽象与统一序列并行技术,提供 OpenAI 兼容 API、CLI 及 Python 接口,并与 FastVideo 合作覆盖从训练到部署的全流程。

图像生成开源/仓库视频部署/工程
11月6日
00:59
Google DeepMind:Blog(RSS)
利用 AI 测绘、建模并理解自然

AI 模型正被用于绘制全球物种地图、保护森林生态,并收集世界各地鸟类声音数据,助力生物多样性监测与自然保护研究。

DeepMind论文/研究
11月5日
17:54
蚂蚁 inclusionAI:GitHub 新仓库
49
inclusionAI/dFactory:轻松高效的 dLLM 微调

inclusionAI 发布了 dFactory 平台,旨在简化去中心化大语言模型的微调过程。该平台通过自动化工作流和优化的资源调度,显著降低了技术门槛与计算成本。用户无需深厚专业知识,即可利用分布式计算资源对如 LLaMA 等模型进行高效定制。关键改进包括将典型微调任务时间缩短约 40%,并支持多节点协作训练,提升了模型迭代效率。

开源/仓库数据/训练部署/工程