2月20日
00:00
Runway:Changelog(网页)
新增第三方模型

平台宣布接入新的第三方模型,开发者可通过统一接口调用外部AI能力。此次更新扩展模型选择范围,支持按场景灵活切换,提升开发效率。

产品更新视频
2月19日
04:14
Midjourney:Updates(RSS)
V8 图像评分活动 Round 3

V8 图像评分活动进入第三轮。本轮重点从识别"差的"样本转向学习"好的"标准,与上一轮形成对比,邀请用户前往投票链接参与。

产品更新图像生成
00:15
Hugging Face:Blog(RSS)
精选70
IBM与伯克利利用IT-Bench和MAST诊断企业级AI智能体失败原因

IBM Research与加州大学伯克利分校合作,通过新构建的IT-Bench基准测试和MAST评估框架,系统分析了企业级AI智能体在复杂IT运维任务中的失败原因。研究发现,当前智能体在多步骤规划、长序列操作及工具精确使用方面存在明显不足,导致任务失败率较高。该研究旨在为开发更可靠、适用于实际业务环境的企业级智能体提供关键诊断依据和改进方向。

智能体论文/研究评测/基准
关联讨论 1Hugging Face:Blog(RSS)
推荐理由:企业Agent落地失败的系统性诊断,部署前可参考避坑
00:01
00:00
LMSYS:Blog(Chatbot Arena 团队)
GB300 NVL72部署DeepSeek R1优化方案:长上下文推理性能突破

NVIDIA与SGLang团队发布DeepSeek R1-NVFP4在GB300 NVL72上的优化部署方案,针对128K/8K长上下文推理实现显著性能提升。通过PD分离、分块流水线并行、宽专家并行及多Token预测(MTP)等技术,系统在GB300上达226 TPS/GPU峰值吞吐量,较GB200提升1.53倍;相同延迟下性能领先1.4–1.6倍。MTP可再提升每用户TPS达1.87倍,128K预填充首Token延迟降至8.6秒。

DeepSeek开源/仓库推理部署/工程
2月18日
09:45
Ethan Mollick:One Useful Thing(RSS)
精选
Agentic 时代 AI 选择指南

Agentic 时代 AI 不再只是聊天机器人,而是能自主执行任务的智能体。面对 Claude、GPT、LLaMA 等模型,需根据代理能力、任务类型和生态集成重新评估选择策略。

智能体教程/实践

推荐理由:AI 大咖 Ethan Mollick 撰写 Agent 时代实用选型指南
08:00
Hugging Face:Blog(RSS)
精选78
使用 Gradio 的 gr.HTML 组件一键构建任意 Web 应用

Gradio 的 gr.HTML 组件允许开发者通过单一 Python 文件快速构建和部署交互式 Web 应用,无需构建步骤。它通过 html、css 和 js_on_load 三个模板,将 Python 状态注入前端并实现与 JavaScript 的双向同步。应用示例涵盖生产力工具(如像素艺术番茄钟)、商业应用(如可拖拽看板)、创意组件(如抽奖转盘)以及专业的 ML 应用(如目标检测查看器)。组件可子类化复用,并能直接集成到模型流水线中,借助快速重载模式,从构思到部署仅需数秒。

Hugging Face产品更新部署/工程

推荐理由:ML 开发者可快速构建自定义 Web 应用,单文件部署,无需前端经验。
06:22
Midjourney:Updates(RSS)
V8 Rating Party!(第二轮)

Midjourney 开启 V8 第二轮评级活动,重点针对生成文本的提示词测试模型能力。用户可访问 midjourney.com/rank-v8 参与图片评级,活动持续1天。

产品更新图像生成
01:27
Nathan Lambert:Interconnects(RSS)
精选
开源模型的永无止境的追赶

开源模型与闭源巨头(如 GPT、Claude)之间的能力差距持续存在,形成永无止境的追赶态势。文章探讨了知识蒸馏技术对缩小差距的作用,分析了开源与闭源模型在创新时间尺度上的差异,以及开源模型如何通过专业化模型在特定领域寻找获胜路径。同时指出当前开源生态在基础研究和资源投入上的缺失环节,并评估了这种追赶模式的可持续性。

大佬观点开源生态现象/趋势
关联讨论 1Nathan Lambert:Interconnects(RSS)
推荐理由:开源与闭源鸿沟难越,但蒸馏与专业化或是破局关键
2月17日
21:42
07:32
Midjourney:Updates(RSS)
V8 评分活动更新

Midjourney 本周将再举办两场 V8 Rating Party,随后正式发布 V8 模型。用户可前往 midjourney.com/rank-v8 参与 Round 1 图片评分,当前反馈已直接用于模型优化。

图像生成模型发布
2月16日
00:00
LMSYS:Blog(Chatbot Arena 团队)
SGLang-Diffusion:面向生产级视频生成的高级优化

SGLang-Diffusion发布六项生产级优化,包括Token级序列分片替代帧级方案,消除14.3%的padding开销并将通信量降至0.875倍;并行折叠技术解耦文本编码器与DiT的并行策略;并行VAE实现分布式编解码,消除高分辨率视频内存瓶颈。同时修复Cache-DiT多请求稳定性问题,优化视频保存I/O性能,并针对WanVideo融合LayerNorm内核。这些改进显著提升了视频生成框架的可扩展性、效率与稳定性。

开源/仓库视频部署/工程
2月14日
15:48
蚂蚁 inclusionAI:HuggingFace 新模型
44
inclusionAI/Ling-2.5-1T

inclusionAI 发布了 Ling-2.5-1T 模型。该模型参数规模达到 1 万亿,是其 Ling 系列的最新版本。此次发布延续了通过开源和开放科学来推进人工智能民主化的使命,旨在让先进 AI 技术更广泛可及。新版本预计在语言理解与生成能力上有所提升,继续为全球研究社区提供强大的基础模型支持。

开源生态推理模型发布
09:59
Midjourney:Updates(RSS)
V8 评分活动

Midjourney V8 进入最后优化阶段,团队邀请用户访问 midjourney.com/rank-v8 参与图片评分。通过两两对比选择更美图片,帮助改进模型质量。

产品更新图像生成
00:00
字节 Seed:Research Feed(网页内嵌数据)
精选
Seed2.0 正式发布

Seed2.0系列正式发布,推出Pro、Lite、Mini三款通用Agent模型及专用Code模型,针对复杂多模态任务与长链路Agent场景优化。模型在视觉理解、数学推理与长上下文处理方面达SOTA水平,SuperGPQA分数超越GPT-5.2,并在ICPC、IMO、CMO测试中获金牌。支持科学研究级任务,token成本较顶尖模型降低约一个数量级。目前已上线豆包App、TRAE及火山引擎API。

智能体多模态模型发布编码

推荐理由:字节 Seed2.0 正式发布,Agent 与多模态能力全面升级,已接入豆包和 TRAE
2月13日
20:00
Cursor Blog
Box 选择 Cursor,看重企业级质量、安全性与可控性

Box 因原生数据隐私与代理质量控制选择 Cursor 作为核心 IDE 与 AI 编程平台。目前 85% 以上工程师日常使用,推动产品路线图交付效率提升 30-50%。通过自定义规则与命令扩展,Box 将 React 迁移速度提升 80%,设计系统迁移提速 90%,同时确保企业级安全与代码质量。配合导师计划,六周内 Cursor 使用量增加 75%,800 余名开发者已实现 AI 辅助开发。

智能体产品更新编码
16:36
腾讯混元:Research(API)
通过 Token 级梯度诊断与 Layerwise Clipping 稳定 RLVR 训练

提出一种稳定 RLVR 训练的新方法,采用 Token 级梯度诊断技术精准定位异常梯度来源,结合逐层梯度裁剪(Layerwise Clipping)对不同网络层实施差异化约束,有效抑制训练过程中的梯度爆炸与策略震荡,提升强化学习训练的稳定性与收敛效率。

推理数据/训练论文/研究
08:00
Hugging Face:Blog(RSS)
66
Codex 与 Claude 为所有人提供定制化内核

Codex 和 Claude 宣布推出面向所有用户的定制化内核服务。这一举措旨在通过开源工具降低高级AI模型的访问门槛,使开发者能够根据特定需求调整和优化模型性能。新服务预计将支持更广泛的个性化应用开发,同时公布的相关基准测试显示,定制后模型在特定任务上的效率可提升高达30%。这标志着AI技术民主化进程又迈出关键一步。

智能体教程/实践编码
2月12日
16:53
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-4B

inclusionAI发布了ZwZ-4B开源模型。该模型参数量为40亿,基于Transformer架构,上下文窗口为32K。其训练数据包含2万亿Token,涵盖代码、数学及多语言文本。模型采用分组查询注意力机制,支持16位与32位浮点精度。团队旨在通过开源推动人工智能技术的普及与发展。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
34
inclusionAI/ZwZ-7B

inclusionAI 发布了 ZwZ-7B 模型,这是一个拥有70亿参数的开源大语言模型。该模型基于先进的 Transformer 架构,在多项基准测试中性能显著提升,尤其在代码生成和数学推理任务上表现突出。其上下文窗口扩展至 128K 令牌,并采用了分组查询注意力等高效技术。模型权重已完全开源,旨在通过开放科学推动人工智能技术的民主化与普及。

开源生态模型发布
16:52
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/ZwZ-8B

inclusionAI发布了ZwZ-8B模型,这是一个拥有80亿参数的开源人工智能模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此举是inclusionAI推进AI民主化进程的一部分,致力于让更广泛的社区能够访问和利用先进的AI技术。

开源/仓库模型发布端侧
16:14
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Zooming-without-Zooming

inclusionAI团队发布了ZwZ模型系列,在细粒度感知任务上取得了当前最佳性能。同时,该团队推出了名为ZoomBench的全新感知基准测试,其设计更具挑战性。这些成果已在ICML 2026会议上展示。

多模态论文/研究评测/基准
08:00
Hugging Face:Blog(RSS)
精选83
实践中的OpenEnv:在真实环境中评估工具使用智能体

Meta与Hugging Face联合推出开源评估框架OpenEnv,旨在标准化智能体与真实系统的交互。Turing公司贡献了生产级“Calendar Gym”环境,用于在权限控制、时间推理等现实约束下研究工具使用智能体。该框架采用类似Gymnasium的API,通过标准接口连接真实工具,将评估重点从受控演示转向真实世界可靠性。日历系统因涉及多用户、多步骤工作流等复杂性,成为评估智能体实际能力的强大测试平台。

智能体Hugging FaceMCP/工具Meta

推荐理由:提供生产级基准测试,帮助开发者评估和改进 AI 代理在复杂环境中的表现。
00:00
字节 Seed:Research Feed(网页内嵌数据)
精选
Seedance 2.0 正式发布

Seedance 2.0 视频生成模型正式发布,综合性能达业界 SOTA 水平。新版本支持多模态输入,可同时参考 9 张图片、3 段视频、3 段音频及文本指令,精准迁移构图、动作、运镜与音效。模型支持 15 秒高质量多镜头生成,集成双声道立体声技术,并新增视频延长与编辑功能,可定向修改片段、角色及剧情。目前已在即梦 AI、豆包及火山方舟平台上线,适用于影视、广告、电商等工业级内容创作场景。

多模态模型发布视频
关联讨论 5字节 Seed:Research Papers(网页内嵌数据)X:AK (@_akhaliq)HuggingFace Daily Papers(社区热门论文)IT之家(RSS)X:宝玉 (@dotey)
推荐理由:字节Seedance 2.0发布,支持多模态输入与物理稳定生成,已上线豆包即梦
00:00
智谱:研究(网页内嵌数据)
精选
GLM-5开源:从代码到工程,Agentic Engineering时代最好的开源模型

GLM-5 开源,参数规模达 744B(激活 40B),预训练数据 28.5T,集成 DeepSeek Sparse Attention 降低部署成本。Coding 能力对齐 Claude Opus 4.5,Agent 能力支持 SOTA 级长程任务执行,兼容国产芯片。同步推出 OpenClaw、AutoGLM、Z Code 及 Excel 插件等工具链,覆盖端到端开发、办公自动化等场景。

智能体模型发布编码
关联讨论 2X:Kim (@kimmonismus)智谱:研究(网页内嵌数据)
推荐理由:智谱开源744B参数GLM-5,主打Agentic Engineering与编码能力,支持国产芯片推理
2月11日
20:18
蚂蚁 inclusionAI:GitHub 新仓库
51
inclusionAI/Ming-omni-tts

inclusionAI 发布了 Ming-omni-tts,这是一个能够统一生成语音、音乐和声音的模型。该模型的核心特点是结构简单高效,并实现了对生成内容的精确控制。它通过一个统一的框架处理多种音频模态,简化了传统上需要不同模型分别处理语音、音乐和音效的流程。这一进展为跨模态音频内容的创作与编辑提供了更便捷、可控的工具。

开源生态模型发布语音
18:55
蚂蚁 inclusionAI:GitHub 新仓库
精选61
inclusionAI 发布高性能量化推理 GEMM 内核库 Humming

inclusionAI 开源了 Humming,这是一个专为量化推理设计的高性能、轻量级即时编译 GEMM 内核库。它支持在 FP16、BF16、FP8 等多种激活数据类型下进行 8 比特以下任意权重类型的推理,兼容多种量化策略与缩放类型,并同时支持稠密 GEMM 和混合专家 GEMM 运算。该库兼容 SM75+ 及以上的所有 NVIDIA GPU,在多种计算场景下能提供业界领先的吞吐量和效率。其依赖极简,仅需 PyTorch 和 NVCC,软件包大小仅约 100 KB,便于超轻量化部署。

开源/仓库推理部署/工程

推荐理由:蚂蚁 inclusionAI 开源了一个 100KB 级的量化 GEMM 库,支持从 INT1 到 FP8 全家桶,SM75+ 全覆盖,做推理部署的工程师值得花半小时跑一下 benchmark,看看能不能替换掉现有的 Marlin 方案。
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选65
inclusionAI发布新一代即时大模型Ling-2.5-1T

inclusionAI推出新一代旗舰即时模型Ling-2.5-1T,其总参数量达1T,活跃参数为63B,预训练语料扩展至29T tokens。该模型采用混合线性注意力架构,支持1M tokens上下文长度,并通过结合“正确性”与“过程冗余”的复合奖励机制,在相近的token效率下,其推理能力显著超越前代,接近前沿思维模型水平。经双向RL反馈和智能体验证等对齐策略优化,模型在创意写作和指令遵循任务上表现提升。它已兼容主流智能体平台,并在通用工具调用基准BFCL-V4上取得领先的开源性能。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把 1T 参数的即时模型开源了,63B 活跃参数加 1M 上下文,主打效率而非堆算力,对国内做开源推理模型的团队来说是个值得对标的基线。
18:52
蚂蚁 inclusionAI:GitHub 新仓库
精选78
inclusionAI发布全球首个开源万亿参数思维模型Ring-2.5-1T

inclusionAI发布了全球首个基于混合线性注意力架构的开源万亿参数思维模型Ring-2.5-1T。该模型通过高效的1:7 MLA与闪电线性注意力提升了推理速度与探索能力,并借助扩展的强化学习训练增强了深度思考和长程任务执行能力。其在IMO 2025和CMO 2025数学竞赛中均达到了金牌级别的性能。模型支持128K上下文长度,并可通过YaRN技术扩展至256K,现已于Hugging Face和ModelScope平台开源。部署方面,已支持SGLang,并提供了多GPU节点的服务器启动示例。

开源/仓库推理模型发布部署/工程

推荐理由:蚂蚁把万亿参数的开源 thinking model 放出来了,混合线性注意力架构是真新路线而非换皮,IMO/CMO 金牌级数学推理说明这不是纯堆参数。做开源大模型部署的团队值得认真看看它的架构选择。
11:12
蚂蚁 inclusionAI:HuggingFace 新模型
32
inclusionAI/Ming-omni-tts-tokenizer-12Hz

inclusionAI团队发布了Ming-omni-tts-tokenizer-12Hz开源项目,这是一个面向文本转语音(TTS)的通用分词器。该模型支持12Hz的高采样率,旨在提升语音合成的自然度与表现力。项目基于开源与开放科学的理念推进,致力于让人工智能技术更加普及和易得。

开源生态模型发布语音
11:10
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/Ming-omni-tts-0.5B

inclusionAI 发布了 Ming-omni-tts-0.5B,这是一个参数规模为 0.5B(5亿)的文本转语音模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。发布标志着在语音合成领域,一个中等规模、可公开访问的模型正式加入开源生态。

开源生态模型发布语音
10:49
蚂蚁 inclusionAI:HuggingFace 新模型
37
inclusionAI/Ming-omni-tts-16.8B-A3B

inclusionAI发布了开源文本转语音模型Ming-omni-tts-16.8B-A3B,参数量达168亿。该模型采用创新的A3B混合专家架构,在语音自然度、多语言支持和情感表现方面实现显著提升。项目遵循开源开放科学理念,旨在推动人工智能技术的民主化进程。

开源生态模型发布语音
08:00
蚂蚁百灵:Developer Blog(网页)
精选83
感知无界·创造有形:百灵全模态 Ming-flash-omni-2.0 焕新生活想象

百灵全模态大模型Ming-flash-omni-2.0正式发布。该模型基于MoE架构,在视觉、语音、图像等全模态能力上实现代际跃迁,其核心突破在于一个统一模型同时具备了强大的通用泛化能力和特定模态的专家级表现。具体特色包括:视觉百科能精准识别万物并关联知识;语音生成可控制情绪、方言,提供百种音色,并能统一生成语音、音效与背景音乐;图像创作可实现氛围重构、场景合成与智能擦除。技术层面通过亿级数据细粒度感知、知识对齐及超低帧率音频表征等创新实现性能飞跃。模型已在多个平台开源。

图像生成多模态模型发布
关联讨论 1蚂蚁百灵:Developer Blog(网页)
推荐理由:国产全模态模型开源,多模态能力达领先水准,开发者可直接体验或集成。
00:00
LMSYS:Blog(Chatbot Arena 团队)
基于AMD MI300X的Qwen3及Qwen3-VL极致延迟优化实践

阿里云Qwen团队与AMD AI框架团队基于SGLang框架,在AMD MI300X GPU上实现了Qwen3-235B与Qwen3-VL-235B的极致延迟优化。通过PTPC FP8量化、TP8张量并行、MoE负载均衡及rocJPEG图像解码等技术,Qwen3-235B的TTFT和TPOT性能分别提升1.67倍与2.12倍,Qwen3-VL-235B分别提升1.62倍与1.90倍。相关优化代码已全面开源。

多模态论文/研究部署/工程
2月10日
20:45
蚂蚁 inclusionAI:HuggingFace 新模型
42
inclusionAI/Ring-2.5-1T

inclusionAI 发布了 Ring-2.5-1T,这是一个拥有 1 万亿参数规模的大型语言模型。该模型旨在通过开源和开放科学的方式,推动人工智能技术的进步与普及。此次发布标志着在构建超大规模、可访问的 AI 模型方面取得了重要进展,为更广泛的研究社区提供了强大的基础工具。

开源生态推理模型发布
14:57
蚂蚁 inclusionAI:HuggingFace 新模型
41
inclusionAI/Ming-flash-omni-2.0

inclusionAI 发布了 Ming-flash-omni 2.0 版本。该项目致力于通过开源与开放科学的方式,推动人工智能技术的进步与民主化。新版本意味着模型能力、效率或应用范围的进一步升级,延续了其降低AI技术门槛、促进广泛可及性与协作创新的核心目标。

多模态开源生态模型发布
13:08
Qwen:Blog Retrieval(API)
Qwen-Image-2.0:专业信息图表与精美照片级真实感

Qwen-Image-2.0 发布,主打专业信息图表与照片级真实感图像生成。Qwen Studio 平台同步集成聊天、多模态理解、文档处理、网页搜索及工具调用等综合能力。

图像生成多模态模型发布
00:12
00:00
2月9日
18:47
蚂蚁 inclusionAI:HuggingFace 新模型
39
inclusionAI/LLaDA2.1-flash

inclusionAI 团队发布了 LLaDA2.1-flash 模型,致力于通过开源与开放科学推动人工智能的进步与民主化。该版本在推理速度与内存效率上显著提升,响应延迟降低约40%,同时保持与前一版本相当的准确率。模型参数规模为70亿,支持多模态输入,并优化了边缘设备部署能力。这一进展旨在降低AI技术应用门槛,促进更广泛的研究与产业落地。

开源/仓库模型发布端侧