当前多模态大语言模型在交互范式上存在瓶颈,感知与响应分离且缺乏主动性。MiniCPM-o 4.5 通过 Omni-Flow 统一流式框架,将多模态输入输出对齐到共享时间轴,实现实时全双工全模态交互,支持同时感知与响应,并能基于对动态场景的连续理解主动发出提醒或评论。该模型参数量为 90 亿,在视觉语言能力上接近 Gemini 2.5 Flash,在全模态理解上超越 Qwen3-Omni-30B-A3B,且语音生成更优、计算效率显著更高。得益于高效的架构设计和推理优化,模型可在内存小于 12GB 的边缘设备上实现实时全双工全模态交互。
Mistral 发布了其最新模型 Mistral Medium 3.5。该模型在 Hacker News 社区获得了显著关注,收获了 125 个投票。发布信息通过官方新闻页面公布,标志着 Mistral 在模型迭代上的又一次更新。
Mistral AI推出旗舰模型Mistral Medium 3.5,这是一个128B参数的密集模型,拥有256K上下文窗口,在SWE-Bench Verified上获得77.6%的分数。该模型现作为Vibe和Le Chat的默认引擎,并驱动两项新功能:Vibe远程编程智能体可将编码任务移至云端异步并行执行,用户可通过CLI或Le Chat启动并在完成后接收通知;Le Chat的新工作模式则是一个由该模型驱动的智能体,能处理研究、分析和跨工具操作等多步骤复杂任务。这些更新旨在将开发者从本地线性任务中解放出来,提升工作效率。
AntLingAGI正式开源其万亿参数旗舰模型Ling-2.6-1T。该模型采用总参数1万亿、激活参数630亿的架构,核心设计理念是“令牌高效”,旨在以极低的令牌开销实现顶尖智能。它通过“快速思考”机制优化,具备可靠的多步骤执行能力,在指令遵循、工具使用和上下文控制方面表现优异。模型为实际生产需求优化,部署便捷,兼容广泛的智能体框架,适用于从代码生成到错误修复等多种任务。
关联讨论 2 条X:蚂蚁百灵 (@AntLingAGI)X:Artificial Analysis (@ArtificialAnlys)IBM发布了三款采用Apache 2.0许可的Granite 4.1开源模型(30B、8B、3B)。其核心特点是极高的令牌效率,例如8B模型运行智能指数仅需4M输出令牌,远低于同类模型。在开放性指数上,三款模型均获得61分,领先多数同行。但高效率也带来了智能指数的相对折衷,其得分低于Qwen3.5、Gemma 4等竞品。不过,与上一代Granite 4.0系列相比,新模型的智能表现仍有提升。该系列模型拥有128K令牌的上下文窗口,主要面向企业和边缘部署,可通过WandB、Replicate和Hugging Face获取。
关联讨论 1 条Hugging Face:Blog(RSS)腾讯开源了Hy-MT1.5-1.8B-1.25bit翻译模型,其参数量为18亿,经量化后仅440MB,可在手机上完全离线运行。该模型支持33种语言、5种方言及1056个翻译方向,包括藏语、蒙古语等少数语言。在标准测试中,其性能媲美商业翻译API和2350亿参数的大模型。通过量化至1.25比特,模型内存占用从FP16格式的3.3GB大幅降低,比之前的1.67比特方法体积缩小25%、速度提升约10%,且无精度损失。该模型已在国际机器翻译竞赛中获得30项第一,并部署于腾讯多个产品中。
Nvidia 发布了开源多模态模型 Nemotron 3 Nano Omni,该模型能够处理文本、图像、视频和音频。其引人关注之处不仅在于性能表现,更在于其训练数据的构成。模型的部分训练数据来源于 Qwen、GPT-OSS、Kimi 和 DeepSeek OCR 等多个知名项目,这揭示了构建现代多模态模型所需数据集的多样性与复杂性。
腾讯混元开源了手机端离线翻译模型Hy-MT1.5-1.8B-1.25bit,其体积仅440MB,可在手机本地离线运行。该模型支持33种语言及1056个翻译方向,基于1.8B参数原型通过极致量化压缩实现。其1.25-bit版本采用稀疏高效三值量化技术,将原始3.3GB模型大幅缩减。官方称其翻译质量优于谷歌翻译等主流系统,并提供了2-bit和1.25-bit两种量化方案以适配不同机型。模型完全离线工作,不收集用户数据,相关资源已全面开源。
科大讯飞总裁吴晓如宣布,公司计划于今年10月在华为昇腾950平台上发布国产旗舰大模型,该模型将直接对标业界最先进主流模型。此前,科大讯飞已发布星火X2-Flash模型,采用MoE架构,总参数达30B,最大支持256K上下文,基于华为昇腾910B集群训练完成。财务数据显示,2026年第一季度营业总收入为52.74亿元,同比增长13.23%;归母净利润为-1.70亿元,同比增长12.17%。
在2026数字中国建设峰会上,腾讯展示了其Agent智能体生态。其中,WorkBuddy桌面智能体工作台可根据一句话描述自动完成任务;专为中国用户优化的AI技能社区“SkillHub”已集成腾讯核心产品能力,并收录超3.5万个技能。最新发布的混元Hy3 preview语言模型首次亮相,该模型为混合专家模型,总参数295B,支持256K上下文,在复杂推理、代码等能力上大幅提升,旨在助力中小企业低成本快速搭建AI应用,并已在腾讯云、元宝等多款产品中上线。
当前大型音频语言模型普遍依赖基于验证奖励的强化学习范式来驱动听觉推理,但这陷入了“可验证奖励陷阱”——模型为追求孤立文本标签的正确性,牺牲了声学细微差别和对话自然度,导致交互机械、沉浸感差。Step-Audio-R1.5 通过转向基于人类反馈的强化学习实现了范式突破。评估表明,它在保持强大分析推理能力的同时,显著提升了交互体验,特别是在长轮对话中改善了韵律自然性与情感连续性,重新定义了深度沉浸式语音对话的边界。
科大讯飞正式发布星火 X2-Flash 模型并开放API。该模型采用MoE架构,总参数300亿,支持256K上下文,基于华为昇腾910B集群训练。其在智能体、代码等能力上大幅提升,在深度研究报告、Skill管理等多项任务上效果接近业界万亿参数模型,而整体token消耗不到主流大尺寸模型的三分之一。通过结合DSA与MTP技术,模型在国产芯片上的训练效率从同规模A800集群的20%提升至90%,并解决了长交互场景采样效率低的问题,为大规模强化学习训练扫清障碍。AstronClaw、Loomy等已率先接入。
inclusionAI 发布了 Ling-2.6-1T 模型,这是一个包含 1 万亿参数的大型语言模型。该模型基于开源与开放科学理念构建,旨在推动人工智能技术的进步与民主化。新模型在多项基准测试中展现出更强的语言理解与生成能力,同时提供了更高效的推理性能。这一发布标志着开源社区在规模化 AI 模型开发上的重要进展,为研究者和开发者提供了可访问的高性能工具。
关联讨论 1 条IT之家(RSS)NVIDIA发布了多模态模型Nemotron 3 Nano Omni,专为处理长上下文设计,能够同时理解文本、图像、音频和视频。该模型在文档分析、自动语音识别、音视频理解以及智能体计算机使用等实际应用场景中表现优异。在多项基准测试中,Nemotron 3 Nano Omni均展现出领先的准确性和效率。
蚂蚁集团发布Ling-2.6系列模型,通过MoE架构与Fast-Thinking机制,将推理激活率降至7%,在实现接近GPT-5.4非推理水平综合智能的同时,大幅降低token成本。该模型在SWE-bench Verified等真实Agent场景测试中表现领先,旨在解决Agent规模化应用的成本痛点。目前已在OpenRouter提供免费API并即将开源,推动行业焦点从刷榜转向生产落地。其高效率特性尤其适合高频任务,在部分任务中速度比Claude Sonnet 4.6快6倍、成本低50倍。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
关联讨论 2 条X:蚂蚁百灵 (@AntLingAGI)X:Artificial Analysis (@ArtificialAnlys)蚂蚁集团百灵大模型宣布开源Ling-2.6-flash,提供BF16、FP8、INT4等多个版本供开发者灵活选用。该模型总参数量104B,激活参数7.4B,是一款Instruct模型。官方基于开发者反馈优化了中英文切换及主流编程框架适配效果。其核心优势包括:采用混合线性架构,在4卡H20上推理速度最快达340 tokens/s;通过Token效率优化,在评测中消耗的tokens仅为同类模型的约1/10;针对Agent场景增强了工具调用与任务执行能力,在多项评测中达到先进水平。模型已在Hugging Face和ModelScope平台开源。
英伟达发布开源全模态推理模型Nemotron 3 Nano Omni,采用30B‑A3B混合MoE架构,集视频、音频、图像和文本处理于一体。该模型旨在替代多模型链,降低推理成本与编排复杂度。在多项基准测试中表现领先,尤其在视频推理任务中,其系统吞吐量相比其他开放式全模态模型最高提升约9.2倍,文档推理任务最高提升约7.4倍。模型权重、训练配方及数据集已完全开放,支持开发者在各类环境中定制部署。
NVIDIA 重磅发布!🚀 Nemotron 3 Nano Omni 多模态开源模型来了! 🔥 30B 参数 🔥 256K 超长上下文 🔥 最高效开放多模态模型(语言+视觉+语音+视频+音频一体化) 🔥 专为 subagents / Agentic 任务设计 🔥 完全开源(权重 + 数据 + 配方),领跑多项榜单 可通过 NVIDIA NIM API 免费试用!完美驱动多代理工作流。
关联讨论 2 条HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)名为“Talkie”的130亿参数语言模型仅使用1931年前的文本训练,其对未来世界的预测呈现出强烈的时代局限性。该模型怀疑第二次世界大战是否会发生,并将2026年想象成一个仍以蒸汽船、铁路和廉价小说为主导的世界。这直观揭示了训练数据的时间范围如何从根本上限制大语言模型对现实发展的认知与预测能力。
蚂蚁集团AGI团队发布Ling-2.6-1T模型,其核心创新在于聚焦token效率而非参数规模。该模型采用MoE架构,每次推理仅激活7.4B参数,结合Linear Attention与Multi-Token Prediction技术,在保持接近GPT-5.4非推理水平的高智能同时,将token成本降至可比模型的四分之一。在Artificial Analysis评测中以极低消耗获得高分,并在SWE-bench等硬核Agent场景领先。该模型专为处理海量真实生产请求设计,旨在为高频Agent应用提供高效、低成本的解决方案,并通过免费API策略加速生态布局,预示AI竞赛重心正向真实生产成本效率转移。
后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官…
NVIDIA 发布了 Nemotron 3 Nano Omni 模型,这是一个专为处理长上下文多模态任务设计的轻量级模型。该模型能够同时理解并处理文档、音频和视频数据,旨在赋能新一代多模态智能体。其核心变化在于将长上下文能力与多模态理解结合到一个小型化模型中,提升了在复杂跨模态场景下的处理效率与应用灵活性。
关联讨论 2 条HuggingFace Daily Papers(社区热门论文)Nathan Lambert:Interconnects(RSS)