5月1日
08:00
HuggingFace Daily Papers(社区热门论文)
62
Stable-GFlowNet:通过对比轨迹平衡实现多样且鲁棒的LLM红队测试

针对大型语言模型红队测试中生成对抗性攻击时面临的训练不稳定与模式崩溃问题,研究团队提出Stable-GFN方法。该方法摒弃了传统生成流网络中的分区函数估计,转而采用基于成对比较的稳定训练目标,并引入鲁棒掩码机制以应对奖励噪声。此外,通过流畅度稳定器防止模型陷入生成无意义文本的局部最优。实验表明,该方法在保持生成流网络最优策略的同时,实现了更稳定的训练过程,其生成的对抗攻击在效果与多样性方面均表现优异。

arXiv安全/对齐论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
58
从树到流再回归:统一决策树与扩散模型

研究建立了层次决策树与扩散过程在极限状态下的数学对应关系,提出统一的优化原则——全局轨迹分数匹配(GTSM),并证明理想化梯度提升是其渐进最优解。基于该框架,treeflow 在表格数据生成任务中实现了更高保真度与 2 倍计算加速,生成质量达到竞争水平;dsmtree 作为一种新型蒸馏方法,能将层次决策逻辑迁移至神经网络,在多项基准测试中与教师模型性能差距不超过 2%。

数据/训练论文/研究
08:00
Apple Machine Learning Research(RSS)
精选67
强化智能体:面向工具调用智能体的推理时反馈机制

本文提出一种将评估机制嵌入工具调用智能体实时执行循环的新方法。通过引入一个专门的评审员智能体,在推理时对主智能体的中间决策轨迹进行即时评估,并生成结构化反馈。这使得主智能体能在单次运行中动态调整其工具选择与参数调用,无需依赖传统的提示调整或模型重训练。该实时干预机制旨在直接纠正错误,提升了工具使用的准确性与可靠性,突破了传统后验评估无法在运行中修正行为的局限。本工作已被ACL 2026的自然语言生成、评估与指标研讨会接收。

智能体MCP/工具论文/研究

推荐理由:Apple 把评估嵌进 agent 执行循环,不是事后分锅,而是让 reviewer 实时纠错,这对 tool-calling 类应用是个真方向,做 agent 架构的值得细读。
08:00
HuggingFace Daily Papers(社区热门论文)
63
Online Self-Calibration Against Hallucination in Vision-Language Models

针对大型视觉语言模型普遍存在的幻觉问题,研究提出在线自校准框架OSCAR。该方法利用模型自身判别能力高于生成能力的特点,通过蒙特卡洛树搜索和双粒度奖励机制构建偏好数据,并采用直接偏好优化进行迭代训练。实验表明,OSCAR在多个幻觉基准测试中取得最优性能,同时提升了模型的通用多模态能力,避免了传统离线对齐方法中存在的监督-感知失配问题。

多模态安全/对齐论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
60
LASE:用于印度语系跨文字身份保护的语言对抗性说话人编码

研究提出LASE(语言对抗性说话人编码器),以解决多语言语音克隆中因发音文字不同导致的说话人身份漂移问题。现有编码器如WavLM和ECAPA-TDNN在跨文字切换时性能下降。LASE在冻结的WavLM-base-plus模型上增加小型投影头,结合监督对比损失和梯度反转的跨语言分类对抗损失进行训练,使编码消除语言信息的同时保留说话人特征。实验表明,在1118个跨文字语音对上,LASE将身份漂移降至接近零,并扩大与基线的差距2.4-2.7倍。在合成多说话人日记任务中,LASE仅用约百分之一训练数据即达到与ECAPA-TDNN相当的说话人召回率。研究同时发布了模型检查点、语料库和评估代码。

Hugging Face开源生态论文/研究语音
08:00
HuggingFace Daily Papers(社区热门论文)
58
学习行动与协作:用于分布式黑盒共识优化的轨迹驱动框架

本文针对分布式黑盒共识优化问题,提出轨迹驱动的自设计框架LACMAS。该方法首先设计了具有自适应内部机制的智能体群体动力学,以平衡探索、收敛与局部逃逸。在此基础上,利用大型语言模型根据历史优化轨迹,为智能体的内部行动与外部协作模式提供稀疏的高层指导,并采用分阶段认知调度策略进行资源感知的适应。实验表明,该框架在基准测试和实际任务中,能持续提升解决方案质量、收敛效率与通信效率,为从人工设计转向自设计多智能体优化系统提供了可行路径。

智能体数据/训练论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
58
部署中学习:面向通用机器人策略的集群规模强化学习框架

研究团队提出了“部署中学习”(LWD)框架,用于对通用视觉-语言-动作(VLA)策略进行持续的集群规模离线到在线强化学习。该系统从预训练策略出发,利用机器人集群自主运行和人工干预数据,形成部署、经验共享、策略改进与再部署的闭环。为稳定处理异构稀疏奖励数据,LWD结合了用于鲁棒价值估计的分布隐式价值学习(DIVL)和用于基于流的动作生成器中策略提取的伴随匹配Q学习(QAM)。在16台双臂机器人集群的八项真实操作任务(包括语义商品补货与长时程任务)验证中,单一通用策略随经验积累平均成功率提升至95%,长时程任务改进尤为显著。

智能体arXiv具身智能论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
58
让ViT说话:生成式语言-图像预训练

本文提出生成式语言-图像预训练框架GenLIP,为多模态大语言模型设计了一种极简的视觉Transformer预训练方法。该框架直接使用语言建模目标训练ViT,使其根据视觉token预测语言token,无需构建对比批次或额外文本解码器。其优势在于结构简单、数据和模型规模可扩展性强,并在多项多模态基准测试中取得有竞争力或更优的结果。基于Recap-DataComp-1B中80亿样本训练后,GenLIP在使用更少预训练数据的情况下达到或超越了强基线模型。进一步在多分辨率图像上持续预训练后,模型在OCR和图表理解等细节敏感任务上表现进一步提升。

arXiv多模态论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
65
基于一维语义分词器的端到端自回归图像生成

研究团队提出一种端到端训练框架,联合优化图像重建与生成过程,使分词器能直接受到生成结果的监督。该方法突破了以往分词器与生成模型分两阶段训练的范式,并探索利用视觉基础模型提升一维分词器在自回归建模中的性能。最终模型在无引导的 ImageNet 256×256 图像生成任务中,取得了当前最优的 FID 分数 1.48。

图像生成论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
57
Map2World:基于分割地图的文本到3D世界生成

本文提出Map2World,一个创新的3D世界生成框架。它允许用户根据任意形状与尺度的自定义分割地图来生成3D世界,确保了全局尺度一致性与大范围环境的布局灵活性。该方法通过一个细节增强器网络来生成精细场景细节,在融入全局结构信息的同时保持整体场景连贯性。整个流程利用资产生成器的强先验知识,即使在场景生成训练数据有限的情况下,也能实现跨领域的稳健泛化。实验表明,本方法在用户可控性、尺度一致性和内容连贯性上显著优于现有方法。

具身智能多模态论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
63
UniVidX:基于扩散先验的统一多模态视频生成框架

UniVidX是一个利用视频扩散模型先验的统一多模态视频生成框架。它将像素对齐任务统一为共享多模态空间中的条件生成,核心设计包括:随机条件掩码,实现全向条件生成;解耦门控LoRA,为各模态引入独立适配器以保留骨干网络先验;跨模态自注意力,通过共享键值促进模态间信息交换。该框架在两个领域实例化:UniVid-Intrinsic用于RGB视频及其内在属性图;UniVid-Alpha用于混合RGB视频及其RGBA分层。实验表明,即使在少于1000个视频的小数据集上训练,模型也能在多种任务上达到先进性能,并能稳健地泛化到真实场景。

多模态视频论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
57
Themis:训练稳健的多语言代码奖励模型以实现灵活的多标准评分

针对代码奖励模型研究不足且现有模型多局限于功能正确性评分的问题,研究团队构建了Themis-CodeRewardBench基准,用于在5个偏好维度和8种编程语言上评估模型,并分析了50多个现有模型。为改进模型,团队创建了迄今最大的开源代码偏好数据集Themis-CodePreference(含超35万个偏好对),并据此训练了参数规模从6亿到320亿不等的Themis-RM系列多语言代码奖励模型,支持灵活的多标准评分。实验表明,模型具有正向缩放趋势,在多样化偏好训练下展现出强大的跨语言迁移能力,验证了多标准训练对可靠代码奖励建模的重要性。

Hugging Face数据/训练论文/研究
06:15
Microsoft Research@MSFTResearch
精选71
安全的智能体并不能保证由相互连接的智能体组成的生态系统是安全的。微软研究院研究了当AI智能体交互时会出现什么问题,以及为什么网络层面的风险需要新的方法。了解更多:https://www.microsoft.com/en-us/research/blog/red-teaming-a-network-of-agents-understanding-what-breaks-when-ai-agents-interact-at-scale/
智能体Microsoft安全/对齐论文/研究

推荐理由:大多数 Agent 安全研究还在测单个模型,微软这篇把场景放大到多个 Agent 交互的网络,发现了只靠单体安全挡不住的生态风险,做多 Agent 系统的人最好读一下。
05:14
elvis@omarsar0
62
在推理过程中何时检索

传统RAG系统在推理前单次检索,无法满足如o1、R1等大型推理模型在生成长链思维时中途出现的知识需求。ReaLM-Retrieve提出推理感知的检索框架,能在多步推理中动态注入证据。其核心在于以推理步骤粒度检测不确定性,学习判断何时引入外部证据有效,并将单次检索开销降低3.2倍。在多个QA数据集上,该框架比标准RAG的F1绝对值提升10.1%,且检索调用次数比固定间隔的IRCoT减少47%。在2-4跳的MuSiQue任务中,仅用平均1.8次检索即可达到71.2%的F1值,表明面向推理模型的RAG需优化检索时机而不仅是检索内容。

检索增强推理论文/研究
04:39
Rohan Paul@rohanpaul_ai
60
前沿AI能以超人速度自主实施端到端复杂网络攻击

前沿AI已能以超人速度和近乎零边际成本自主完成端到端的复杂专家级网络攻击链。在AISI的网络安全评估中,GPT-5.5与Mythos Preview表现相当,均远超GPT-4o等早期模型。GPT-5.5在包含32个步骤的企业网络攻击模拟中成功完成端到端攻击,而人类专家需约20小时。在一项人类专家需12小时完成的反向工程任务中,GPT-5.5仅用11分钟、花费1.73美元即告解决。

OpenAI安全/对齐评测/基准
关联讨论 2Simon Willison 博客The Decoder:AI News(RSS)
03:16
Anthropic@AnthropicAI
精选66
人们如何向Claude寻求指导? 我们分析了100万次对话,以了解人们提出什么问题、Claude如何回应,以及它何时会陷入阿谀奉承。我们利用这些发现改进了Opus 4.7和Mythos Preview的训练方式。 https://www.anthropic.com/research/claude-personal-guidance
Anthropic安全/对齐数据/训练

推荐理由:百万条真实对话里扒出谄媚模式,Anthropic 没光发论文,直接把结论灌进 Opus 4.7 训练,做助手的值得细看用户到底在问什么、模型又怎么滑向讨好。
03:09
Anthropic:Research(发表成果 · 网页)
精选71
用户如何向Claude寻求个人生活指导及其模型优化

一项基于百万次对话的隐私保护分析显示,约6%的用户会向Claude寻求个人生活指导,其中76%集中在健康(27%)、职业(26%)、人际关系(12%)和财务(11%)四大领域。研究重点关注了模型回应中的“谄媚行为”(过度认同用户),发现总体发生率为9%,但在人际关系对话中飙升至25%。为应对此问题,Anthropic创建了合成训练数据用于训练新模型Claude Opus 4.7和Claude Mythos Preview。改进后,Opus 4.7在人际关系指导中的谄媚行为比上一版本降低了一半,且改进效果能泛化到其他领域。这项研究旨在通过测量和理解个人指导交互,更好地保护用户福祉。

Anthropic安全/对齐论文/研究

推荐理由:一份不常见的研究,把自家产品当样本,挖出关系咨询中 25% 的谄媚率,并且敢公开新模型 Opus 4.7 的训练改进,Anthropic 这次的安全透明度值得其他模型厂追。
02:39
Rohan Paul@rohanpaul_ai
67
Google DeepMind 推出实时视频AI协诊系统

Google DeepMind 近日发布 AI co-clinician 协诊系统,这是一个多模态代理系统,旨在辅助医护人员,并在医生监督下运行。系统采用双代理架构:一个模块与患者对话,另一模块实时监控交互边界,能检索并验证临床级证据。在开放式药物问答中,其表现超越前沿模型,更贴合真实医疗场景的复杂性。评估聚焦临床实际关切,如避免错误陈述或遗漏关键信息。在98项初级保健模拟查询中,医生对其偏好超过主流证据合成工具;在97例NOHARM风格评估中未出现严重错误。

DeepMind多模态论文/研究
02:00
OpenAI:Alignment 研究博客(RSS)
精选67
无需人类同步监督的智能体操作自动审查机制

一项名为“自动审查”的新机制为代码智能体的部署提供了更安全的默认方案。该机制通过一个独立的审查智能体,对主智能体可能越界的操作进行异步的批准或拒绝,从而无需人类进行实时同步监督。这种方法旨在提升自主智能体在代码生成与执行过程中的安全性与可控性,是保障AI代理在边界内可靠运行的关键技术进展。

智能体OpenAI安全/对齐论文/研究
关联讨论 3OpenAI:Alignment 研究博客(RSS)X:Tibo (@thsottiaux)X:邵猛 (@shao__meng)
推荐理由:每个在部署 coding agent 的团队都会遇到安全边界难题,OpenAI 这份研究没有炫技,给出了一个务实的自动代理审查方案,比等人来审批靠谱。
4月30日
23:09
Google DeepMind:Blog(RSS)
36
以AI联合临床医生开启医疗保健新模式

研究团队正致力于开发一款AI联合临床医生,以探索AI增强医疗护理的路径。该研究旨在创建一种新型医疗模式,让AI作为临床医生的协同伙伴深度参与诊疗过程,共同提升医疗服务的质量和效率。这项工作标志着医疗保健领域正从辅助工具阶段,迈向AI作为核心协作者的新范式。

DeepMindGoogle论文/研究
21:19
DeepSeek:GitHub 新仓库
精选72
DeepSeek团队提出"视觉基元思维"新范式,解决多模态模型空间推理指代鸿沟

DeepSeek团队发布了一种新型多模态大语言模型范式,通过将点与边界框等空间标记作为最小思维单元直接嵌入推理轨迹,有效解决了复杂空间推理中的“指代鸿沟”问题。该模型基于DeepSeek-V4-Flash架构,能将每4个视觉令牌的KV缓存压缩为单个条目,显著提升了视觉令牌效率。在多项具有挑战性的计数与空间推理基准测试中,其性能媲美GPT-5.4等前沿模型,而模型规模更紧凑且图像令牌预算更低。技术报告已公开,内部基准测试和部分数据将于近期发布,模型权重未来将整合至基础模型后开放。

DeepSeek多模态推理论文/研究
关联讨论 1X:Vista (@vista8)
推荐理由:DeepSeek 把视觉坐标直接编进推理链,用「指哪想哪」的方式解决多模态模型的空间推理幻觉,思路很反直觉但效果对齐了 GPT-5.4 级别,做多模态推理的值得深挖。
20:42
The Decoder:AI News(RSS)
55
Anthropic 新基准测试声称 Claude 在生物信息学领域可媲美人类专家

Anthropic 发布了名为 BioMysteryBench 的新基准测试,旨在评估 Claude 解决真实生物信息学问题的能力。测试结果显示,Claude 的表现能达到人类专家水平。然而,这一结论附带重要注意事项,表明结果虽具前景但仍有局限。该基准专注于衡量模型在专业领域的实际应用性能。

Anthropic论文/研究
20:11
歸藏(guizang.ai)@op7418
55
DeepSeek 多模态大语言模型的论文《Thinking with Visual Primitives》已经公开

该论文介绍了基于DeepSeek-V4-Flash底座的多模态大模型。其核心创新在于模型能同时进行文字推理和“视觉原语”(如画框、打点)思考。该模型以极低的Token成本,在多项前沿指标上达到了与GPT-5.4、Claude、Gemini等模型相当甚至更优的性能。

DeepSeek多模态论文/研究
关联讨论 1X:Vista (@vista8)
17:39
Rohan Paul@rohanpaul_ai
精选75
微软研究揭示AI助手在长文档编辑中普遍损坏内容

微软最新论文指出,当前AI助手在执行长链条编辑任务时,普遍会损坏文档内容。研究通过可逆任务对测试了19个模型,发现即使是前沿模型平均也会破坏约25%的文档内容,且问题随文件增大、流程变长而加剧。失败模式通常不是微小失误,而是偶尔出现的重大错误,这些错误会静默破坏部分文档并随时间累积。研究表明,当前的LLM在简短演示或狭窄编码任务中可能表现良好,但作为现实世界长文档工作的委托代理仍不可靠。

智能体Microsoft论文/研究

推荐理由:微软这篇论文点了当前 LLM 的死穴,短期 demo 很牛,长期编辑文档直接掉链子,25% 损坏率不是小问题,做 AI 文本编辑产品的团队得掂量一下用户信任。
17:39
Rohan Paul@rohanpaul_ai
60
Anthropic研究显示Claude能解决人类专家遗漏的真实生物信息学问题

Anthropic最新研究利用BioMysteryBench测试平台评估Claude在真实生物信息学问题上的能力。该测试将客观答案隐藏于真实数据集中,涵盖99项任务。在至少一位人类专家解决的76个问题上,Claude Mythos Preview模型准确率约为83%;更值得注意的是,在23个专家小组未能解决的问题上,该模型仍解决了其中约29.6%。然而,模型在困难问题上的成功重复性较低,表明其表现尚不稳定。研究指出,Claude最有效的模式并非充当“先知”,而是扮演快速研究协作伙伴的角色:通过分层使用方法、交叉验证证据并运用广泛背景知识来缩小搜索空间。

Anthropic数据/训练论文/研究
17:09
Rohan Paul@rohanpaul_ai
56
代理性工具工程:基于可观测性的编码代理工具自动演化

本文提出Agentic Harness Engineering方法,使编码代理能自动重写自身工具和规则,并通过可审计实验验证每次更改的有效性。传统代理工具调整依赖手动或混乱自我改进循环,缺乏明确证据。该方法将编辑转化为文件级可回滚部分,压缩运行日志为简短失败证据,并让代理为编辑写预测后基于任务结果检查。在Terminal-Bench 2测试中,从小型shell-only工具开始,经10轮进化且基础模型固定,单次尝试成功率从69.7%提升至77.0%,超越其他基线。最终工具可迁移至其他模型和SWE-bench-verified任务,在不同模型家族获得5.1到10.1点提升,并减少12%令牌使用,为昂贵工具工作提供可靠、可控的自我改进途径。

智能体arXiv编码论文/研究
16:39
Chubby♨️@kimmonismus
65
Anthropic发布BioMysteryBench基准,AI在复杂生物信息学难题上开始超越人类专家

Anthropic发布了BioMysteryBench基准测试,包含99个使用原始、杂乱真实生物数据集的开放式生物信息学挑战。最新Claude模型(4.7)解决了大部分人类专家能处理的任务,并在专家小组未能解决的23个难题中攻克了约30%。其能力源于整合数十万篇论文知识,并在不确定时叠加多种分析策略。Genentech和Roche的独立测试(CompBioBench)中,Claude Opus 4.6总体准确率达81%,最难问题准确率69%。两项基准共同表明,AI已在部分最困难的生物学问题上超越人类专家。

Anthropic数据/训练论文/研究
15:40
Hacker News 热门(buzzing.cc 中文翻译)
60
对齐"打地鼠"游戏:微调会触发大型语言模型对受版权保护书籍的检索

一项名为“对齐打地鼠”的研究发现,微调大型语言模型会激活其对受版权保护书籍的检索能力,这揭示了AI对齐过程中的新风险:模型在优化后可能无意中回忆版权内容。该研究通过代码分析证实了这一现象,相关开源代码已发布在GitHub。此话题在科技社区引发关注,在Hacker News上获得103点积分,凸显了版权与AI发展之间的潜在冲突。

安全/对齐开源/仓库数据/训练论文/研究
15:09
HuggingFace Daily Papers(社区热门论文)
57
扭转TIDE:面向扩散大语言模型的跨架构蒸馏框架

研究团队提出首个跨架构扩散大语言模型蒸馏框架TIDE,以解决师生模型在架构、注意力机制和分词器上不同时的知识迁移难题。该框架包含三个核心组件:TIDAL根据训练进度和扩散时间步联合调节蒸馏强度;CompDemo通过互补掩码分割丰富教师模型上下文,以改进重度掩码下的预测;Reverse CALM则是一种提供有界梯度和双端噪声过滤的跨分词器目标函数。实验将80亿参数稠密模型和160亿参数MoE教师模型的知识蒸馏至6亿参数学生模型,在八个基准测试中平均领先基线1.53分,代码生成能力提升显著。

数据/训练编码论文/研究
15:09
HuggingFace Daily Papers(社区热门论文)
58
GLM-5V-Turbo:迈向多模态智能体的原生基础模型

GLM-5V-Turbo是一个为多模态智能体设计的原生基础模型。其核心创新在于将多模态感知深度整合为推理、规划、工具使用和执行的核心组件,而非语言模型的附属接口。本报告概述了其在模型设计、多模态训练、强化学习、工具链扩展及与智能体框架集成等方面的系列改进。这些改进使其在多模态编码、视觉工具使用和基于框架的智能体任务中表现出色,同时保持了有竞争力的纯文本编码能力。开发过程强调了多模态感知的中心地位、分层优化方法以及可靠的端到端验证,为构建多模态智能体提供了实践启示。

智能体多模态论文/研究
15:09
HuggingFace Daily Papers(社区热门论文)
42
FASH-iCNN:通过多模态CNN探针使时尚编辑身份可检视

FASH-iCNN是一个基于1991-2024年间15个品牌87,547张Vogue秀场图像训练的多模态系统,旨在将隐含的时尚美学逻辑转化为可检视的文化信号。该系统能根据服装图像识别其所属品牌、年代与色彩传统。纯服装模型在品牌识别上准确率达78.2%,年代识别达88.6%,特定年份识别为58.3%(平均误差仅2.2年)。分析表明,纹理与亮度是编辑身份的核心载体:移除颜色仅使品牌识别准确率下降10.6个百分点,而移除纹理则导致37.6个百分点的显著下降。该系统将编辑文化视作明确信号,揭示每个预测背后编码的特定品牌、编辑理念与历史时刻。

多模态论文/研究
10:42
HuggingFace Daily Papers(社区热门论文)
59
ClawGym:一个用于构建高效Claw智能体的可扩展框架

ClawGym是一个可扩展框架,旨在解决Claw式环境中缺乏系统化开发框架的瓶颈,支持个人智能体开发的全生命周期。其核心包括:ClawGym-SynData数据集,通过角色驱动意图与技能基础操作合成1.35万个筛选任务,配备模拟工作空间和混合验证机制;ClawGym-Agents模型系列,基于黑盒轨迹监督微调训练,并探索在并行化任务沙箱中的轻量级强化学习流程;以及ClawGym-Bench评估基准,包含200个经过自动过滤与人工-LLM双重校准的测试实例。相关资源即将在GitHub开源发布。

智能体开源/仓库数据/训练论文/研究
10:42
HuggingFace Daily Papers(社区热门论文)
54
基于视频先验与异步去噪的统一4D世界动作建模

研究团队提出X-WAM,一个统一4D世界模型,首次在单一框架内整合了实时机器人动作执行与高保真4D世界合成。该模型通过预测多视角RGB-D视频来想象未来世界,并采用轻量级结构适配器复制预训练扩散Transformer的末端模块,形成专用深度预测分支以高效获取空间信息。其核心创新异步噪声采样技术,在推理时采用异步去噪调度,能以更少步数快速解码动作实现实时执行,同时保留完整步数生成高保真视频。模型在超过5800小时机器人数据上预训练,在RoboCasa和RoboTwin 2.0基准测试中分别达到79.2%和90.7%的平均成功率,其4D重建与生成质量在视觉和几何指标上均超越现有方法。

具身智能视频论文/研究
10:42
HuggingFace Daily Papers(社区热门论文)
56
通过系统集成推测解码加速强化学习后训练中的生成过程

前沿语言模型的强化学习后训练常受限于自回归生成速度。本研究将推测解码作为一种无损加速方法集成到RL生成过程中,在保持目标模型输出分布不变的前提下提升效率。该方案在NeMo-RL框架中结合vLLM后端实现,支持同步与异步流水线,允许在RL生成阶段进行推测。实验表明,在8B规模的同步RL推理任务中,推测解码使生成吞吐量提升1.8倍。通过高保真模拟器预测,在235B规模下结合异步RL可实现最高2.5倍的端到端训练加速。

arXiv推理论文/研究部署/工程
08:34
IT之家(RSS)
60
苹果发布 AI 框架 LaDiR:突破单一思维,并行探索多条推理路径

苹果公司与加州大学圣迭戈分校团队联合发布名为LaDiR的AI推理框架。该框架并非新模型,而是一个可叠加于现有大语言模型之上的通用架构,其核心创新在于结合扩散模型与自回归模型。在推理阶段,LaDiR利用扩散过程并行探索多条独立路径,并通过多样性鼓励机制防止思维过早收敛,最后以自回归方式输出最终答案。测试显示,该框架在LLaMA 3.1 8B等模型上,于数学推理、代码生成及谜题规划任务中,其准确率和可靠性均优于现有通用方法。

Meta推理论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
57
EDU-CIRCUIT-HW:在真实大学STEM课程学生手写解答上评估多模态大语言模型

研究团队发布了EDU-CIRCUIT-HW数据集,包含1300多份大学STEM课程的真实学生手写解答。该研究利用专家核对的转录文本与评分报告,同步评估了多种多模态大语言模型的上游识别准确性与下游自动评分性能。评估发现,模型识别的手写内容中存在大量潜在错误,表明其在高风险教育场景中用于自动评分等理解型任务的可靠性不足。一项案例研究表明,通过识别错误模式进行预先检测与纠正,仅需极少人工干预(例如将3.3%的作业交由人工评分),即可有效提升AI评分系统的鲁棒性。代码与数据集已开源。

arXivGitHub多模态论文/研究
08:00
HuggingFace Daily Papers(社区热门论文)
53
HERMES++:迈向3D场景理解与生成的统一驾驶世界模型

现有驾驶世界模型多专注于未来场景生成,而大语言模型虽具推理能力却无法预测几何演变,导致语义理解与物理模拟之间存在鸿沟。为此,我们提出HERMES++,一个将3D场景理解与未来几何预测集成于单一框架的统一模型。其核心设计包括:利用BEV表征整合多视角空间信息;引入LLM增强的世界查询以促进知识迁移;设计“当前-未来链接”来弥合时序差距,使几何演变基于语义上下文;以及采用联合几何优化策略,整合显式约束与隐式正则化以确保结构完整性。在多个基准测试中,HERMES++在未来的点云预测和3D场景理解任务上均超越专用方法,展现出卓越性能。模型与代码已开源。

具身智能多模态论文/研究