在2014年的对话中,Marc Andreessen向Sam Altman揭示了风险投资的残酷逻辑:每年约4000家可投资公司中,仅约200家获得顶级风投注资,而其中仅有15家能实现1亿美元收入,它们贡献了当年风投行业几乎全部的回报。因此,投资者评估初创企业时,主要不是看其是否全面可靠,而是寻找能否让其跻身那极少数赢家的“不对称优势”,例如产品病毒式传播、精准的市场时机或创始人非凡能力等。在幂律分布主导的行业里,“全面优秀”远不如“在决定性方面卓越”。对创业者而言,关键在于展示能显著改变概率的独特突出优势,因为平庸在风投领域几乎注定失败。
OpenAI正调整其“星际之门”AI基础设施建设计划,从原先侧重自建转向更大程度依赖算力租赁。公司将通过一系列大型双边交易来满足算力需求,具体将以Nscale→微软→OpenAI的间接方式,从原“星际之门·挪威”数据中心站点获取资源。微软同时将接手原计划作为首个站点扩建项目的美国得克萨斯州阿比林园区二期,以支持受此调整影响的企业。这一转变意味着OpenAI缩减了自建算力设施的规模。
<谷歌相册推出AI衣橱规划功能,通过人工智能自动提取用户照片中的服装图像,整理到数字衣橱。用户可按类别筛选服装,混搭单品设计穿搭,并支持虚拟试穿预览;还可保存穿搭到数字情绪板,适用于不同场合。该功能预计今年夏季首发于安卓平台,随后登陆iOS设备。>
中广核浙江三澳核电项目1号机组已完成168小时试运行,正式投产发电,成为我国首个民营资本参股项目、长三角地区首台“华龙一号”核电机组。该机组预计年发电量超90亿千瓦时,可满足超100万居民的年度用电需求。项目规划建设6台“华龙一号”机组,目前已核准4台;全部建成后,年发电能力预计超540亿千瓦时,每年可减少标煤消耗超1635万吨、减排二氧化碳近5000万吨,相当于新增植树造林面积超12万公顷。
人工智能初创公司Anthropic正考虑进行新一轮融资,其估值有望达到9000亿美元。若融资成功,该公司将超越目前估值8520亿美元的OpenAI,成为全球最具价值的AI初创企业。Anthropic当前正式估值为3500亿美元,新一轮融资将使该数值翻倍。此前,该公司已获得谷歌和亚马逊基于3500亿美元估值的投资,金额分别为100亿美元和50亿美元,两家科技巨头还承诺后续追加投资。
研究机构SemiAnalysis近日宣布引入名为MERLIN的Agentic研究总监及其团队。该团队能快速覆盖公司、财报和金融建模,启动分析仅需数分钟,远快于通常所需的15小时。同时,Agentic会议总监Claudia可即时处理海量会议资料并提供摘要;竞争分析研究员Snoopz则擅长搜集公开信息构建产品数据库与路线图。据其最新播客透露,整合这些AI智能体后,SemiAnalysis的人均Token使用效率已达Meta的两倍,实现了显著的“TokenMogging”效能提升。
现有驾驶世界模型多专注于未来场景生成,而大语言模型虽具推理能力却无法预测几何演变,导致语义理解与物理模拟之间存在鸿沟。为此,我们提出HERMES++,一个将3D场景理解与未来几何预测集成于单一框架的统一模型。其核心设计包括:利用BEV表征整合多视角空间信息;引入LLM增强的世界查询以促进知识迁移;设计“当前-未来链接”来弥合时序差距,使几何演变基于语义上下文;以及采用联合几何优化策略,整合显式约束与隐式正则化以确保结构完整性。在多个基准测试中,HERMES++在未来的点云预测和3D场景理解任务上均超越专用方法,展现出卓越性能。模型与代码已开源。
Skills-Coach是一种自动化框架,旨在提升基于大语言模型的智能体的技能自进化能力。它通过四个核心模块解决技能生态系统碎片化:多样化任务生成模块创建测试套件;轻量化优化模块改进技能提示和代码;对比执行模块评估原始与优化技能;可追溯评估模块严格评判性能。框架提供虚拟和真实执行模式。研究使用包含48项技能的Skill-X基准数据集验证,实验结果表明Skills-Coach在广泛技能类别上实现显著性能提升,有助于开发更强大、适应性更强的LLM智能体。
WindowsWorld是一个跨应用工作流基准,旨在系统评估GUI代理在模拟真实专业活动的复杂多步骤任务中的性能。该基准采用由16种职业引导的多智能体框架,生成包含四个难度级别及中间检查的任务,经人工审核后在模拟环境中执行。基准包含181个任务,平均每个任务有5.0个子目标,覆盖17种常用桌面应用,其中78%为跨应用任务。实验结果显示,当前领先的大模型与代理在跨应用任务上表现不佳(成功率低于21%),远低于简单单应用任务;在需要跨三个及以上应用进行条件判断与推理的任务中大多失败,且执行效率低下。相关代码、基准数据与评估资源已开源。
Haiku是一个基于多重免疫荧光数据训练的三模态对比学习模型,整合了空间蛋白质组、H&E组织病理图像和临床数据。该模型在来自1,606名患者、涵盖11种器官类型的3,218个组织切片上训练,实现了三模态跨模态检索,在下游分类、生存预测等任务中超越单模态基线。其创新性在于支持仅通过临床文本描述进行零样本生物标志物推断,并引入反事实预测框架,能在固定组织形态下通过修改临床元数据揭示与癌症进展相关的微环境分子变化,为连接分子测量与临床背景提供了系统分析工具。
研究团队发布了CURVAS-PDACVI数据集与挑战赛,这是一个针对胰腺导管腺癌术前血管侵犯评估的开放基准。数据集包含每例扫描的五位专家独立标注,支持不确定性感知AI模型的开发。提出的评估框架不仅衡量空间重叠度,还纳入概率校准与侵犯判定。对六种前沿方法的评估表明,全局体积精度高的模型在关键的肿瘤-血管界面未必可靠;而专门建模标注者分歧的方法能生成更校准的概率图,在专家共识低的复杂案例中更具鲁棒性。该基准揭示了体积精度作为手术适用性代理指标的局限性,推动了面向术前决策的不确定性感知模型的发展。
针对德语等高资源非英语语言,本研究构建分层过滤器处理5亿份网络文档,对比了单次训练大规模低过滤数据与多轮重复训练高质量核心数据的效果。实验表明,重复训练高质量数据在多种模型规模和训练量级下均稳定优于追求多样性的单次训练,即使重复7轮后性能差距依然显著。这证明通过质量过滤实现语义集中,比单纯扩大数据量更能高效推进语言建模。基于此发布的德语模型Boldt,在训练量仅为同类模型1/10至1/360的情况下取得了领先性能,相关清洗后的评估基准已公开。
MASCing框架首次实现无需重新训练的专家混合模型安全行为灵活配置。该框架使用LSTM代理模型捕捉路由依赖关系,通过优化引导矩阵识别行为相关专家回路,并在推理时对路由门应用引导掩码以覆盖专家选择,从而针对性增强或抑制特定安全行为。在七款开源MoE模型测试中,该框架以可忽略开销显著提升性能:多轮越狱防御平均成功率从52.5%提升至83.9%,成人内容生成平均成功率从52.6%提升至82.0%,最高增益分别达89.2%和93.0%。
研究通过引入mosaic框架,系统探究了扩散模型在多物体生成中的局限性。发现场景复杂性是主要障碍,而非概念不平衡;在低数据量下,计数能力尤其难以学习。当训练中排除更多概念组合时,模型的组合泛化能力会崩溃。这些发现揭示了扩散模型的基本限制,为设计更强归纳偏置和数据方案以提升多物体组合生成鲁棒性提供了依据。
研究团队开发了一套手语伪标注流程,以解决高质量标注数据匮乏对AI手语翻译发展的限制。该流程以手语视频和英文文本为输入,输出包括时间区间在内的可能注释排序集合,涵盖手势词、手指拼写单词和手语分类器。新发布的ASL STEM Wiki和FLEURS-ASL等数据集虽包含数百小时专业译员数据,但因标注成本过高仅实现部分标注。该自举方法旨在显著提升大规模手语数据的利用效率。
苹果公司将于5月4日至8日在西班牙巴塞罗那举行的ICASSP 2026上展示其最新研究成果,并再次赞助该会议。本届会议汇聚了专注于信号处理及其应用的科学与工业研究界人士。苹果的参与凸显了其在相关前沿技术领域的持续投入。
研究团队提出了基于标准化流的视频生成模型STARFlow-V,旨在应对视频生成领域长期由扩散模型主导的局面。该模型具备端到端学习、鲁棒的因果预测和原生似然估计等优势,能够直接处理连续数据并建模复杂的时空动态。这一工作标志着标准化流在图像生成取得进展后,首次被系统性地扩展至计算成本更高、时空结构更复杂的视频生成任务中,为生成式模型的设计提供了新的技术路径。
本月发布聚焦视频生成、工作空间、智能体SDK与重排序模型。多家公司推出前沿大模型,包括GPT、Claude和LLaMA系列的新版本。核心变化体现在模型多模态能力增强,特别是视频生成功能成为竞争焦点。部分新模型在标准基准测试中性能提升超过15%,同时上下文窗口扩展至百万token级别。开发者工具方面,新的智能体SDK支持更复杂的任务编排,而重排序模型显著提升了检索精度。
针对长上下文大语言模型在优化式红队测试中计算与内存消耗巨大的问题,研究人员提出了FlashRT框架。该框架显著提升了提示注入与知识腐蚀攻击的测试效率,相比先进基线nanoGCG,实现了2至7倍的加速(如将运行时间从一小时缩短至十分钟内)和2至4倍的内存节省(如在32K令牌上下文中将GPU内存从264.1 GB降至65.7 GB)。FlashRT可广泛适配于TAP、AutoDAN等黑盒优化方法,为系统评估长上下文LLM的安全风险提供了高效工具,代码已开源。
研究团队针对阿拉伯语诗歌创作,构建了一个大规模、高质量的指令数据集,涵盖现代标准阿拉伯语及多种方言。该数据集支持根据风格、韵律等预设条件进行诗歌写作、修订、续写以及诗歌分析任务。通过在大型语言模型上微调该数据集,实验表明模型能有效生成符合用户要求的诗歌,这一结果已通过自动评估和阿拉伯语母语者的人工评估得到验证。相关数据和代码已开源。
Claw-Eval-Live 是一个用于评估工作流智能体的实时基准,它将可定期刷新的公共需求信号层与可复现的时间戳快照相分离。该基准基于当前版本中 ClawHub Top-500 技能构建了 105 项涵盖商业服务与本地工作空间修复的受控任务。评估过程全面记录执行轨迹、审计日志、服务状态与运行后产物,并综合使用确定性检查与结构化大模型评判。在对 13 个前沿模型的公开统一测试中,领先模型仅通过 66.7% 的任务,无一达到 70%。失败多集中于人力资源、管理及多系统业务工作流,而本地修复任务相对容易但仍有提升空间。结果表明,工作流智能体评估需同时基于新鲜的外部需求与可验证的智能体执行动作。
人形机器人流畅的富交互行为建模是一大挑战。ExoActor提出新框架,利用大规模视频生成模型的泛化能力,将任务指令与场景上下文输入,通过第三人称视频生成技术合成隐含机器人、环境与物体协调交互的合理执行过程,再将其转化为可执行的人形机器人行为序列。实验表明,该端到端系统能泛化至新场景且无需额外真实数据收集,为建模富交互行为提供了可扩展路径,有望推动通用人形智能发展。
针对图像编辑中缺乏通用奖励模型的问题,本研究提出Edit-R1框架。该框架构建了一个基于思维链的推理奖励模型,通过将编辑指令分解为多项原则进行细粒度评估,生成可解释的奖励信号。为训练此模型,研究采用监督微调进行“冷启动”,并引入群体对比偏好优化算法,利用人类成对偏好数据强化模型。实验表明,该推理奖励模型在编辑任务上超越了Seed-1.5-VL等视觉语言模型,且性能随参数规模从3B增至7B持续提升。最终,该框架成功提升了如FLUX.1-kontext等下游图像编辑模型的效果。
xAI于2026年4月30日推出自定义语音和语音库功能。用户可通过约1分钟录音快速克隆声音,并在Grok文本转语音及语音代理API中即时使用,整个过程仅需2分钟。语音库提供集中管理平台,内置语音已超80种,支持28种语言。为确保安全,系统采用两阶段验证,包括实时转录匹配和说话人嵌入确认,以防止未经授权的克隆。这些功能适用于品牌代理、内容创作、无障碍辅助、多语言团队及游戏娱乐等多种场景,且使用自定义语音无需额外费用。
具身智能需高保真仿真环境,但现有平台存在数据污染和灵活性限制。本研究提出World2Minecraft系统,基于3D语义占据预测将真实场景转换为结构化Minecraft环境,以支持视觉语言导航等任务。然而,重建质量受限于占据预测模型的数据稀缺和泛化能力不足。为此,团队开发了低成本、自动化数据采集流程,构建大规模定制化数据集MinecraftOcc,包含100,165张图像来自156个精细室内场景。实验表明,该数据集有效补充现有资源并对前沿方法构成显著挑战,提升了占据预测精度,同时凸显World2Minecraft作为可定制、可编辑平台对个性化具身AI研究的价值。
现代视频扩散模型擅长外观合成,但物理一致性不足,如物体漂移、碰撞不真实。PhyCo框架引入连续、可解释且基于物理的控制,整合三个核心组件:包含超过10万条模拟视频的大规模数据集,系统改变摩擦、恢复系数等属性;基于像素对齐物理属性图的ControlNet,对预训练扩散模型进行物理监督微调;以及VLM引导的奖励优化,通过微调视觉语言模型评估视频并提供可微分反馈。该方法使模型能通过调整物理属性生成物理一致且可控的视频,无需推理时模拟或几何重建。在Physics-IQ基准测试中,PhyCo显著提升物理真实感,人类研究证实其控制更清晰、更忠实。
MoCapAnything V2 提出了首个完全端到端的单目视频运动捕捉框架,用于驱动任意骨骼。该框架将视频到姿态、姿态到旋转两个模块设计为可学习且联合优化,解决了传统分解流程中旋转模糊与不可微逆运动学带来的限制。通过引入目标资产的参考姿态-旋转对与休息姿态,明确定义了旋转坐标系,将旋转预测转化为条件良好的问题。模型直接从视频预测关节位置,无需依赖网格中间表示,提升了鲁棒性与效率。实验表明,该方法在多个数据集上将旋转误差从约17度显著降低至约10度,在未见骨骼上可达6.54度,且推理速度比基于网格的方法快约20倍。
本文针对非专业低代码用户指令模糊、质量低的现实瓶颈,提出了首个多模态交互式网站生成基准InteractWeb-Bench。该基准通过四类用户智能体与基于人物角色的指令扰动,系统模拟了包含模糊、冗余和矛盾在内的多样化用户行为,并提供了一个支持澄清、实现、验证和提交统一行动的交互式执行环境,以实现迭代式意图细化与代码合成。大量实验表明,当前前沿的多模态大语言模型智能体仍受困于“盲目执行”模式,在意图识别与自适应交互方面存在明显局限。
研究团队提出“规模化合成计算机”方法,以创建包含真实文件夹层级与丰富文件内容(如文档、表格)的可扩展计算机环境。基于每个合成计算机,系统运行长周期模拟:一个代理设定符合用户身份、需耗时约一个月完成的多项专业任务目标;另一代理则扮演用户,通过导航文件系统、与模拟协作者协作、生成专业文件等方式持续工作直至目标达成。初步实验中,团队创建了1000个合成计算机并运行模拟,每次模拟平均需超过8小时代理运行时间、跨越2000多个回合。模拟产生的丰富经验学习信号显著提升了代理在生产力评估中的表现,该方法有望扩展至数百万甚至数十亿合成用户世界,为长周期生产力场景中的智能体自我改进与强化学习提供基础。
本研究提出Eywa异构智能体框架,以扩展语言中心的大模型系统至更广泛的科学基础模型。该框架通过为领域专用基础模型增加语言模型推理接口,使语言模型能指导非语言数据模态的推断,从而让预测性基础模型参与高层推理与决策。Eywa可作为单智能体流程的直接替代,或嵌入现有多智能体系统,并支持基于动态规划的跨模态任务协调。实验覆盖物理、生命及社会科学领域,结果表明Eywa能提升涉及结构化与领域专用数据的任务性能,并通过与专用模型的协作减少对纯语言推理的依赖。
当前视觉生成模型在写实性、指令跟随等方面进展显著,但在空间推理、长程一致性与因果理解上仍面临挑战。研究主张从外观合成转向智能视觉生成,即生成基于结构、动态和因果关系的合理内容。为此提出了一个五级分类体系,标志着从被动渲染器到交互式、世界感知生成器的根本转变。关键技术驱动力包括流匹配、统一的理解-生成模型、数据策展与后训练等。现有评估常因过度强调感知质量而高估进展,忽视了结构与时序缺陷。结合基准评测与真实场景测试,该路线图为推进下一代智能视觉生成系统提供了以能力为中心的视角。
本研究提出FD-loss,通过将弗雷歇距离(FD)估计所需的大规模样本量与梯度计算的小批量解耦,首次将其有效优化为训练目标。该方法在不同表征空间中对基础生成器进行后训练,能持续提升样本视觉质量,并在Inception空间下使单步生成器在ImageNet 256x256上达到0.72的FID。FD-loss无需蒸馏或对抗训练,即可将多步生成器转化为高性能单步模型。研究同时发现,仅依赖Inception FID可能误导质量评估,因此提出了多表征度量指标FDr^k。这项工作推动了分布距离在生成模型的训练与评估中的进一步探索。
针对现有以文档为中心的研究设施无法显式表征方法演进关系的问题,本文提出了方法论演化图谱Intern-Atlas。它从超103万篇AI论文中自动识别方法实体,推断其谱系关系与关键创新瓶颈,构建了一个包含941万余条有证据支撑语义边的可查询因果网络。研究还设计了自引导时序树搜索算法以追溯方法演进链条,经验证与专家标注结果高度一致。该图谱支持想法评估与自动生成等下游应用,为自动化科学发现提供了基础数据层。
平台推出了高级账户安全功能,核心更新包括抗钓鱼登录验证、更强大的账户恢复机制以及增强型保护措施。这些升级旨在更有效地保护用户的敏感数据,并重点防范账户被恶意接管的风险。新安全体系通过多重技术强化了整体防护层级。
研究发现,当语言模型面对困难问题时,其内部“脑活动”会收缩到更少的路径中。模型在感到困惑时会压缩内部思考,表现为从广泛分散的神经元激活,坍缩为最终处理层中高度集中的信号。这是因为系统放弃了稳健的分布式记忆,将计算强制压缩到狭小的专门空间以应对陌生挑战。关键在于,这种收缩效应可被量化为一个原始数值,从而无需猜测问题对AI是否过难。通过读取此内部信号,便能自动为系统提供恰如其分的“垫脚石”以辅助其解决问题。
苹果计划在 iOS 27 版相机应用中新增 Siri 模式,整合 Visual Intelligence 功能。该模式将与现有拍照模式并列显示,使智能视觉能力更易访问。功能包括扫描食品营养标签记录卡路里数据并同步至健康应用,识别名片信息添加联系人,以及扫描活动门票和会员卡生成数字版本存入钱包。此前需长按按钮激活的隐蔽操作被直接集成,提升用户使用便捷性。