DeepSeek V4模型限时2.5折优惠
DeepSeek推出V4模型限时2.5折优惠,其Pro版百万Token输出成本仅6元。模型分为Pro版(总参数1.6T)和Flash版(总参数284B),预训练数据均为32T。在应用中,专家模式对应Pro版,快速模式对应Flash版。测评显示其性能与Claude Opus 4.6持平,Agent能力与世界知识显著增强,并采用新注意力机制以降低计算需求。
DeepSeek推出V4模型限时2.5折优惠,其Pro版百万Token输出成本仅6元。模型分为Pro版(总参数1.6T)和Flash版(总参数284B),预训练数据均为32T。在应用中,专家模式对应Pro版,快速模式对应Flash版。测评显示其性能与Claude Opus 4.6持平,Agent能力与世界知识显著增强,并采用新注意力机制以降低计算需求。
DeepSeek团队正式推出并开源了DeepSeek-V4预览版模型,标志着高性价比的百万上下文长度时代到来。该系列包含两个模型:DeepSeek-V4-Pro拥有1.6万亿总参数和490亿活跃参数,性能媲美顶级闭源模型;DeepSeek-V4-Flash则拥有2840亿总参数和130亿活跃参数,主打快速、高效与经济。模型现已在官方平台通过专家模式和即时模式开放试用,API也已同步更新。完整的技术报告和模型权重已在Hugging Face平台发布,供社区研究和应用。
Sakana AI在ICLR2026发表论文,提出TRINITY系统。该系统通过一个仅含不到2万参数、由无梯度进化算法优化出的轻量级协调器,在推理时动态组合多个专精大语言模型(如GPT-5、Gemini 2.5-Pro)。协调器在每轮对话中为外部模型分配“思考者”、“执行者”或“验证者”角色,协同解决复杂问题。TRINITY在LiveCodeBench上创造了86.2% pass@1的新纪录,并能零样本泛化至多个未见任务,平均表现超越所有单个组成模型。该研究体现了构建协同、多样化AI生态系统的愿景。
🔥DeepSeek-V4-Pro API 限时75折优惠,截止至2026年5月5日15:59(UTC时间)!切勿错过此次大幅折扣。 🛠️集成更新: 🔹Claude Code:将模型设置为 deepseek-v4-pro[1m] 即可解锁100万上下文! 🔹OpenCode:请更新至 v1.14.24+ 🔹OpenClaw:请更新至 v2026.4.24+ 查看最新官方API文档获取完整详情:https://api-docs.deepseek.com/quick_start/pricing
研究团队开发了一种名为“耦合横断面与纵向非负矩阵分解”的新机器学习方法,通过同时分析横断面和纵向神经影像数据来捕捉主导的大脑衰老模式。该方法应用于来自iSTAGING研究的48,949名个体的神经影像数据,识别出七种独特、可重复且具有生物学相关性的神经解剖模式。量化个体对这些模式表达程度的负载系数,与认知、遗传和生活方式因素显示出显著关联。研究还开发了一个基于回归的工具,可在不重新运行整个框架的情况下估算外部队列的负载系数。这些发现有望改善神经退行性疾病的风险评估和治疗效果评价。该框架虽基于结构MRI演示,但可推广至其他成像模式和生物标志物类型。
本研究深入分析了可学习前端LEAF的滤波器组初始化效果,覆盖语音识别、情感识别、声学场景分类和鸟类检测四项任务。实验表明,只要初始化覆盖整个频谱,性能即可保持高位,但滤波器参数几乎不调整;而均匀初始化虽会引起参数变化,性能却始终较低。这一现象与任务中的频率信息分布无关,凸显了初始化策略与LEAF固有归纳偏置的关键作用,对其在不同场景下的适应性与可解释性提出了质疑。实验代码已公开。
当前AI助手训练基于用户能清晰表达目标的假设,但行为研究表明,人们常在目标未成形时就开始交互,导致AI将不完整提示视为完整意图,产生名为“幻想曲交互”的对齐失败。作者主张,对齐研究需转向将AI设计为能主动帮助用户随时间形成和细化意图的认知支持系统,而非视用户为理性预言者。这需要融合机器学习、界面设计与行为科学的跨学科方法。现有干预措施不足,本文提出了新的研究议程,以设计和评估能更好帮助人类应对任务不确定性的AI系统。
研究通过扩展EconCausal基准,引入1,056个意识形态争议案例,系统评估了20个先进大型语言模型。这些案例源于10,490个经实证验证的因果三元组,涉及干预导向与市场导向观点的分歧。结果显示,争议问题的准确率普遍较低,且在18个模型中,当实证因果方向符合干预导向预期时,模型准确率显著更高。模型的错误预测也明显偏向干预导向,且单样本提示未能消除此倾向。这表明LLMs在意识形态争议经济问题上不仅准确性下降,而且在一个方向上系统性更不可靠,凸显了在高风险经济政策场景中进行方向感知评估的必要性。
当前AI系统已在贷款审批、刑事调查标记、自动驾驶刹车等高风险领域做出决策,欧盟《人工智能法案》等监管框架要求系统在部署前证明安全性,但均未界定“可接受风险”的量化标准,也缺乏验证是否达标的可行方法。研究借鉴航空认证范式,提出一个两阶段统计认证框架:第一阶段由主管机构明确设定可接受失败概率δ与操作输入域ε;第二阶段通过RoMA与gRoMA统计验证工具,在不依赖模型内部结构的前提下,计算出系统真实失败率的可审计上限。该框架适用于任意架构的黑盒模型,能将监管责任前移至开发方,并与现有法律体系衔接。
OpenAI 针对新发布的 GPT-5.5 API 模型发布了详细的提示指南。核心建议包括:在处理多步骤任务时,应在调用工具前先向用户发送简短的状态更新,以提升交互体验。官方强调 GPT-5.5 应被视为一个需要重新调优的新模型系列,而非 GPT-5.2 或 GPT-5.4 的直接替代品,建议从零开始构建提示,而非沿用旧有提示。开发者可通过 `openai-docs` 技能使用 `$openai-docs migrate this project to gpt-5.5` 命令来辅助代码迁移,官方升级指南中还包含了轻量的提示词改写建议。