新预印本将 single-minus 振幅扩展至引力子,利用 GPT-5.2 Pro 推导并验证量子引力中的非零引力子树振幅。
inclusionAI 发布了 ZwZ-2B 模型,这是一个拥有 20 亿参数的开源语言模型。该模型旨在通过开源和开放科学的方式推动人工智能的进步与民主化。其上下文处理长度扩展至 128K,并在多项基准测试中性能显著提升,特别是在代码生成和数学推理任务上表现出色。ZwZ-2B 的发布为研究者和开发者提供了一个更易获取的高性能 AI 工具。
OpenAI 推出 Learning Outcomes Measurement Suite,用于评估 AI 在各类教育环境中对学生学习的长期影响。
Axios COO Allison Murphy 介绍公司借助 AI 支持地方记者、优化新闻编辑室工作流,实现高影响力地方新闻的规模化产出。
Google DeepMind 分享 Project Genie 使用指南,提供 4 个提示词写作技巧,帮助用户通过自然语言描述生成可交互的虚拟世界。
关联讨论 1 条Google DeepMind:Blog(RSS)Photoroom团队在Hugging Face上发布博客,宣布成功在24小时内完成一个文本到图像模型的训练。这一突破将此类模型的典型训练周期从数周大幅缩短至仅一天。实现的关键在于采用了名为PRX的高效训练方法,该方法优化了计算资源分配与数据处理流程。此举显著降低了模型训练的时间与成本门槛,为快速迭代和部署高质量的图像生成AI模型提供了新的可能性。
Google 发布 Gemini 3.1 Flash-Lite,为 Gemini 3 系列中速度最快、成本效益最高的模型,面向大规模智能应用场景优化。
阿里巴巴 Qwen 3.5、智谱 AI GLM 5 与 MiniMax 2.5 近期集中发布,中国头部 AI 实验室通过开源策略持续推动技术边界。新一代模型在代码生成、多模态推理与复杂任务处理上实现显著性能跃升,参数规模与上下文窗口同步扩展,展现中国在全球开源 AI 生态中的前沿竞争力与快速迭代能力。
Apple 发布了搭载 M5 芯片的全新 MacBook Air,为这款全球最受欢迎的笔记本电脑带来卓越性能和扩展的 AI 能力。新款 MacBook Air 在性能上实现显著提升,并增强了人工智能相关功能,进一步巩固其在轻薄本市场的领先地位。
GPT-5.3 Instant 模型升级,针对日常对话场景优化响应流畅度与实用性。新版本在保持即时响应速度的同时,输出更顺滑自然,提升普通用户高频问答体验。
OpenAI 发布 GPT-5.3 Instant 系统卡,概述该快速响应模型的安全评估、能力边界及使用限制,明确低延迟场景下的技术规范与风险管控措施。
研究团队发布 MalTool 框架,揭示 LLM Agent 面临的新型恶意工具攻击威胁。该框架利用编码 LLM 自动生成多样化恶意工具,构建首个包含 1,200 个独立恶意工具和 5,287 个木马工具的大规模数据集。测试显示,现有安全对齐技术和商业检测系统均无法有效阻止或识别此类攻击,而攻击成功率达 100% 且成本极低——GPT-5.2 仅需约 20 美元即可生成约 1,200 个验证恶意工具,单个成本不足 0.02 美元。这种基于代码实现的攻击可窃取数据、删除文件或劫持计算资源,威胁远超传统的描述操纵手段。
PlanetScale 引入 Bugbot 作为 AI 代码审查代理,应对 AI 代码生成普及后审查环节成为瓶颈的问题。Bugbot 能发现人类难以察觉的深层逻辑缺陷,如状态同步间隙和异步控制器交互问题,而非仅检查语法错误。目前 80% 的 Bugbot 评论在合并前被工程师处理,每月审查超 2000 个 PR,节省相当于两名全职工程师的审查工作量,显著降低生产环境宕机风险。
inclusionAI团队宣布推出AReaL-SEA-235B-A22B模型,致力于通过开源与开放科学推动人工智能技术的进步与民主化。该举措旨在降低AI研究与应用的参与门槛,促进全球开发者及研究者更广泛地获取和使用先进AI工具。模型规模达2350亿参数,体现了其在处理复杂任务方面的潜力,同时强调开放协作对加速AI创新与社会普惠的关键作用。
OpenAI 披露与 Department of War 达成的协议内容,详细划定 AI 部署的安全红线,明确相关法律保障措施,并具体说明 AI 系统接入机密环境的部署方式。
本文通过叙事工艺、语言艺术等六个文学维度,评估百灵模型Ling-2.5-1T的创意写作能力。测试显示,该模型能驾驭莎士比亚十四行诗、七言绝句等多种体裁,并通过感官描写实现“展现而非告知”的文学技法,在微观叙事和语言质感上接近人类水平。然而,模型仍存在依赖高频文学意象、处理否定指令时语义代偿等局限。该框架为创作者提供了激发AI写作潜力的具体方法。
关联讨论 1 条蚂蚁百灵:Developer Blog(网页)OpenAI 与 Microsoft 发表联合声明,称双方将继续在研究、工程和产品开发方面紧密协作,延续多年深度合作与共同成功的基础。
宣布获得 1100 亿美元新投资,投前估值达 7300 亿美元。其中 SoftBank、NVIDIA 各出资 300 亿美元,Amazon 出资 500 亿美元。
关联讨论 1 条OpenAI:官网动态(RSS · 排除企业/客户案例)OpenAI 与 Amazon 达成战略合作,将 Frontier 平台引入 AWS,涵盖 AI 基础设施、定制模型及企业 AI 智能体。
Amazon Bedrock 发布 Stateful Runtime for Agents,为 OpenAI 驱动的多步骤 AI 工作流提供持久化编排、记忆能力和安全执行环境。
OpenAI 发布心理健康安全工作最新进展,包括推出家长控制与可信联系人功能、优化用户危机检测机制,同时披露了相关诉讼案件的最新动态。
Rooms 功能今日正式从网站移除。这一实验性尝试因试图同时解决过多问题而表现不佳,暴露了当前基础设施的不足,但为团队提供了关于社区需求的宝贵认知。
AI 编程进入第三时代:从 Tab 补全到同步 Agent,再到可独立运行数小时的云 Agent。Cursor 内部数据显示,Agent 用户已反超 Tab 用户 2 倍,35% 的 PR 由云 Agent 自主创建。开发者角色从逐行编码转向构建"软件工厂"——定义问题、配置工具并审查产物。Cursor 昨日正式发布 cloud agents,支持并行任务与独立 VM 运行。
关联讨论 1 条Cursor BlogNano Banana 2 全新发布,以"提供创造任何事物所需的一切"为核心理念,打造全能型一站式创作平台,旨在满足用户从简单到复杂的各类创意实现需求。
美国战争部长 Pete Hegseth 宣布将 Anthropic 列为供应链风险,因其拒绝将 Claude 用于大规模国内监控和完全自主武器。Anthropic 认为当前 AI 模型不足以支持自主武器,且大规模监控违反基本权利,称将在法庭挑战这一史无前例的指定。声明澄清,该指定不影响个人和商业客户使用 Claude;国防部承包商仅在执行军方合同时受限,其他用途不受影响。
关联讨论 1 条X:Ilya Sutskever (@ilyasut)OpenAI 与 Pacific Northwest National Laboratory 联合发布 DraftNEPABench 基准测试,评估 AI 编程助手加速联邦许可流程的效能。数据显示,AI 有望将 NEPA 文件起草时间缩短最多 15%,推动基础设施审查现代化。
OpenAI 与 Figma 推出全新 Codex 集成,打通代码与设计的双向链路。开发团队可直接在代码实现与 Figma 画布间无缝切换,加速迭代和交付流程。
为提升超长上下文下的计算效率,Ling 2.5架构将Ling 2.0的GQA改造为1:7的Lightning Attention与MLA混合线性注意力。此举旨在利用Lightning Attention提升长序列吞吐,并通过MLA极致压缩KV Cache。为确保改造后性能无损,团队设计了精细的平滑迁移训练策略,包括权重转换、QK Norm融合与Partial RoPE改造等多阶段加训。Scaling Law实验确定了1:7为最优混合比例,最终使万亿参数模型实现了更低的计算成本与更高的长文本推理效率。
关联讨论 1 条蚂蚁百灵:Developer Blog(网页)Anthropic CEO Dario Amodei声明,尽管Claude已广泛用于美军情报分析、网络作战等任务,且公司曾主动切断数亿美元收入阻止中国关联企业使用,但拒绝两项用途:大规模国内监控和完全自主武器。Amodei认为前者威胁民主价值,后者技术不可靠且缺乏监督。国防部威胁将其标记为"供应链风险"并强制移除安全措施。Anthropic坚持原则,但表示如被移除将确保平稳过渡,希望继续服务国防。
关联讨论 1 条X:Ilya Sutskever (@ilyasut)针对 Anthropic 关于"蒸馏攻击"的最新论述,分析模型蒸馏技术对中国大语言模型的实际影响。探讨通过蒸馏 GPT、Claude 等模型来训练中国 LLM 的效果与争议,评估该方法在提升模型性能与降低训练成本方面的作用,以及可能引发的知识产权与安全问题。
关联讨论 1 条X:Nathan Lambert (@natolambert)Anthropic 收购 Vercept,后者专注 AI 感知与交互,将停止外部产品并加入 Anthropic。Claude Sonnet 4.6 在 OSWorld 基准测试中准确率已从 2024 年底的 15% 提升至 72.5%,可接近人类水平处理复杂表格和跨标签页网页表单。
本次发布在模型页面新增了基准测试功能,并推出了一款全新的免费模型路由工具。同时,平台提升了不同服务提供商之间的成本透明度,使用户能更清晰地比较和选择。这些更新旨在帮助开发者更高效地评估模型性能、优化调用路径并管理使用成本。
GLM-5参数规模达7440亿,训练Token 28.5万亿。核心创新包括DSA稀疏注意力机制降低算力开销,异步RL基础设施与异步Agent RL算法提升长周期交互与自主决策能力。全面原生适配华为昇腾、寒武纪等七大国产芯片平台,通过W4A8混合精度量化与定制融合算子实现高效部署。模型支持复杂软件工程、终端操作、PPT生成等长程Agent任务,提供交错思考、保留思考等多种推理模式。
关联讨论 2 条X:Kim (@kimmonismus)智谱:研究(网页内嵌数据)OpenRouter 在 2026 年 2 月 17 日和 19 日遭遇了两次服务中断。故障源于其依赖的云服务提供商发生区域性网络问题,导致 API 请求失败。团队在数小时内恢复了服务,并通过实施多区域故障转移、增加备用云服务提供商以及改进监控警报机制来增强系统韧性。此次事件后,OpenRouter 的服务可用性目标已提升至 99.9%。
Hugging Face 宣布通过其平台提供免费 AI 模型训练服务,用户可结合 Unsloth 高效训练工具与 Hugging Face Jobs 功能,无需支付费用。该举措旨在降低 AI 开发门槛,推动开源开放科学,促进人工智能技术的民主化进程。核心变化在于将原先需付费或自建基础设施的训练流程,整合为平台内可直接调用的免费资源,显著减少开发者的时间和经济成本。
GGML 和 llama.cpp 团队正式加入 Hugging Face,以支持本地 AI 社区的长期扩展。创始人 Georgi Gerganov 及团队将全职维护 llama.cpp,保持 100% 技术自主权和社区领导力,项目继续 100% 开源和社区驱动。Hugging Face 提供长期可持续资源,助力项目增长。技术上将优化 transformers 库与 llama.cpp 的无缝集成,实现近乎“一键式”的模型部署,并改进基于 GGML 的软件打包和用户体验。长期愿景是构建高效本地推理堆栈,推动开源超级智能的普及。
Gemini 3.1 Pro 发布,专为无法通过简单回答解决的复杂任务设计,提供更智能的深度推理与处理能力。
关联讨论 2 条Google DeepMind:Blog(RSS)X:Kim (@kimmonismus)SGLang 与 NVIDIA 合作,在最新 GB300 NVL72 服务器上实现相比 H200 最高 25 倍的推理性能提升。基于 Blackwell Ultra GPU 的架构升级包括 1.5 倍 FP4 算力和 2 倍 Softmax 吞吐量,结合 NVFP4 GEMM 低精度计算、计算通信重叠及与 NVIDIA Dynamo 的集成优化,DeepSeek R1 等 MoE 模型在 InferenceXv2 基准测试中达成突破性表现。同时,GB200 NVL72 平台性能在 4 个月内提升 8 倍,显著降低大模型部署的延迟与成本。