X·KOLX:SemiAnalysis (@SemiAnalysis_)
vLLM宣布对DeepSeek-V4 Pro和Flash模型提供即日支持,该模型专为长达100万token的上下文任务设计。vLLM通过共享K/V、逆RoPE、c4a/c128a KV压缩及稀疏注意力四项关键技术,在100万上下文长度下,将每层KV状态大小缩减至DeepSeek-V3.2风格堆栈的约1/8.7。系统侧采用统一混合KV缓存、三页面大小分桶、融合内核及多流重叠等技术,显著提升性能并减少内存碎片。同时支持开箱即用的解耦部署,并为NVIDIA Blackwell和Hopper平台提供了已验证的配置方案。
X·KOLX:Greg Brockman (@gdb)
gpt-5.5 现已登陆 GitHub Copilot! [引用 @github]:🆕 @OpenAIDevs GPT-5.5 现已全面推出,并正在 GitHub Copilot 中逐步上线。 我们的早期测试显示 ➡️ 它在复杂的智能体编码任务上表现出最强的性能 ➡️ 它解决了以往 GPT 模型无法应对的实际编码挑战 请在 Copilot CLI 或 @code 中试用。👇 https://github.blog/changelog/2026-04-24-gpt-5-5-is-generally-available-for-github-copilot/
官方·XX:Sakana AI (@SakanaAILabs)
Sakana AI推出其首款商用AI产品Sakana Fugu,这是一个多智能体协调系统,现已开放Beta测试。该系统能动态协调多个前沿基础模型,为每个任务自主选择最优的智能体组合与角色分配,并在SWE-Pro、GPQA-D和ALE-Bench等基准测试中取得了领先成绩。产品提供OpenAI兼容API,便于集成。包含两个版本:Fugu Mini针对低延迟优化,注重高速协调;Fugu Ultra则利用完整模型池,适用于深度复杂推理任务。
官方·XX:Sakana AI (@SakanaAILabs)
Sakana AI推出其首款商用AI产品Sakana Fugu的Beta测试,这是一个多智能体编排系统。该系统能动态协调多个前沿基础模型,为每个任务自主选择最优的智能体组合与角色分工,并在SWE-Pro、GPQA-D和ALE-Bench等基准测试中取得了新的SOTA成绩。产品提供OpenAI兼容API,便于集成到现有工作流。其包含两个版本:侧重低延迟的Fugu Mini和利用完整模型池进行深度推理的Fugu Ultra。
官方·XX:Sakana AI (@SakanaAILabs)
Sakana公司正式推出其商业AI产品Sakana Fugu的测试版,这是一个多智能体编排系统。该系统在SWE-Pro、GPQA-D和ALE-Bench等多个基准测试中达到了业界领先水平,能够动态协调前沿模型,为每个任务自主选择最优的智能体组合与角色。Fugu提供与OpenAI兼容的API,便于用户以最小改动集成到现有工作流中。产品线包括针对低延迟优化的Fugu Mini,以及利用完整模型池进行深度复杂推理的Fugu Ultra。目前可通过申请链接参与测试。
官方OpenRouter:Announcements(RSS)
OpenRouter 发布 Agent SDK,其核心是 callModel 函数。该函数可将一次聊天完成转化为具备工具调用、停止条件与成本追踪功能的多步骤智能体工作流。这一工具兼容平台上的 300 多个模型,使开发者能够便捷地构建复杂的多轮交互智能体应用。
官方OpenRouter:Announcements(RSS)
Anthropic 发布了 Agent SDK,开发者可利用 `create-agent-tui` 和 `create-headless-agent` 技能,在几分钟内搭建个性化的编码智能体。该 SDK 支持两种模式:一是提供终端用户界面的交互式代理,二是无界面的“headless”代理,便于集成到自动化脚本和流水线中。这显著降低了为特定编码任务定制 AI 助手的门槛。
官方Microsoft:GitHub 新仓库
该GitHub仓库涉及Microsoft GitHub Copilot在加拿大的配置项目,目前需要用户完成初始设置。用户必须访问指定网站URL来配置仓库并设置访问控制权限,以确保项目安全和管理协作。这一步骤包括仓库初始化、权限分配和安全管理措施,完成后仓库将支持后续开发或功能部署。设置过程强调访问控制的重要性,以维护代码安全和团队协作效率。