OpenAI 联合 AMD、博通、英特尔、微软和英伟达,通过 OCP 开源了新型网络协议 MRC。该协议旨在解决大规模 AI 训练集群中因网络延迟或故障导致的 GPU 闲置问题。MRC 将数据包拆分并通过数百条路径并行传输,实现微秒级故障绕行,无需交换机重算路由。这简化了网络架构,将连接十几万 GPU 所需的交换机层级从 3-4 层减至 2 层,降低了功耗、成本和故障点。该协议已部署于 OpenAI 最大的 GB200 超算,并成功用于训练多个模型,显著提升了训练任务的鲁棒性。
让你搭一个多 agent 团队,每个 agent 有自己的性格和技能,随便哪个设备都能用。 自托管的多 agent 协作平台,跑在 Cloudflare Du…
NVIDIA通过OCP开源了MRC协议,这是一种专为大规模AI训练集群设计的新型RDMA传输协议。其核心创新在于将单一连接分散到多条网络路径上,当某条路径出现故障或拥塞时,能在微秒级时间内通过硬件重路由流量,以解决前沿AI训练中日益严峻的网络瓶颈问题。该协议已应用于OpenAI的Blackwell集群,微软和Oracle也是其主要部署方。NVIDIA此举在表面推动更开放标准的同时,优先为自家Spectrum-X平台优化,实则强化了其全栈竞争优势,并将以太网技术推向传统上由InfiniBand主导的高性能计算领域。
Mininglamp-AI开源了两个核心项目,旨在将Mac打造为本地AI工作站。Cider是一个端侧推理加速框架,通过更充分利用M系列芯片的INT8 TensorOps,显著提升LLM/VLM等模型在Mac上的运行速度并降低内存占用。Mano-P则是一个端侧GUI-VLA Agent模型,采用纯视觉方式理解屏幕,能在本地操作各类桌面软件、网页、专业工具及复杂图形化工作流,实现自动化任务执行与数据整合。两者结合,为私有AI提供了高效的本地基础设施。
AI API中转站并非依靠API调用差价盈利。核心在于官方API成本极高,迫使企业寻求廉价替代。WorldRouter以低于官方约30%的价格提供访问,但其根本目标是成为统一的AI Agent运行与支付平台(Token Hub),致力于提供云端Agent环境、应用商店等基础设施,旨在成为Agent时代的“水电煤”底座。该项目提供从9.9到9999美元的多档入场方案,低价旨在吸引用户体验其未来的Agent服务生态。
阿里云新加坡推出“被发掘的故事:WAN AI视频挑战赛”,邀请参与者使用其WAN模型创作AI视频,重新构想新加坡文化遗产。活动注册期已延长,参与者需选择主题、讲述故事并制作视频,优胜者有机会赢取奖品。为激发创意,可参考ArCH Square的遗产展览获取灵感。该活动旨在推动AI技术与文化遗产的创新结合,涉及技术包括人工智能、大语言模型和通义千问等。立即报名,用科技重现历史。
Runway推出Runway Characters功能,用户上传参考图即可生成能实时对话的视频角色。该角色支持高清视频流,可注视摄像头或屏幕共享内容,并允许配置声音、性格与知识库。其核心突破在于将视频生成从预渲染推进至实时交互,使角色能理解对话、依据资料回答问题,并能调用工具执行网页操作或数据查询,支持通过API等方式集成至自有产品。
OpenAI发布“Migrate to Codex”功能,允许用户将其他编程工具(如Claude Code、Cursor)的配置一键导入到Codex。该功能会扫描用户级和项目级配置,自动映射并迁移编程Agent的配置、规则、技能、MCP、hooks、子代理以及最近30天的所有会话等内容。对于无法自动迁移的部分,Codex会启动一个新线程,让Agent继续协助处理剩余迁移任务。
Anthropic正式发布面向金融服务的Claude Agent模板,将AI在金融领域的角色从“辅助”升级为“直接执行”。该模板针对融资演示、估值审查、月末结账等高频率、耗时的核心流程,提供开箱即用的解决方案。它集成了完整的连接器、技能和子代理,可直接适配公司内部标准,并支持在Claude协作与开发环境中安装插件,或通过官方指南一键部署为生产级托管Agent。此举意味着AI开始直接接管以往需金融人员耗费数十小时完成的任务,标志着金融行业Agent时代的实质性开启。
Google NotebookLM的思维导图功能正进行重大升级,新功能从今天起推出。核心更新包括自定义功能,用户可通过特定提示词引导MindMap的生成方向;组织功能支持立即重命名和分享MindMap,提升管理效率;导航功能优化了节点之间的过渡,实现更丝滑的交互体验。此次升级旨在增强工具的灵活性和用户体验,并邀请用户反馈意见。
OpenAI对其Agents SDK进行重大升级,旨在为构建长时运行Agent提供更强的执行控制能力。核心在于将控制权交给开发者,打破黑盒状态。新功能包括:在受控沙箱环境中运行Agent,支持多家云服务商;允许完全检查和自定义开源harness;以及精准控制记忆的创建时机与存储位置。所有文件、凭证和执行状态均保留在开发者自有环境中,模型仅能访问经批准的上下文。此举解决了Agent易“失控”或“失忆”的问题,显著降低了工程化门槛,推动其从演示原型迈向生产级基础设施。
关联讨论 1 条X:OpenAI Developers (@OpenAIDevs)