AI销售策略正从询问软件预算转向三个核心问题:软件总预算、劳动力总预算,以及客户期望三年后两者的比例。这一转变将销售对话提升至战略层面。当前数据显示,销售、支持和工程部门的人力与软件成本比分别为10:1、4:1和最高25:1,高比率意味着巨大的AI替代潜力。新的销售流程分为两步:先切入现有软件预算,再拓展至AI所释放的劳动力预算,最终目标是重新定义企业对成本结构的认知。
OpenAI 通过多层防护机制保障 ChatGPT 的社区安全。具体措施包括内置模型安全护栏、实时监测滥用行为、严格执行使用政策,并与外部安全专家深度合作。这些系统性防护旨在主动识别并拦截有害内容生成,同时持续优化安全策略以应对新型风险。平台强调技术防护与人工审核相结合,致力于在保持 AI 对话能力的同时维护用户安全。
OpenAI的GPT系列模型、代码生成模型Codex以及托管智能体现已正式上线亚马逊云科技。企业用户可直接在AWS环境中集成并调用这些AI服务,基于自身云基础设施构建安全、可控的定制化人工智能应用。此次合作将OpenAI的前沿模型能力与企业级云环境的安全性和可扩展性相结合,为企业部署生成式AI与自动化智能体提供了新的平台选择。
关联讨论 6 条IT之家(RSS)Hacker News 热门(buzzing.cc 中文翻译)X:宝玉 (@dotey)The Decoder:AI News(RSS)X:Testing Catalog (@testingcatalog)X:Rohan Paul (@rohanpaul_ai)Midjourney团队正为v8.1/8.2版本筹备重大美学更新,并公开征集用户协助进行图像排序以改进模型。此次工作的核心在于,团队将首次在完整的2K分辨率下进行图像排序活动,旨在为模型获取最优的高清像素数据,以提升图像生成质量。
每年系统故障导致损失超万亿美元,工程师需通过分析时间序列数据快速定位问题。时间序列问答(TSQA)是关键运维任务,对AI模型构成挑战。为此,研究团队推出ARFBench基准,基于Datadog真实内部事件及遥测数据构建。测试显示,当前领先的大型语言模型、视觉语言模型和时间序列基础模型在ARFBench上表现均有较大改进空间。团队提出混合TSFM-VLM模型,其整体性能接近前沿水平,为TSQA任务提供了新评估框架和改进方向。
AI领域的鼓吹者往往回避讨论关键风险。随着GPT、Claude、LLaMA等大型语言模型的快速迭代,行业在竞相追求参数规模与商业落地的同时,AI安全问题正以“氛围编码”的形式被系统性低估——即通过模糊的修辞淡化潜在危害。 Anthropic联合创始人达里奥·阿莫代伊等研究者多次警示,缺乏严格安全框架的AI发展可能引发连锁性灾难,包括恶意使用、社会分化与失控性风险。当前行业亟需将安全指标从抽象讨论转化为可量化的技术约束。
华盛顿大学MacCoss实验室的Brendan MacLean将培训新开发者的方法论应用于Claude Code,以管理拥有70万行C#代码、持续开发17年的开源蛋白质分析软件Skyline。他通过创建独立的AI上下文仓库、编写CLAUDE.md引导文件以及设计“技能”模块(如调试技能),为Claude Code建立项目认知。该方法显著提升了开发效率:搁置一年的文件视图面板功能在两周内完成;CSS布局更新从依赖设计师变为不到一天实现。此外,Claude Code还自动化了2000多张教程图片的截图比对和每日测试报告生成,团队现在主要依靠它生成代码和脚本。
自6月1日起,GitHub Copilot 的使用将开始消耗 GitHub AI Credits,计费模式正式从固定订阅制转变为基于实际使用量的计费。这一变化意味着用户的费用将与 AI 助手的具体调用量直接挂钩,而非统一的月费或年费。
关联讨论 3 条Simon Willison 博客Hacker News 热门(buzzing.cc 中文翻译)X:宝玉 (@dotey)OpenAI的ChatGPT Enterprise与API已获得FedRAMP Moderate安全授权,允许美国联邦机构在符合数据安全与隐私合规要求的前提下,安全采用其人工智能服务。
作者围绕多个开放性问题展开探讨,包括人工智能领域中智能与权力的本质区别及其对社会结构的潜在影响。科学验证机制面临的可靠性危机被提及,尤其是在复杂系统研究中。同时,文章指出达尔文进化论的核心概念曾出现多地域独立发现的现象,这引发了对知识创造与传播模式的思考。这些议题共同指向技术发展背后更深层的认知与伦理挑战。
Google 与 Kaggle 再度推出为期 5 天的 AI Agents 强化课程,现已开放注册。该课程旨在教授开发者如何构建和部署 AI 智能体,内容涵盖从基础概念到实际应用。课程形式为短期集中学习,参与者将通过 Kaggle 平台进行实践。
Google DeepMind 与韩国政府建立合作伙伴关系,旨在利用前沿AI模型加速科学突破。此次合作将聚焦于将如Gemini、Claude、GPT-4等大型语言模型以及AlphaFold等科学AI工具,应用于关键研究领域,特别是生物技术和材料科学。目标是提升韩国的AI研发能力,计划在未来五年内培养超过1000名AI专家,并支持10个以上由AI驱动的大型科研项目。
该项目是一个精选指南列表,旨在帮助用户将 DeepSeek 模型集成到多种流行的 AI 智能体和代码助手工具中。目前覆盖了 Claude Code、GitHub Copilot、OpenCode、Hermes 等十余种工具,每份指南都详细说明了从安装、配置到首次运行的具体步骤,让用户能在几分钟内于自己喜爱的工具中启用 DeepSeek-V4-Pro 或 DeepSeek-V4-Flash 模型。列表内容将持续更新,并鼓励社区通过提交 Issue 或 Pull Request 来贡献新工具的集成指南。
OpenAI 与 Microsoft 宣布修订合作协议,旨在简化合作结构并明确长期合作框架。新协议将为持续的大规模人工智能创新提供支持,标志着双方战略伙伴关系进入更清晰、更稳定的新阶段。此次调整侧重于强化合作效率与长期目标的一致性,共同推进 AI 技术的前沿发展。
关联讨论 8 条X:Kim (@kimmonismus)X:Sam Altman (@sama)The Decoder:AI News(RSS)X:Testing Catalog (@testingcatalog)Simon Willison 博客X:Rohan Paul (@rohanpaul_ai)X:宝玉 (@dotey)Hacker News 热门(buzzing.cc 中文翻译)Anthropic在Claude Opus 4.7版本中更新了分词器。通过对比4.6到4.7版本的实际使用数据,分析发现这一技术调整改变了文本转换为令牌的方式,直接影响API计价。相同的文本输入可能产生不同数量的令牌,从而导致用户的实际使用成本发生可量化的变化。这一调整虽不改变模型能力,但关乎运营开销,是开发者和企业用户需评估的关键因素。
根据Ornn Compute Price Index数据,NVIDIA B200 GPU的现货租赁价格在六周内飙升114%,从三月初的2.31美元涨至本周的4.95美元/小时。此次价格暴涨与GPT-5.5等前沿模型发布带来的需求冲击紧密相关,这些模型需要Blackwell架构提供的内存支持。与此同时,B200与上一代H200的价差从0.28美元大幅扩大至1.80美元,不同云服务商之间的报价差距也扩大了一倍以上,反映出市场供应紧张。预计夏季B200价格将维持在5美元以上,云端推理成本持续上升。
Choco 通过集成 OpenAI API 构建了 AI 智能体系统,以自动化餐饮行业的食品采购与分销流程。该系统能自动处理订单、协调物流并优化库存,将人工操作时间减少了 70%,订单处理效率提升 50%。这一变革显著降低了供应链中的食物浪费,并帮助公司实现了业务规模化增长,展示了 AI 在传统产业中的实际应用价值。
Symphony 是一个用于 Codex 编排的开源规范,能够将问题跟踪器转化为持续运行的智能体系统。该系统通过自动化任务协调与执行,显著提升工程团队的产出效率,同时减少开发者在不同任务间频繁切换带来的认知负担。其核心在于以标准化、可扩展的方式,将日常开发流程转化为由智能体持续驱动的工作流。
关联讨论 3 条X:阿易 AI Notes (@AYi_AInotes)X:邵猛 (@shao__meng)X:Vista (@vista8)OpenAI正致力于通过开源与开放科学推动人工智能的进步与民主化。这一举措旨在降低AI技术的使用门槛,促进更广泛的创新与合作。其Privacy Filter工具为开发者提供了构建可扩展Web应用的关键支持,帮助在保障用户数据隐私的同时,高效集成AI能力。这一方向强调了技术开放性与负责任开发并重的理念。
Mistral AI 正式推出 Workflows 公开预览版,该产品定位为企业AI的编排层,旨在通过提供持久性、可观察性和容错性,帮助AI驱动的工作流从概念验证可靠过渡到生产环境。它集成于Studio平台,允许开发者用Python编写工作流,并可发布至Le Chat供组织成员触发。其核心功能包括持久化执行(支持从断点恢复)、完整的步骤跟踪与审计,以及通过 wait_for_input() 等方法实现人工介入审批。目前已有ASML、ABANCA等企业客户使用其自动化货物放行、文档合规检查等关键业务流程,将原本耗时数小时的人工操作缩短至几分钟。
Anthropic 正式任命 Theo Hourmouzis 为澳大利亚和新西兰总经理,并同步开设悉尼办公室。Hourmouzis 拥有超过20年的亚太科技行业领导经验,将负责制定本地战略,推动 Claude 人工智能进入客户核心业务。公司正深化与联邦银行等企业的合作,并与澳大利亚国立大学等研究机构推进 AI for Science 项目。同时,Anthropic 近期与 Canva、Xero 建立了深度平台合作。悉尼办公室是其在亚太地区的最新布局,旨在贴近当地客户与市场。
Runway通过采用Kueue作为Kubernetes准入控制器,将GPU利用率提升超过20%,同时保障团队容量。其核心机制是为关键工作预留配额,并设立共享队列借用闲置容量,当配额所有者需要时通过抢占回收资源。该系统运行于昂贵的多租户GPU集群,支持多节点训练的拓扑感知调度和弹性工作负载。具体实现中,团队拥有专用预留队列,而默认队列作为共享机会池,可借用闲置配额运行可中断工作负载。当预留队列需资源时,Kueue基于优先级和运行时间抢占默认队列中的任务,实现资源高效管理。
OpenAI 联合创始人 Sam Altman 阐述了指导公司工作的五项核心原则。这些原则围绕确保 AGI(通用人工智能)惠及全人类的使命展开,具体包括:致力于开发安全有益的 AGI;持续推动前沿技术研究;广泛共享研究成果与收益;积极与全球政策制定者合作应对风险;以及确保 AGI 的发展不被过度商业化垄断,最终服务于人类的整体福祉。
该项目致力于通过开源与开放科学推动人工智能的发展与普及。团队正持续推进技术民主化进程,旨在让更广泛的群体能够接触并利用先进AI工具。其核心路径是依托开放协作模式,降低技术门槛,促进创新生态的构建。
OpenRouter 发布 Agent SDK,其核心是 callModel 函数。该函数可将一次聊天完成转化为具备工具调用、停止条件与成本追踪功能的多步骤智能体工作流。这一工具兼容平台上的 300 多个模型,使开发者能够便捷地构建复杂的多轮交互智能体应用。
Anthropic 发布了 Agent SDK,开发者可利用 `create-agent-tui` 和 `create-headless-agent` 技能,在几分钟内搭建个性化的编码智能体。该 SDK 支持两种模式:一是提供终端用户界面的交互式代理,二是无界面的“headless”代理,便于集成到自动化脚本和流水线中。这显著降低了为特定编码任务定制 AI 助手的门槛。
Anthropic与NEC达成战略合作,旨在打造日本规模最大的AI原生工程团队。NEC将成为Anthropic在日本的首个全球合作伙伴,为集团全球约3万名员工部署Claude AI工具。双方将针对金融、制造和地方政府等领域,联合开发安全的行业专用AI解决方案,并将Claude集成到NEC的安全运营中心及下一代网络安全服务中。NEC内部将设立卓越中心,通过技术培训构建AI工程团队,并广泛应用Claude Code等工具。目前,全球员工的工具部署与行业解决方案的联合开发已同步启动。
研究提出了一种通过长时运动嵌入来高效生成运动学的方法,直接对从追踪器模型获取的大规模轨迹中学习到的嵌入进行操作,将场景动态建模效率提升了数个数量级。该方法能够根据文本提示或空间戳指定的目标,高效生成长而真实的运动序列,避免了传统全视频合成在探索多种可能未来时效率低下的问题。
DeepSeek发布新一代模型DeepSeek-V4,其核心突破在于实现了长达百万token的上下文窗口,并确保智能体能够有效利用这一扩展的上下文能力。该模型延续了通过开源与开放科学推动人工智能发展与普及的使命,标志着大模型在长上下文理解和实际应用方面迈出重要一步。
关联讨论 5 条Simon Willison 博客IT之家(RSS)Hacker News 热门(buzzing.cc 中文翻译)X:AK (@_akhaliq)X:Rohan Paul (@rohanpaul_ai)Claude 代码工具发布 v2.1.119 版本,带来多项功能优化与问题修复。主要更新包括:用户配置现持久化至本地文件;新增 `prUrlTemplate` 设置以自定义 PR 徽章链接;`--from-pr` 命令扩展支持 GitLab、Bitbucket 等多个平台。工具权限与交互行为在多处实现统一,例如 `--print` 模式现在遵从代理的前置元数据定义。界面体验获得改进,如斜杠命令建议会高亮匹配字符,长描述自动换行。此外,本次更新修复了大量已知问题,涉及粘贴格式错乱、工具意外隐藏、MCP 服务器连接失败、权限模式行为异常及界面显示错误等。
研究团队开源了论文《Monitoring Monitorability》中的数据集与代码,并分享了一种针对噪声主导干预评估实例的新过滤策略。这一举措旨在提升AI系统监控能力的评估透明度与可复现性,为社区提供了可直接使用的工具和方法。新提出的过滤策略能有效识别并处理评估过程中噪声干扰严重的实例,有望提高评估结果的准确性与可靠性。
LiteRT 是一个生产就绪的框架,旨在帮助移动开发者充分发挥神经处理单元(NPU)的效能,以突破传统 CPU 或 GPU 在性能与电池续航上的瓶颈。该框架通过提供统一的 API 来屏蔽底层硬件复杂性,已成功助力 Google Meet、Epic Games 等行业领先者高效部署复杂的 AI 模型,实现实时视频处理、动画生成与语音识别等高级功能。此外,平台还提供基准测试工具并具备跨平台兼容性,能够支持 AI 应用无缝部署于移动设备、AI PC 及工业物联网硬件等多种终端。
本文介绍在 Chrome 扩展中集成 Transformers.js 库的具体方法,涵盖从环境配置、模型加载到前后端通信的关键步骤。通过示例代码演示了如何利用该库在扩展中实现本地机器学习推理,同时处理扩展权限限制与安全策略。文中还对比了 Web Worker 与 Service Worker 两种部署方案,并提供了性能优化建议,帮助开发者在浏览器扩展环境中高效运行 Transformer 模型。
针对智能体任务中Token消耗快速增长的问题,Ling-2.6-flash模型正式发布。该模型采用混合线性架构等技术进行系统性优化,旨在实现更高推理效率和更低使用成本。其推理速度在4卡H20条件下最快可达340 tokens/s,在Artificial Analysis评测中仅消耗约对比模型1/10的Tokens。模型在多个Agent相关基准测试中达到同尺寸SOTA水平,保持了强大的任务执行与工具调用能力。
关联讨论 2 条X:阿易 AI Notes (@AYi_AInotes)X:Artificial Analysis (@ArtificialAnlys)Omni公司CEO指出,商业智能正从静态仪表盘重新扩展为AI驱动的深度分析。AI能融合结构化和非结构化数据,例如分析75页支持对话以识别代表错误并提供具体改进建议。其平台具备自动处理问题报告的能力,客户案例显示BambooHR在四个月内向三万人推出分析服务,Cribl则在三个月内整合遗留系统并快速迁移上百个仪表盘。底层统一的语义模型存储定义、逻辑与权限,支持多种分析界面。Omni近期以150亿美元估值完成1.2亿美元融资,由ICONIQ领投。
inclusionAI团队发布了LLaDA2.0-Uni模型。该版本在统一的多模态理解与生成能力上取得显著进展,支持图像、文本、音频等多种输入与输出模态。模型参数量达到约70B,在多项基准测试中,其综合性能较前代提升超过15%。此次发布延续了通过开源与开放科学来推动人工智能民主化的核心使命。
(注:提供的正文内容仅有一句话,缺乏必要的具体信息,如研究数据、性能指标、模型版本或测试结果等,无法撰写符合 100-200 字要求且包含关键数字/指标的摘要。请提供完整正文以便提取关键信息点。)
正文内容仅包含"Regurgitating ≠ understanding"(反刍不等于理解),缺乏撰写摘要所需的完整信息,如具体发布细节、功能变化或性能指标。请提供完整文章内容以便提取关键信息并撰写符合要求的摘要。
NVIDIA 与 Google Cloud 宣布深化战略合作,双方已联合工程化逾十年,共同构建跨越每一技术层的全栈 AI 平台。此次合作聚焦 Agentic AI 与 Physical AI 领域,通过从性能优化库到完整技术栈的协同设计,加速下一代人工智能能力的开发与部署。