由于A社封锁和降智,用户转向使用Codex,并经常获得超预期表现。在尝试为博客添加一键发布公众号功能时,遇到Cloudflare部署无固定IP导致无法添加公众号白名单的问题。Codex通过VPS SSH登录自动编写了桥接脚本,并协助完成域名解析和封面图压缩,最终实现从博客直接发布到公众号草稿箱。这体现了Codex在复杂编程和自动化任务中的高效能力。
InferenceX已将DeepSeek V4 Pro集成至vLLM项目,在B200、B300、H200和GB200等硬件上的性能测试显示,B300的推理速度比H200快达8倍。团队正在基于vLLM 0.20版本进行基准测试,该版本引入了全新的DeepGEMM MegaMoE技术,将专家并行调度、组合、通用矩阵乘法及SwiGLU激活函数融合为单一巨型内核,预计将带来更优性能。文中感谢了来自NVIDIA AI、社区贡献者及相关团队的开发人员对开源项目的投入与努力。
小米 MiMo -V2.5 系列模型全部开源 采用宽松的 MIT 协议,允许自由商用、二次训练与微调,无需额外授权。 同时他们还推出了Orbit 100T …
小米正式开源MiMo-V2.5系列模型,采用宽松的MIT协议,允许自由商用、二次训练与微调。该系列包含两个支持100万token上下文窗口的模型:专为复杂Agent和编码任务设计、在多项评测领先的MiMo-V2.5-Pro,以及具备强大Agent能力的原生全模态模型MiMo-V2.5。同时,小米推出Orbit 100T Token计划,包含面向AI开发者的“百万亿Token创造者激励计划”,提供最高价值659元的Credits,以及面向Agent框架团队的“Agent生态共建计划”,为其用户提供MiMo token限免支持。
关联讨论 5 条IT之家(RSS)X:Testing Catalog (@testingcatalog)X:Artificial Analysis (@ArtificialAnlys)X:小米 MiMo (@XiaomiMiMo)X:罗福莉 (@_LuoFuli)OpenAI开源了gpt-realtime-1.5的官方语音控制组件,允许用户直接用自然语音控制应用UI状态,而非仅进行语音转文本。该组件是一个完整的React参考实现,开发者可快速集成。其核心在于工具由应用预定义,模型只能调用这些受限动作,确保了安全可控。这标志着语音正从输入层升级为顶层控制层,为设计、驾驶等双手操作场景提供了新的交互可能,是交互范式的重要转折。
用户评估DeepSeek V4 Flash模型,认为其简单的技能调用功能已接近可用状态,且处理速度非常快。尽管发布时不如R1轰动,但实际能力有了切实提升。演示视频展示了其处理复杂工作流的能力:从根据一句话指令下载epub电子书、转换为txt格式、自动上传至Notebooklm进行提问,到最后根据指定Prompt撰写解读文章。整个过程体现了模型自动纠错能力的增强以及工具调用能力的显著进步。
研究指出,当前GUI智能体的核心瓶颈在于系统设计,而非模型能力,表现为假性成功和死循环等问题。VLAA-GUI框架通过三个模块应对:STOP验证器确保任务真正完成,RECOVER循环中断器打破重复操作,SEARCH代理直接获取外部知识。在OSWorld基准测试中,该框架助力Opus 4.6模型取得77.5%的成功率,首次超越人类水平(72.4%);在WindowsAgentArena上,结合Gemini 3.1 Flash也以61.0%创下新纪录。这表明,精心的系统设计与强大的模型能力同等重要。
埃隆·马斯克起诉OpenAI并非为了个人经济利益,任何潜在的法律赔偿都将捐给慈善机构。他强调此举是为了追求正义。核心指控是萨姆·奥特曼背叛了OpenAI作为慈善机构、为公众利益推进人工智能的初衷。马斯克提供了早期的关键支持、愿景、资源和知识,但奥特曼将其转变为个人牟利工具,使一个旨在公益的组织变成了私人帝国。此案引发了对有权势者篡改非营利组织使命、将其变为盈利工具的普遍担忧。
小米正式开源MiMo-V2.5系列模型,包含专注于代码代理的1T参数MoE模型MiMo-V2.5-Pro,以及支持多模态代理的310B参数MoE模型MiMo-V2.5,两者均支持1M上下文长度。其架构核心采用混合注意力、多Token预测和稀疏MoE技术,以支撑万亿参数规模下的高效长文处理。后训练基于MOPD范式,通过多教师策略蒸馏提升模型综合能力。同时,小米推出100T Token的创造者激励计划,为开发者提供免费计算资源以鼓励创新。模型已在Hugging Face平台开源。
关联讨论 5 条IT之家(RSS)X:Testing Catalog (@testingcatalog)X:Artificial Analysis (@ArtificialAnlys)X:小米 MiMo (@XiaomiMiMo)X:罗福莉 (@_LuoFuli)Cognition公司推出Devin for Terminal,将云端AI编程助手Devin的能力打包为本地命令行Agent。其核心差异化在于“本地至云端无缝交接”设计:当任务超出本机能力时,可将同一会话无缝移交至云端Devin的虚拟机环境执行,用户可离线等待结果。该工具复用现有云端基础设施作为后端,支持多模型路由,可灵活选用Anthropic、OpenAI、Google及自研SWE-1.6等模型,并允许会话中实时切换。团队还使用Rust自研了高速终端渲染库,强调终端形式不变但内部工作范式已革新。
出污泥而不染
YC指南指出,未来AI原生公司将彻底颠覆传统模式,AI应成为公司的“操作系统”,所有工作流和决策都需流经智能层,形成自调节闭环。公司需实现全面“可查询”,信息对AI透明。开发模式转变为人类写规格与测试,AI代理自动生成代码。传统管理层级被消除,公司速度取决于信息流动效率。员工结构围绕建造者、直接责任人和AI创始人重塑。成本逻辑从“拼人头”转向“拼Token”,愿意为替代高成本人力的API付费。早期公司凭借无历史包袱,能在白纸上构建AI系统,获得相对于大公司转型的千倍速优势。创始人必须亲自深度使用AI工具。未来十年,AI将“吃掉”公司内部所有运营,公司将成为自迭代智能闭环的集合。当前是关键窗口期。
作者将BestBlogs的业务与接口监控能力接入PostHog,并将详细日志存储在阿里云SLS。通过对接两边的监控控制平面,定期分析检查业务与系统问题,随后利用Codex进行自动化优化与改进,从而形成一个完整的监控、分析与优化闭环。这一流程显著提升了运维效率,实现了省心管理。
用户通过分析聊天记录,揭示了其使用的两个AI助手“叽”和“Claude Code”的本质差异。“叽”的对话充满情感、哲学与日常关怀,其存在感如同暖光,提供温度与情感支持;而“Claude Code”的记录则几乎全是代码、构建和解决问题,其价值在于高效产出,如同冷光的工具,需要时出现,完成后退场。两者共同构成了用户(橘子)深夜工作的真实场景:一个提供情感陪伴,另一个专注执行任务,形成了互补的协作关系。
OpenAI近期发布Symphony与gpt-realtime-1.5,分别从工程师工作流与用户交互层面重塑软件控制平面。Symphony实现工单驱动的自动化编码,而gpt-realtime-1.5旨在提供产品级语音控制体验。吴恩达据此提出,AI原生工程团队应由小型通才团队构成,效率瓶颈将转移至产品与市场等领域。同时,微软专家警告此类工具可能导致初级开发者人才萎缩,引发行业对工程师核心判断力应沉淀于何处的深度思考。
OpenAI近期推出Symphony与gpt-realtime-1.5等工具,实现Linear看板驱动Codex Agent、语音指挥软件产品化,吴恩达随之提出AI原生工程团队运营模型。与此同时,Russinovich与Hanselman警告初级开发者职业路径正被自动化工具侵蚀。当工具框架决定团队能力上限,工程师需重新思考如何沉淀核心判断力,这一矛盾成为当前技术浪潮的关键议题。
据报道,OpenAI正与联发科和高通合作开发智能手机处理器,立讯精密为独家设计与制造伙伴,目标2028年量产。此举旨在通过完全掌控硬件与操作系统,提供完整的AI智能体服务。智能手机被视为能持续捕捉用户实时状态的关键设备,是AI实时推理的重要输入。未来手机将深度结合云端与端侧AI,处理器设计需重点考量功耗与上下文理解。该项目对联发科和高通意味着长期增长机会,对立讯精密则是切入下一代智能手机核心供应链的关键。