中国科学技术大学在合肥发布“灵境造物”智能科研工具,面向全球科研人员、机构及企业开放。该系统基于昇腾、鲲鹏、华为云等全栈国产化软硬件生态构建,整合了科学大模型、科研机器人、自动计算与实验等能力,形成操作系统级入口。它依托千余台科研机器人和万余台智能工作站,深度整合千余个科研技能,旨在实现自主科研与物质创制,以破解传统科研成本高、周期长、转化难等痛点。此举标志着人工智能驱动的科学研究正向工程化、平台化与开放共享迈进。
开源项目Stash发布,为AI代理提供长期记忆与上下文管理能力。它通过独立存储和检索对话历史,使开发者无需依赖特定API即可为应用添加持久化记忆功能。该项目已在GitHub开源,并获Hacker News社区关注,降低了构建复杂AI代理的门槛。
Obscura是一个用Rust编写的轻量级无头浏览器引擎,专为AI Agent自动化和大规模网络爬取优化。其核心优势在于极致的性能与资源效率,内存占用仅30MB,页面加载约85毫秒,远超Headless Chrome。项目采用务实架构,复用Servo的DOM与V8引擎,并构建独立网络层。关键特性包括深度反检测的“隐身模式”,能随机化指纹并拦截追踪域名;通过兼容Chrome DevTools Protocol,实现与Puppeteer/Playwright生态无缝对接。此外,它内置了DOM转Markdown等专为AI Agent优化的功能,旨在作为高效的常驻网页感知端点。
前斯坦福机器人博士Aaron Tan发布的Lume机器人,外观设计为一盏豪华床头灯,但内置机械臂可自动叠放衣物。其核心理念是家用机器人应像一件会干活的家具,专注于解决叠衣服这类具体痛点,而非以人形形态在家庭中活动。团队将于下周在Palo Alto举办展示会,邀请公众自带脏衣服进行测试,强调产品解决实际问题的实用性,认为这种形态比追求拟人化功能更接近真正的家用机器人未来。
工具Anything推出新功能,能一键生成设计师级别的App Store截图。用户仅需15秒即可从空白状态获得4张完美适配官方规格的截图,系统会自动生成包含图标、评分和下载按钮的完整画面。修改文案也只需输入一句话并点击生成。此举解决了应用开发中制作和适配多尺寸截图的传统痛点,该过程以往需耗费数百美元聘请设计师或投入大量时间自行设计。AI正将开发者从繁琐的“脏活累活”中解放出来,大幅降低了从创意到应用上架全流程的门槛,尽管最终审美把关仍需人工,但已节省约90%的精力。
“华为眼镜”App鸿蒙版推送1.0.1.356更新,新增多项功能。主要更新包括:在应用首页新增“小艺看世界”功能入口;应用设置中增加定制开关机功能,支持眼镜清晨自动唤醒;相机设置新增4:3视频比例选项,以扩大纵向录像视野;新增手表协同功能,可通过手表遥控眼镜拍照。该App配套的华为AI眼镜已于近日发布,起售价为2499元。
项目“Wuphf”是一个受卡帕西风格启发的大语言模型维基系统,支持Markdown格式和Git版本控制。其核心特点是可由用户设定的AI代理自动维护和更新内容,实现了知识库的持续自主管理。该项目已在GitHub开源,并在Hacker News上获得了100点热度。
卧槽,OpenAI Codex团队刚放了个大招, 直接把所有第三方语音输入工具干懵了, 所有ChatGPT订阅用户,现在可以在桌面任何地方直接语音输入, 不用…
OpenClaw之父steipete推出AI维护机器人Clawsweeper,旨在应对AI生成代码带来的管理洪流。该工具部署50个AI智能体全天候扫描仓库issue和PR,仅在证据确凿时按严格限定的五类理由建议关闭,单日可处理约4000条。其设计极简,无传统仪表盘,所有状态数据实时写入README。这标志着开源维护从“人盯仓库”转向“AI管AI”,核心瓶颈从模型能力变为平台速率限制,被视为对开源维护范式的根本性改变。
在2026九峰山论坛上,新凯来旗下万里眼公司发布了65GHz采样示波器,旨在破解1.6T高速光模块的量产测试瓶颈。该产品面向AI算力驱动下光互连技术向1.6T演进的需求,实现了三大突破:500kHz采样率将测试效率提升100%;65GHz带宽支持单波200G测量,为1.6T通信奠定基础;12μW超低光功率噪声保障了高精度生产。此举贯通了1.6T研发与量产的全流程测试。
WUPHF 是一个为 AI 员工设计的协作办公平台,通过一个命令即可启动,在本地提供 Web 界面。它将不同角色的 AI 智能体置于一个共享的虚拟办公室中,使其可见、可争论并协作完成任务。平台为每个智能体提供私人笔记,团队共享一个基于 Markdown 和 Git 的本地维基,智能体可自主将可靠信息同步至团队知识库。项目目前处于 1.0 版本前的预发布阶段,默认使用 Claude Code,支持通过命令行参数灵活配置。
荣耀YOYO成为安卓阵营中首个接入DeepSeek-V4大模型的AI智能体。此次接入带来三大核心升级:模型性能更强、上下文处理长度更长、推理效率更高。用户需将YOYO智能体升级至90.10.28.041及以上版本,并在MagicOS 8.0及以上系统环境中即可抢先体验此次更新。
开源项目“Browser Harness”发布,旨在赋予大型语言模型(LLM)在浏览器中自主完成任意任务的能力。该工具通过提供一个可编程的浏览器控制框架,使LLM能够像人类一样操作网页,执行点击、输入、导航等复杂交互。此举有望突破当前AI代理在自动化网络操作方面的限制,扩展LLM的实际应用场景。该项目已在GitHub开源,并在Hacker News社区获得100点热度关注。
Yeelight智能雷达人在护眼吸顶灯RadarSense已在小米平台开启众筹,起售价269元。该产品主打毫米波雷达人在感应技术,通过AI算法识别10米范围内人体的动静状态,实现无感自动开关灯,并能有效减少误触发。其采用双蓝光豁免级技术,显色指数高达Ra99,同时降低有害蓝光且无可见频闪。灯具内置160W恒流驱动电源,支持亮度自由调节,并已接入米家App,兼容超级小爱、遥控器及墙壁开关控制。
英伟达宣布其Blackwell平台已适配DeepSeek-V4-Pro与DeepSeek-V4-Flash两款模型。DeepSeek-V4-Pro拥有1.6T总参数量与49B激活参数,定位高级推理;DeepSeek-V4-Flash则为284B总参数量与13B激活参数,主打高效场景。两款模型均支持100万Token上下文窗口与最高38.4万Token输出长度。实测显示,DeepSeek-V4-Pro在NVIDIA GB200 NVL72上开箱性能超过150 tokens/sec/user。开发者可通过NVIDIA NIM微服务下载部署,或利用SGLang与vLLM框架进行定制化推理,vLLM支持扩展至100个以上GPU。
关联讨论 3 条X:AK (@_akhaliq)Hugging Face:Blog(RSS)X:Rohan Paul (@rohanpaul_ai)OpenAI为ChatGPT订阅用户推出系统级语音输入功能,用户设置热键即可在桌面任何应用(如记事本、VS Code)中直接语音输入并转为文字。此举直接冲击Wispr Flow等付费第三方工具,用户无需额外付费,体现OpenAI将AI嵌入操作系统的战略,推动AI与工作流集成。
这周要发的GPT-5.5可能是人类离 AGI 最近的一次尝试🚀 Greg Brockman 是 OpenAI 的联合创始人兼现任 President(总裁),…
阿里云百炼平台宣布首发上线DeepSeek-V4-Pro与DeepSeek-V4-Flash两款模型,其API定价与DeepSeek官网完全一致。其中,Flash版本输入价格低至每百万Tokens 1元,输出价格为每百万Tokens 2元。两款模型均支持100万Tokens的超长上下文,V4-Pro专为复杂任务设计,V4-Flash侧重高效经济。此次接入进一步丰富了百炼平台作为“AI模型超市”的生态,为开发者提供了一站式调用各类顶尖模型的灵活选择。
OpenRouter 发布 Agent SDK,其核心是 callModel 函数。该函数可将一次聊天完成转化为具备工具调用、停止条件与成本追踪功能的多步骤智能体工作流。这一工具兼容平台上的 300 多个模型,使开发者能够便捷地构建复杂的多轮交互智能体应用。
Anthropic 发布了 Agent SDK,开发者可利用 `create-agent-tui` 和 `create-headless-agent` 技能,在几分钟内搭建个性化的编码智能体。该 SDK 支持两种模式:一是提供终端用户界面的交互式代理,二是无界面的“headless”代理,便于集成到自动化脚本和流水线中。这显著降低了为特定编码任务定制 AI 助手的门槛。
Anthropic 确认其编程助手 Claude Code 出现质量问题,用户反馈其性能下降。公司已识别并修复了三个独立的错误源。为应对此次问题,Anthropic 承诺未来将执行更严格的质量控制措施,以保障产品输出的稳定性和可靠性。
摩尔线程与智源FlagOS合作,成功为MTT S5000 GPU完成了DeepSeek-V4-Flash模型的Day-0适配。该模型采用混合专家架构,总参数量284B,并首次运用“FP4+FP8”混合精度策略。MTT S5000 GPU凭借原生FP8支持及内置硬件级FP8 Tensor Core,能将数据位宽减半,显著降低显存带宽压力并提升计算吞吐量。双方团队通过编译优化与自动调优,重点攻克了FP8算子与Sparse Attention算子,实现了高效适配。
Zondision发布ZIMO1裸眼3D显示器,采用光场原理并内置专用3D处理芯片。该显示器配备27英寸4K面板,刷新率为60Hz,亮度达450nits,覆盖100% sRGB色域。其双眼追踪速率达120Hz,兼容OpenXR API及多数主流沉浸式输入设备,支持2D转3D内容工具,可与虚幻、Unity、Blender等软件及多平台游戏协同工作。
腾讯正式发布面向汽车行业的“出行全场景智能体开放平台”。该平台围绕通勤、出游、娱乐等高频率场景,提供开箱即用的智能体产品,例如随行点单智能体可完成从选品、下单到取餐的全链路服务;随行向导智能体能化身专属AI导游,并新增车队协同管理功能。底层技术方面,平台升级了端云协同座舱大模型架构,端侧采用0.8B轻量化VLM模型确保毫秒级响应,云端则率先接入混元最新大模型Hy3 preview。目前腾讯已服务超过100家车企及出行科技公司。
硬件制造商MINIX于4月23日发布了两款基于英伟达Jetson Thor平台的GenAI迷你工作站T4000/T5000。该系列产品搭载Arm Neoverse-V3AE CPU和英伟达“Blackwell”GPU,配备最高128GB LPDDR5X统一内存,具备高达2070 TFLOPS的FP4稀疏算力,可支持70亿至700亿参数的大语言模型本地推理。主机尺寸紧凑,内置双涡轮风扇散热,预装1TB PCIe Gen4固态硬盘,并提供了双10GbE万兆网口、Wi-Fi 6E、蓝牙5.3、多个HDMI和USB接口等丰富的外部连接选项。
宝马在北京车展推出基于阿里巴巴千问大模型定制的座舱智能体,包括“用车专家”“出行伙伴”和“百科达人”三个AI智能体。这些智能体从传统语音助手的被动响应升级为主动决策,能精准处理复杂出行需求。首款搭载车型为新世代BMW iX3长轴距版,全新BMW 7系随后跟进。“出行伙伴”支持自然语言复合需求,即时生成个性化行程方案;“用车专家”深度集成20万条宝马专业知识库,提供真人顾问级解答。车展上,宝马集团展示16款新车型,其中4款全球首发、8款中国首发。
DeepSeek-V4预览版正式上线并开源。华为云宣布首发适配,在其MaaS平台上为开发者提供免部署、一键调用DeepSeek-V4-Flash API的Tokens服务。该服务通过适配分层注意力压缩机制、提供多种昇腾高性能融合算子等优化,支持原生100万Token长上下文的高性能推理。V4系列包含1.6万亿参数的旗舰版Pro和2840亿参数的经济型Flash两个MoE架构版本,均原生支持100万Token上下文。新技术大幅降低了长上下文下的计算和显存需求。官方表示V4-Pro体验优于Anthropic Sonnet 4.5,但仍落后于GPT-5.4等前沿闭源模型。
在北京车展上,火山引擎发布了基于Agentic AI架构的新一代汽车AI解决方案,包含AI座舱套件和豆包座舱助手两大方案。新方案通过一个AI大脑深度联动整车功能域,实现了感知、推理、执行、记忆、学习的一体化闭环,颠覆了上一代架构。其中,AI座舱套件支持车企灵活配置,豆包座舱助手则为完整产品级交付,将于年内量产。目前,搭载豆包大模型的智能汽车已超700万辆,覆盖50多个品牌,日均完成超3000万次座舱交互。
华为宣布其昇腾超节点全系列产品已全面支持DeepSeek V4系列模型。昇腾950通过融合kernel和多流并行技术,实现了高吞吐、低时延的推理部署。具体性能上,DeepSeek V4-Pro模型在8K输入下,单卡解码吞吐达4700TPS,时延约20ms;V4-Flash模型单卡吞吐为1600TPS,时延约10ms。此外,昇腾A3超节点系列也全面适配,并提供训练参考实现;基于64卡配置,V4-Flash模型在8K/1K场景下单卡吞吐超过2000TPS。
Infisical团队开源了Agent Vault,这是一个专为AI代理设计的凭证代理与存储库。该项目旨在安全地管理AI代理在运行时所使用的API密钥、数据库密码等敏感凭证,防止其直接暴露在代码或环境中。Agent Vault作为代理与外部服务之间的中间层,集中处理身份验证,从而提升安全性并简化凭证管理流程。该项目已在GitHub发布,并在Hacker News上获得了101点关注度。