4月25日
23:26
IT之家(RSS)
36
我国科学家发布"灵境造物"智能科研工具,面向全球科研主体开放

中国科学技术大学在合肥发布“灵境造物”智能科研工具,面向全球科研人员、机构及企业开放。该系统基于昇腾、鲲鹏、华为云等全栈国产化软硬件生态构建,整合了科学大模型、科研机器人、自动计算与实验等能力,形成操作系统级入口。它依托千余台科研机器人和万余台智能工作站,深度整合千余个科研技能,旨在实现自主科研与物质创制,以破解传统科研成本高、周期长、转化难等痛点。此举标志着人工智能驱动的科学研究正向工程化、平台化与开放共享迈进。

产品更新开源生态部署/工程
23:26
Hacker News 热门(buzzing.cc 中文翻译)
56
开源内存层,让任何AI代理都能实现Claude.ai和ChatGPT的功能

开源项目Stash发布,为AI代理提供长期记忆与上下文管理能力。它通过独立存储和检索对话历史,使开发者无需依赖特定API即可为应用添加持久化记忆功能。该项目已在GitHub开源,并获Hacker News社区关注,降低了构建复杂AI代理的门槛。

智能体开源/仓库部署/工程
22:44
meng shao@shao__meng
60
Obscura:专为AI Agent与规模化爬取设计的轻量级无头浏览器引擎

Obscura是一个用Rust编写的轻量级无头浏览器引擎,专为AI Agent自动化和大规模网络爬取优化。其核心优势在于极致的性能与资源效率,内存占用仅30MB,页面加载约85毫秒,远超Headless Chrome。项目采用务实架构,复用Servo的DOM与V8引擎,并构建独立网络层。关键特性包括深度反检测的“隐身模式”,能随机化指纹并拦截追踪域名;通过兼容Chrome DevTools Protocol,实现与Puppeteer/Playwright生态无缝对接。此外,它内置了DOM转Markdown等专为AI Agent优化的功能,旨在作为高效的常驻网页感知端点。

智能体开源/仓库部署/工程
22:28
阿绎 AYi@AYi_AInotes
43
Lume机器人:一盏会叠衣服的智能床头灯

前斯坦福机器人博士Aaron Tan发布的Lume机器人,外观设计为一盏豪华床头灯,但内置机械臂可自动叠放衣物。其核心理念是家用机器人应像一件会干活的家具,专注于解决叠衣服这类具体痛点,而非以人形形态在家庭中活动。团队将于下周在Palo Alto举办展示会,邀请公众自带脏衣服进行测试,强调产品解决实际问题的实用性,认为这种形态比追求拟人化功能更接近真正的家用机器人未来。

产品更新具身智能
21:37
阿绎 AYi@AYi_AInotes
50
AI一键生成App Store截图,颠覆应用上架流程

工具Anything推出新功能,能一键生成设计师级别的App Store截图。用户仅需15秒即可从空白状态获得4张完美适配官方规格的截图,系统会自动生成包含图标、评分和下载按钮的完整画面。修改文案也只需输入一句话并点击生成。此举解决了应用开发中制作和适配多尺寸截图的传统痛点,该过程以往需耗费数百美元聘请设计师或投入大量时间自行设计。AI正将开发者从繁琐的“脏活累活”中解放出来,大幅降低了从创意到应用上架全流程的门槛,尽管最终审美把关仍需人工,但已节省约90%的精力。

产品更新图像生成部署/工程
21:14
IT之家(RSS)
38
"华为眼镜"App 鸿蒙版 1.0.1.356 更新推送,新增小艺看世界、自动开机等,支持 4:3 比例录制视频

“华为眼镜”App鸿蒙版推送1.0.1.356更新,新增多项功能。主要更新包括:在应用首页新增“小艺看世界”功能入口;应用设置中增加定制开关机功能,支持眼镜清晨自动唤醒;相机设置新增4:3视频比例选项,以扩大纵向录像视野;新增手表协同功能,可通过手表遥控眼镜拍照。该App配套的华为AI眼镜已于近日发布,起售价为2499元。

产品更新多模态端侧
20:42
Hacker News 热门(buzzing.cc 中文翻译)
46
Show HN: 由您的代理维护的卡帕西风格大语言模型维基(支持 Markdown 和 Git)

项目“Wuphf”是一个受卡帕西风格启发的大语言模型维基系统,支持Markdown格式和Git版本控制。其核心特点是可由用户设定的AI代理自动维护和更新内容,实现了知识库的持续自主管理。该项目已在GitHub开源,并在Hacker News上获得了100点热度。

智能体开源/仓库部署/工程
20:00
19:51
阿绎 AYi@AYi_AInotes
62
AI维护机器人Clawsweeper上线,50个智能体日清4000条issue引开源范式变革

OpenClaw之父steipete推出AI维护机器人Clawsweeper,旨在应对AI生成代码带来的管理洪流。该工具部署50个AI智能体全天候扫描仓库issue和PR,仅在证据确凿时按严格限定的五类理由建议关闭,单日可处理约4000条。其设计极简,无传统仪表盘,所有状态数据实时写入README。这标志着开源维护从“人盯仓库”转向“AI管AI”,核心瓶颈从模型能力变为平台速率限制,被视为对开源维护范式的根本性改变。

智能体产品更新开源生态
19:14
IT之家(RSS)
36
破局 1.6T 量产瓶颈:万里眼 65GHz 采样示波器正式发布

在2026九峰山论坛上,新凯来旗下万里眼公司发布了65GHz采样示波器,旨在破解1.6T高速光模块的量产测试瓶颈。该产品面向AI算力驱动下光互连技术向1.6T演进的需求,实现了三大突破:500kHz采样率将测试效率提升100%;65GHz带宽支持单波200G测量,为1.6T通信奠定基础;12μW超低光功率噪声保障了高精度生产。此举贯通了1.6T研发与量产的全流程测试。

产品更新部署/工程
18:17
Hacker News:AI 热帖
60
展示 HN:一个由智能体维护的 Karpathy 风格 LLM 维基(基于 Markdown 和 Git)

WUPHF 是一个为 AI 员工设计的协作办公平台,通过一个命令即可启动,在本地提供 Web 界面。它将不同角色的 AI 智能体置于一个共享的虚拟办公室中,使其可见、可争论并协作完成任务。平台为每个智能体提供私人笔记,团队共享一个基于 Markdown 和 Git 的本地维基,智能体可自主将可靠信息同步至团队知识库。项目目前处于 1.0 版本前的预发布阶段,默认使用 Claude Code,支持通过命令行参数灵活配置。

智能体MCP/工具产品更新开源/仓库
18:14
IT之家(RSS)
30
安卓首发:荣耀 YOYO 率先接入 DeepSeek-V4 大模型

荣耀YOYO成为安卓阵营中首个接入DeepSeek-V4大模型的AI智能体。此次接入带来三大核心升级:模型性能更强、上下文处理长度更长、推理效率更高。用户需将YOYO智能体升级至90.10.28.041及以上版本,并在MagicOS 8.0及以上系统环境中即可抢先体验此次更新。

DeepSeek产品更新端侧
17:42
Hacker News 热门(buzzing.cc 中文翻译)
58
Show HN: 浏览器框架--赋予大型语言模型(LLM)自由完成任何浏览器任务的能力

开源项目“Browser Harness”发布,旨在赋予大型语言模型(LLM)在浏览器中自主完成任意任务的能力。该工具通过提供一个可编程的浏览器控制框架,使LLM能够像人类一样操作网页,执行点击、输入、导航等复杂交互。此举有望突破当前AI代理在自动化网络操作方面的限制,扩展LLM的实际应用场景。该项目已在GitHub开源,并在Hacker News社区获得100点热度关注。

智能体MCP/工具开源/仓库
16:14
IT之家(RSS)
16
Yeelight 智能雷达人在护眼吸顶灯 RadarSense 现身,众筹价 269 元起

Yeelight智能雷达人在护眼吸顶灯RadarSense已在小米平台开启众筹,起售价269元。该产品主打毫米波雷达人在感应技术,通过AI算法识别10米范围内人体的动静状态,实现无感自动开关灯,并能有效减少误触发。其采用双蓝光豁免级技术,显色指数高达Ra99,同时降低有害蓝光且无可见频闪。灯具内置160W恒流驱动电源,支持亮度自由调节,并已接入米家App,兼容超级小爱、遥控器及墙壁开关控制。

产品更新其他
16:14
IT之家(RSS)
63
英伟达已适配 DeepSeek-V4 AI 模型,GB200 NVL72 开箱性能超 150 tokens / sec / user

英伟达宣布其Blackwell平台已适配DeepSeek-V4-Pro与DeepSeek-V4-Flash两款模型。DeepSeek-V4-Pro拥有1.6T总参数量与49B激活参数,定位高级推理;DeepSeek-V4-Flash则为284B总参数量与13B激活参数,主打高效场景。两款模型均支持100万Token上下文窗口与最高38.4万Token输出长度。实测显示,DeepSeek-V4-Pro在NVIDIA GB200 NVL72上开箱性能超过150 tokens/sec/user。开发者可通过NVIDIA NIM微服务下载部署,或利用SGLang与vLLM框架进行定制化推理,vLLM支持扩展至100个以上GPU。

DeepSeek产品更新开源生态部署/工程
关联讨论 3X:AK (@_akhaliq)Hugging Face:Blog(RSS)X:Rohan Paul (@rohanpaul_ai)
16:05
阿绎 AYi@AYi_AInotes
61
OpenAI推出桌面语音输入功能,冲击第三方工具市场

OpenAI为ChatGPT订阅用户推出系统级语音输入功能,用户设置热键即可在桌面任何应用(如记事本、VS Code)中直接语音输入并转为文字。此举直接冲击Wispr Flow等付费第三方工具,用户无需额外付费,体现OpenAI将AI嵌入操作系统的战略,推动AI与工作流集成。

阿绎 AYi这周要发的GPT-5.5可能是人类离 AGI 最近的一次尝试🚀 Greg Brockman 是 OpenAI 的联合创始人兼现任 President(总裁),…

OpenAI产品更新语音
14:14
Elon Musk@elonmusk
51
Grok 想象
xAI产品更新图像生成
03:12
Greg Brockman@gdb
精选75
gpt-5.5 现已登陆 GitHub Copilot! 【引用 @github】:🆕 @OpenAIDevs GPT-5.5 现已全面推出,并正在 GitHub Copilot 中逐步上线。 我们的早期测试显示 ➡️ 它在复杂的智能体编码任务上表现出最强的性能 ➡️ 它解决了以往 GPT 模型无法应对的实际编码挑战 请在 Copilot CLI 或 @code 中试用。👇 https://github.blog/changelog/2026-04-24-gpt-5-5-is-generally-available-for-github-copilot/
OpenAI产品更新编码
关联讨论 1X:Greg Brockman (@gdb)
推荐理由:GPT-5.5 进 Copilot 不是模型发布那么简单,它意味着最强编码模型第一次以默认选项塞进每个开发者的 IDE 里,做 coding agent 的团队该重新跑一遍自己的 benchmark 了。
4月24日
21:08
IT之家(RSS)
49
阿里云百炼上线 DeepSeek-V4 模型,API 价格与官网一致

阿里云百炼平台宣布首发上线DeepSeek-V4-Pro与DeepSeek-V4-Flash两款模型,其API定价与DeepSeek官网完全一致。其中,Flash版本输入价格低至每百万Tokens 1元,输出价格为每百万Tokens 2元。两款模型均支持100万Tokens的超长上下文,V4-Pro专为复杂任务设计,V4-Flash侧重高效经济。此次接入进一步丰富了百炼平台作为“AI模型超市”的生态,为开发者提供了一站式调用各类顶尖模型的灵活选择。

产品更新开源生态部署/工程
20:00
OpenRouter:Announcements(RSS)
精选55
Agent SDK:在 OpenRouter 上构建多轮智能体工作流

OpenRouter 发布 Agent SDK,其核心是 callModel 函数。该函数可将一次聊天完成转化为具备工具调用、停止条件与成本追踪功能的多步骤智能体工作流。这一工具兼容平台上的 300 多个模型,使开发者能够便捷地构建复杂的多轮交互智能体应用。

智能体MCP/工具产品更新

推荐理由:OpenRouter 把多轮 agent 编排封装成一个 callModel 函数,300+ 模型统一调用,做 agent 产品的人可以少写不少胶水代码,但本质上是工程封装而非技术突破。
20:00
OpenRouter:Announcements(RSS)
53
使用 Agent SDK 构建你自己的 Harness

Anthropic 发布了 Agent SDK,开发者可利用 `create-agent-tui` 和 `create-headless-agent` 技能,在几分钟内搭建个性化的编码智能体。该 SDK 支持两种模式:一是提供终端用户界面的交互式代理,二是无界面的“headless”代理,便于集成到自动化脚本和流水线中。这显著降低了为特定编码任务定制 AI 助手的门槛。

智能体产品更新编码
19:19
The Decoder:AI News(RSS)
49
Anthropic 确认 Claude Code 存在问题并承诺实施更严格的质量控制

Anthropic 确认其编程助手 Claude Code 出现质量问题,用户反馈其性能下降。公司已识别并修复了三个独立的错误源。为应对此次问题,Anthropic 承诺未来将执行更严格的质量控制措施,以保障产品输出的稳定性和可靠性。

Anthropic产品更新编码
18:08
IT之家(RSS)
39
摩尔线程携手智源 FlagOS,为 MTT S5000 GPU 完成 DeepSeek-V4 模型 Day-0 适配

摩尔线程与智源FlagOS合作,成功为MTT S5000 GPU完成了DeepSeek-V4-Flash模型的Day-0适配。该模型采用混合专家架构,总参数量284B,并首次运用“FP4+FP8”混合精度策略。MTT S5000 GPU凭借原生FP8支持及内置硬件级FP8 Tensor Core,能将数据位宽减半,显著降低显存带宽压力并提升计算吞吐量。双方团队通过编译优化与自动调优,重点攻克了FP8算子与Sparse Attention算子,实现了高效适配。

产品更新开源生态部署/工程
18:08
IT之家(RSS)
25
Zondision 发布 ZIMO1 裸眼 3D 显示器:光场原理,内置 3D 芯片

Zondision发布ZIMO1裸眼3D显示器,采用光场原理并内置专用3D处理芯片。该显示器配备27英寸4K面板,刷新率为60Hz,亮度达450nits,覆盖100% sRGB色域。其双眼追踪速率达120Hz,兼容OpenXR API及多数主流沉浸式输入设备,支持2D转3D内容工具,可与虚幻、Unity、Blender等软件及多平台游戏协同工作。

产品更新其他
17:08
IT之家(RSS)
37
腾讯面向汽车行业发布全场景智能体开放平台,可化身专属 AI 导游、提供选品下单取餐全链路服务等

腾讯正式发布面向汽车行业的“出行全场景智能体开放平台”。该平台围绕通勤、出游、娱乐等高频率场景,提供开箱即用的智能体产品,例如随行点单智能体可完成从选品、下单到取餐的全链路服务;随行向导智能体能化身专属AI导游,并新增车队协同管理功能。底层技术方面,平台升级了端云协同座舱大模型架构,端侧采用0.8B轻量化VLM模型确保毫秒级响应,云端则率先接入混元最新大模型Hy3 preview。目前腾讯已服务超过100家车企及出行科技公司。

智能体行业动态部署/工程
17:08
IT之家(RSS)
37
MINIX 发布英伟达 Jetson Thor 平台 GenAI 迷你主机,搭载双万兆网口

硬件制造商MINIX于4月23日发布了两款基于英伟达Jetson Thor平台的GenAI迷你工作站T4000/T5000。该系列产品搭载Arm Neoverse-V3AE CPU和英伟达“Blackwell”GPU,配备最高128GB LPDDR5X统一内存,具备高达2070 TFLOPS的FP4稀疏算力,可支持70亿至700亿参数的大语言模型本地推理。主机尺寸紧凑,内置双涡轮风扇散热,预装1TB PCIe Gen4固态硬盘,并提供了双10GbE万兆网口、Wi-Fi 6E、蓝牙5.3、多个HDMI和USB接口等丰富的外部连接选项。

产品更新端侧部署/工程
16:08
IT之家(RSS)
32
宝马基于千问大模型推出座舱智能体,新世代 BMW iX3 长轴距版首搭

宝马在北京车展推出基于阿里巴巴千问大模型定制的座舱智能体,包括“用车专家”“出行伙伴”和“百科达人”三个AI智能体。这些智能体从传统语音助手的被动响应升级为主动决策,能精准处理复杂出行需求。首款搭载车型为新世代BMW iX3长轴距版,全新BMW 7系随后跟进。“出行伙伴”支持自然语言复合需求,即时生成个性化行程方案;“用车专家”深度集成20万条宝马专业知识库,提供真人顾问级解答。车展上,宝马集团展示16款新车型,其中4款全球首发、8款中国首发。

智能体端侧行业动态
16:08
IT之家(RSS)
55
华为云首发适配 DeepSeek-V4,提供免部署、一键调用 API 的 Tokens 服务

DeepSeek-V4预览版正式上线并开源。华为云宣布首发适配,在其MaaS平台上为开发者提供免部署、一键调用DeepSeek-V4-Flash API的Tokens服务。该服务通过适配分层注意力压缩机制、提供多种昇腾高性能融合算子等优化,支持原生100万Token长上下文的高性能推理。V4系列包含1.6万亿参数的旗舰版Pro和2840亿参数的经济型Flash两个MoE架构版本,均原生支持100万Token上下文。新技术大幅降低了长上下文下的计算和显存需求。官方表示V4-Pro体验优于Anthropic Sonnet 4.5,但仍落后于GPT-5.4等前沿闭源模型。

DeepSeek产品更新部署/工程
15:08
IT之家(RSS)
34
火山引擎发布新一代汽车 AI 解决方案,豆包大模型搭载超 700 万辆车

在北京车展上,火山引擎发布了基于Agentic AI架构的新一代汽车AI解决方案,包含AI座舱套件和豆包座舱助手两大方案。新方案通过一个AI大脑深度联动整车功能域,实现了感知、推理、执行、记忆、学习的一体化闭环,颠覆了上一代架构。其中,AI座舱套件支持车企灵活配置,豆包座舱助手则为完整产品级交付,将于年内量产。目前,搭载豆包大模型的智能汽车已超700万辆,覆盖50多个品牌,日均完成超3000万次座舱交互。

智能体产品更新部署/工程
15:08
IT之家(RSS)
57
华为:昇腾超节点系列产品全面支持 DeepSeek V4

华为宣布其昇腾超节点全系列产品已全面支持DeepSeek V4系列模型。昇腾950通过融合kernel和多流并行技术,实现了高吞吐、低时延的推理部署。具体性能上,DeepSeek V4-Pro模型在8K输入下,单卡解码吞吐达4700TPS,时延约20ms;V4-Flash模型单卡吞吐为1600TPS,时延约10ms。此外,昇腾A3超节点系列也全面适配,并提供训练参考实现;基于64卡配置,V4-Flash模型在8K/1K场景下单卡吞吐超过2000TPS。

DeepSeek产品更新部署/工程
14:45
Hacker News 热门(buzzing.cc 中文翻译)
56
Show HN: Agent Vault - 面向代理的开源凭证代理和存储库

Infisical团队开源了Agent Vault,这是一个专为AI代理设计的凭证代理与存储库。该项目旨在安全地管理AI代理在运行时所使用的API密钥、数据库密码等敏感凭证,防止其直接暴露在代码或环境中。Agent Vault作为代理与外部服务之间的中间层,集中处理身份验证,从而提升安全性并简化凭证管理流程。该项目已在GitHub发布,并在Hacker News上获得了101点关注度。

智能体开源/仓库部署/工程