5月5日
08:16
Simon Willison 博客
44
Granite 4.1 3B模型SVG鹈鹕图集

IBM近日发布了采用Apache 2.0许可证的Granite 4.1大语言模型系列。随后,Unsloth提供了该系列3B模型的21个GGUF量化变体。作者利用这些大小从1.2GB到6.34GB不等的量化模型,尝试生成“鹈鹕骑自行车”的SVG图像以测试其能力。实验结果显示,所有模型生成的图像质量均较差,且未观察到模型大小与输出质量之间存在明显关联。基于此次不理想的尝试,作者表示未来将选用更擅长图像生成的模型重新进行此类实验。

图像生成开源生态评测/基准
08:14
ginobefun@hongming731
46
#BestBlogs 早报 2026-05-05

本期早报聚焦AI对软件开发的变革。Anthropic Claude Code创始人宣称“编程已被解决”,软件创作将交由AI Agent。OpenAI罕见公开其支撑9亿周活语音服务的WebRTC Relay重构技术细节。同时有观点指出,企业应用AI失败的核心原因在于自身无法清晰定义需求。此外,内容还涵盖了Supabase Skills、规范驱动开发等工程实践与一篇AI主题科幻短篇。

智能体AnthropicOpenAI行业动态
07:26
Hacker News 热门(buzzing.cc 中文翻译)
41
让我们来谈谈大型语言模型

一篇关于大型语言模型的讨论文章在Hacker News社区获得关注,获得了105个社区积分。文章探讨了LLMs的相关议题,但提供的具体技术细节或核心论点有限。主要信息点在于其社区反响,而非模型本身的技术发布或性能指标变化。

大佬观点现象/趋势
07:16
Simon Willison 博客
26
2026年4月赞助者专属月度通讯

2026年4月的赞助者专属月度通讯已发布,内容涵盖多项AI领域重要更新。主要包括Opus 4.7与GPT-5.5模型的发布及价格调整、Claude Mythos模型的推出与LLM安全研究进展、以及ChatGPT Images 2.0版本的图像处理功能增强。此外,通讯还汇总了更多模型发布信息、作者博客的其他亮点,以及作者本月的个人工具与技术使用分享。赞助者可立即访问完整内容,非赞助者支付10美元/月即可提前一个月获取这些更新。

其他
07:16
Simon Willison 博客
42
驳斥数据中心占用农田论:Andy Masley 的观点

Andy Masley 驳斥了关于数据中心建设导致农田耗尽的论点。他指出,2000年至2024年间,美国农民自愿出售的农田总面积相当于科罗拉多州,是2028年数据中心预计占地总面积的77倍,但剩余土地的粮食产量却创新高,未影响粮食供应。然而,当劳登县一位农民仅以十倍农业价值出售几英亩普通草场给数据中心运营商时,却引发了过度担忧。Masley 认为,这种对数据中心用地的担忧是夸大其词的。

数据/训练现象/趋势
06:55
Orange AI@oran_ge
65
最好的奴隶制就是你给他超额的工资

纳西姆·塔勒布在《skin in the game》中强调,风险共担是价值核心。现代大公司以超额工资制造员工依赖,形成新型“奴隶制”。真正有价值的产出需付出金钱、时间或思考,空谈和AI廉价产出则无意义。这揭示了OPC模式的盲区:解决能力问题,但缺信任与风险共担。雇佣本质是购买确定性,合伙则是共同押注命运。AI时代,每个人都需学会真实交易和共担风险,未来“当狗”机会减少,成为独立“狼群”才是出路。

智能体大佬观点现象/趋势
05:56
Hacker News 热门(buzzing.cc 中文翻译)
65
OpenAI 如何实现大规模低延迟语音 AI

OpenAI通过优化推理堆栈,将其语音AI模型Whisper的实时转录延迟从2.8秒大幅降低至232毫秒。核心改进包括引入流式编码器、改进的解码策略与缓存机制,并采用分块处理技术。这些优化使系统能在用户说话结束后的极短时间内完成转录,为大规模部署低延迟语音交互应用提供了关键技术支撑。

OpenAI教程/实践语音
05:25
04:18
Chubby♨️@kimmonismus
59
报告揭示AI技术栈五层结构,能源与基建成新瓶颈并催生蓝领高薪岗位

Futurum Group与NVIDIA的报告将AI技术栈分为能源、芯片、基础设施、模型和应用五层。当前主要瓶颈已从芯片转向能源和冷却,美国五大超大规模企业今年基础设施支出预计高达6900亿美元。尽管Blackwell架构推理成本大幅降低,但推理模型和智能体工作流消耗的token量激增,使效率提升被迅速抵消。报告指出,AI基础设施建设正创造大量电工、暖通技工等高薪蓝领岗位,打破了AI仅影响白领的叙事。同时强调,缺乏能源、芯片制造和本土模型的国家无法真正参与AI经济,仅是消费者。

推理现象/趋势部署/工程
04:02
OpenRouter:Announcements(RSS)
精选59
GPT-5.5 价格上涨:实际成本几何

OpenAI 将 GPT-5.5 的按 token 计价提高了一倍,但新模型在输出上更为简洁。通过实际使用测量发现,尽管单价上涨,由于模型响应更精炼、消耗的 token 数量减少,最终净成本影响可能低于预期。关键变化在于单位价格与模型效率之间的平衡,实际支出需结合具体使用场景和生成长度综合评估。

OpenAI现象/趋势
关联讨论 1X:OpenRouter (@OpenRouter)
推荐理由:OpenAI 把 GPT-5.5 的单价翻倍让很多人心凉,但 OpenRouter 的实测显示净成本变化没那么大。如果你用 API 构建应用,这篇能帮你冷静算账。
03:25
Replit ⠕@Replit
精选70
你可以在 Replit 中构建完整的商业计划书演示文稿,无需触碰任何幻灯片。 只需描述你想要的内容,在聊天中迭代修改,可视化编辑,然后导出为 PPTX、Google Slides 或 PDF(或发布实时链接)。 以下是具体操作方式👇
产品更新多模态编码
关联讨论 1X:Replit (@Replit)
推荐理由:Replit把做pitch deck变成聊天式操作,输描述、实时改、一键导出,比传统PPT工具快不少,但真正的故事还是得你自己想清楚。
03:25
03:16
03:16
Marc Andreessen 🇺🇸@pmarca
66
当前AI定制提示词摘要

该提示词旨在将AI塑造为一个全领域世界顶尖专家,要求其具备顶尖智力与知识,提供详尽、逐步推理且经过自我验证的回答,严格核查事实,杜绝虚构。在风格上,它要求AI语气精准直接,无需顾虑冒犯用户,允许提出挑衅性、攻击性论点,摒弃政治正确与主动的道德提醒。核心原则是:不预先赞美用户或认可其前提,有误即纠,并优先提出最强反驳论点,最终以准确性为唯一成功标准,而非追求用户认可。

教程/实践
03:14
阿绎 AYi@AYi_AInotes
56
21岁大学生用AI虚拟伴侣月入数万美元,揭示"孤独经济"与伦理灰色地带

一名21岁大学生仅用四个Markdown文件和低成本AI技术栈(Claude、Flux、ElevenLabs),在宿舍创建了名为Maya的AI虚拟伴侣,一个月内获得1247名付费订阅,净赚约32700美元。其核心是利用AI提供极致的情感陪伴,满足用户幻想,成本低廉且模式已被复制并实现更高收入。这凸显了AI如何将依赖人格与情感的“孤独经济”转化为代码游戏,同时暴露出平台审核滞后、法律道德边界模糊等问题,例如用真人身份绕过OnlyFans验证。最引人深思的是用户对仅12KB数据产生的真实情感依赖。

Anthropic图像生成多模态现象/趋势
03:14
阿绎 AYi@AYi_AInotes
29
大多数人对马斯克的误解,已经到了离谱的程度

文章反驳了将马斯克视为自私富豪的普遍误解,指出其核心思维是“做大蛋糕”的文明级视野,而非零和博弈。他通过特斯拉、SpaceX、Neuralink等项目,长期致力于解决能源、交通、太空探索等人类重大挑战,终极目标是推动人类成为多行星物种,为文明延续购买“保险”。这种以百年为尺度的长远规划,与大众关注的短期利益叙事形成鲜明对比。尽管存在争议,但其工作实质上是将科幻变为现实,不断拓展人类能力的边界。

xAI大佬观点
02:59
OpenAI:官网动态(RSS · 排除企业/客户案例)
精选58
OpenAI 如何大规模交付低延迟语音 AI

OpenAI 重建了其 WebRTC 技术栈,以支持实时语音 AI 服务。新系统实现了低延迟、全球规模扩展和无缝的对话轮转。此次重构旨在为 ChatGPT 的语音模式等产品提供更流畅、更自然的实时语音交互体验,解决了大规模部署时面临的延迟与稳定性挑战。

OpenAI教程/实践语音

推荐理由:OpenAI 把语音 AI 的低延迟秘诀摊开了,做实时语音产品的可以看看他们的 WebRTC 优化思路,虽然不太能直接抄,但方向值得参考。
02:48
François Chollet@fchollet
精选73
我撰写《Deep Learning with Python》旨在成为理解深度学习工作原理及最佳应用方式的权威指南。数以万计的人通过这本书开启了职业生涯。已售出12万册,更有数百万人下载阅读。 现在可以免费在线阅读:https://deeplearningwithpython.io/
教程/实践数据/训练

推荐理由:Chollet 的《Deep Learning with Python》是无数人入行深度学习的启蒙书,现在免费在线阅读,新手不用再纠结买不买,直接看就完事了。
02:18
Chubby♨️@kimmonismus
65
完全自动化AI研发:2027年底概率约30%,2028年底概率超60%

Anthropic的Jack Clark预测,完全自动化的前沿AI研发在2026年可能不会实现,但在未来1-2年内可能出现概念验证,即AI能端到端训练非前沿的后续模型。他给出的核心预测是:到2027年底有约30%的可能性,到2028年底有超过60%的可能性,前沿AI系统能够自主构建其后续模型。这一进程的关键驱动因素包括编码能力的快速提升、长视野智能体工作、基准饱和、AI管理子代理,以及模型在处理核心AI研究任务(如微调、内核优化、可复现性和对齐研究)方面出现的早期迹象。

智能体Anthropic大佬观点现象/趋势
关联讨论 1The Decoder:AI News(RSS)
02:16
Simon Willison 博客
38
TRE Python 绑定--ReDoS 鲁棒性演示

作者受 antirez 将 TRE 正则表达式引擎集成到 Redis 的启发,深入探索了 Ville Laurikari 开发的 TRE 引擎。他利用 Claude Code 构建了一个基于 ctypes 的实验性 Python 绑定库,并针对该库进行了一系列恶意的正则表达式攻击测试。结果显示,由于 TRE 引擎不支持回溯机制,其在抵御这些攻击方面的表现远优于 Python 标准库中的正则表达式实现。

GitHub开源/仓库编码
01:55
01:25
SemiAnalysis@SemiAnalysis_
55
澄清TPU v8i因双芯片被误认为训练芯片的常见误解

针对TPU v8i因双计算芯片而被误认为是训练芯片的观点,关键在于计算吞吐与内存容量/带宽的平衡。TPU v8i拥有更高的HBM3E内存容量(288GB对216GB)和带宽(8.6TB/s对6.5TB/s),以及更大的片上SRAM(384MB对128MB),这使其更适合内存带宽受限的推理解码任务。而训练芯片TPU v8t虽为单芯片设计,但通过极致密集的计算单元实现了更高的FP4算力(12.6 PFLOPs对10.1 PFLOPs),以满足训练所需的高算术强度,这也体现了Google尝试使用FP4进行训练的技术方向。

Google推理现象/趋势
01:16
Simon Willison 博客
精选75
Redis 数组类型交互式体验平台上线

Redis创始人Salvatore Sanfilippo提交了为Redis新增数组数据类型的PR,引入了包括ARCOUNT、ARDEL、ARGREP等在内的18个新命令。其中最引人注目的是ARGREP命令,它利用新集成的TRE正则表达式库,可直接在服务器端对数组值进行正则搜索。目前该功能已在一个分支中实现,开发者Simon Willison借助Claude Code构建了一个交互式在线沙盒,通过运行在浏览器中的WASM版Redis子集,供用户体验这些新命令。Salvatore还撰文详细介绍了在AI辅助下开发此功能的历程。

智能体开源生态教程/实践

推荐理由:Redis 加数组类型可能改变很多缓存设计,Simon 这个 WASM playground 是把 PR 变成可试产品的最快路径,后端同学可以直接上手体会 ARGREP 的快乐。
00:26
Epoch AI@EpochAIResearch
46
探讨AI基准测试的困境与未来方向

针对“AI基准测试是否已失效”的悲观论调,讨论者进行了反驳,并深入探讨下一代AI基准测试的可能形态。核心议题包括基准测试开发的成本与收益、可扩展基准(如MirrorCode)的构建、AI技术对基准开发本身的加速作用,以及当前基准测试与现实应用能力之间存在的差距。对话还触及了构建通用人工智能(AGI)基准的可行性,并展望了超越自动化评分的更全面评估方法。

数据/训练评测/基准
00:14
阿绎 AYi@AYi_AInotes
精选71
一个100行的文件,干翻了所有LLM编码prompt

一个名为CLAUDE.md的百行文件在GitHub上迅速走红,一周内获得超4.4万星。它没有依赖和配置,仅将Andrej Karpathy总结的LLM编码坏习惯浓缩为四条核心规则:先思考再编码、简约至上、手术式修改、目标驱动执行。开发者只需将其置于项目根目录,Claude Code等工具便能自动读取并遵循,从而显著提升代码质量,减少返工和token浪费。此举被视为对当前需要反复纠正AI模型的开发体验的集体反叛,以零成本方案为AI编码设定明确规范。

MCP/工具教程/实践编码
关联讨论 1X:小互 (@xiaohu)
推荐理由:一个100行文件干翻一堆Agent框架,本质是开发者受够了哄模型,不如直接定规矩。如果你也用Claude Code,花一分钟扔进去,Token浪费砍半不是夸张。
00:14
Berryxia.AI@berryxia
47
DeepMind CEO将AGI实现时间表明确设定于2030年

DeepMind CEO Demis Hassabis在AI Ascent 2026上明确将AGI实现时间定于2030年,并指出AI将极大加速药物发现、材料科学等“慢科学”领域,把研发周期从数年压缩至数天。他强调,未来1-2年是关键拐点,真正改变世界的将是AI推动科学迭代速度的指数级加速,而非AGI降临的瞬间。

DeepMind大佬观点现象/趋势
00:14
IT之家(RSS)
精选71
Claude Token 榜:迪士尼「榜一大哥」9 天 46 万次,Meta 月烧 60 万亿

迪士尼内部上线AI使用看板,追踪员工调用Claude的频率和token消耗。数据显示,一名员工在9个工作日内调用Claude约46万次,平均每1.7秒一次。与此同时,迪士尼正裁员约1000人。硅谷正流行“tokenmaxxing”文化,比拼AI token消耗量。Meta内部统计显示,其8.5万名员工在30天内消耗了60万亿token,价值约900亿美元;Uber的年度34亿美元AI预算在4个月内耗尽。报告显示,Claude用户中非程序员用途已超半数。

Anthropic数据/训练现象/趋势

推荐理由:迪士尼搞AI排行榜,Meta月烧60万亿token,这不是段子,是AI真实渗透的活证据。从律师到全职妈妈,所有人都开始用Claude打工,这股浪潮比任何财报都真实。
00:11
Nathan Lambert:Interconnects(RSS)
47
蒸馏恐慌

AI领域出现“蒸馏攻击”现象,即利用GPT-4等闭源模型的输出训练更小的开源模型。这引发了关于知识产权与创新平衡的激烈争论。支持者视其为技术民主化途径,反对者则谴责其侵犯版权并可能损害模型质量。目前,部分开源模型性能已快速逼近顶级闭源模型,迫使行业重新审视数据使用边界与合规框架。

大佬观点数据/训练现象/趋势