X·KOLX:歸藏 (@op7418)
Moxt的核心是为AI构建了一个原生工作空间,通过将Word、PDF等文档自动转换为Markdown等AI原生格式,并利用文件系统作为结构化“图书馆”,解决了信息“散”与“脏”的痛点。用户拥有由AGENTS.md定义的个人AI助手,并能创建高度个性化的“AI同事”。它强调信息质量,内置“熵减官”角色清理过时内容。AI不仅能组合Skills完成复杂任务流,还支持定时任务与Webhook实现自动化。其输出超越文字,可生成可交互的数据看板与完整PPT,使AI成为组织内的高效协作者。
X·KOLX:Greg Brockman (@gdb)
一个很棒的Codex教程: 这些是7种知识工作能力... 在超级应用Codex内部 00:00 介绍 02:19 能力1 - 完整文件访问 07:41 能力2 - 持久记忆 10:46 能力3 - 插件 13:52 能力4 - 技能 19:22 能力5 - GPT图像访问 21:03 能力6 - 浏览器与计算机使用 23:58 能力7 - 自动化 25:31 额外功能 - 编年史 27:21 总结
X·KOLX:洪明 (@hongming731)
针对AI初创公司是否必须被大模型实验室收购的讨论,Cognition公司的经验表明,同行被收购反而会强化剩余独立公司的地位。独立公司在软件工程等动态领域拥有明确市场,客户重视模型灵活性。其成功关键在于三大法则:一是建立清晰差异化,如专注企业市场、加速全开发周期、解决复杂部署难题并保持模型独立;二是极致专注,在特定领域深挖边缘复杂性问题,做到实验室无法比拟;三是保持速度优势,利用小团队决策快、工具链高效和工程文化,通过快速迭代建立竞争壁垒。
X·KOLX:Rohan Paul (@rohanpaul_ai)
《哈佛商业评论》文章指出,AI的首要经济影响并非自动化,而是制造了巨大的不确定性“迷雾”,导致“预见能力的崩溃”。这动摇了现代资本主义依赖未来“可读性”的根基,使得个人对教育投资、企业对长期雇佣与资本开支、金融市场对终值的评估均陷入犹豫。其结果是行为模式迅速转向短期视野:更倾向于模块化、可调整的投入,而非长期、不可逆的重大承诺。
官方·XX:通义千问 / Qwen (@Alibaba_Qwen)
FlashQLA是基于TileLang开发的高性能线性注意力内核,专为提升个人设备上智能体AI性能而设计。它实现了2-3倍的前向传播加速和2倍的反向传播加速。其核心技术包括门控驱动的片上自动计算与通信重叠、硬件友好的代数重构,以及TileLang融合的Warp专用内核。该设计通过自动片上通信重叠显著提升了流处理器利用率,在张量并行、小模型和长上下文任务中效果突出。尽管在大批量处理时,其将GDN流程拆分为两个内核的策略会带来额外内存开销,但在边缘设备和长上下文实际场景中性能更优。反向传播部分通过构建16级、严格片上内存限制下的Warp专用流水线,实现了超过2倍的内核级加速。
官方Claude:Blog(网页)
Claude Code 团队分享了大规模优化提示缓存的核心策略。提示缓存基于前缀匹配工作,能显著降低延迟与成本,高命中率还能支持更宽松的订阅速率限制。关键实践包括:将静态系统提示和工具定义置于提示词前端以最大化共享前缀;通过消息而非修改提示词来传递更新信息,避免缓存失效;在会话中不切换模型、不增删工具,以维持缓存前缀稳定。此外,针对工具过多或“计划模式”等场景,可通过发送轻量存根或设计专用工具来规避缓存失效,从而在复杂功能中持续利用缓存优势。
官方·XX:OpenAI Developers (@OpenAIDevs)
你完全可以构建网络应用
官方Hugging Face:Blog(RSS)
AI评估成本已突破关键阈值,正重塑其可及性。Holistic Agent Leaderboard花费约4万美元运行了2万多次智能体推演,单次前沿模型测试成本可达2829美元。研究显示,相同任务成本差异可达33倍,脚手架选择是核心成本驱动因素。虽然静态基准可通过压缩技术实现百倍成本缩减,但智能体评估因轨迹长、噪声大而压缩有限。高支出未必带来更好结果:例如在GAIA测试中,2828美元方案准确率28.5%,而1686美元方案反达57.6%。当评估包含模型训练时,成本将完全超越常规API框架。