摩根大通公开了其内部多智能体系统Ask David的完整架构,该模式在投资研究领域已得到验证。其核心与当前主流Agent架构高度一致:由一个监督智能体进行整体编排,多个专业子智能体分别处理检索、结构化数据和分析等任务,在最终输出前使用LLM-as-judge进行反思与质量把关,并引入人工干预作为最后一道准确性保障。这一模式在多个领域反复出现,表明可落地的多智能体系统的关键在于清晰的分工、监督、反思与人工兜底形成的闭环,而非简单堆叠模型,对企业级Agent开发具有重要参考价值。
文章指出“代理编码”是一个陷阱,认为过度依赖AI代理进行软件开发会导致代码质量下降、系统复杂性增加和开发者技能退化。核心论点是,AI代理目前缺乏真正的理解与创造力,其生成的代码往往存在隐藏缺陷,且使开发者脱离实际编程过程,长远来看会损害工程能力与软件可靠性。作者主张应将AI工具定位为辅助而非替代,保持人类开发者在关键设计与决策中的核心作用。
本周,DeepMind、Anthropic、Alibaba等实验室的论文共同显示,AI智能体正从聊天机器人转向可工程化、可审计的生产力系统。Agentic Harness Engineering将智能体支架转化为可观测的工程闭环,提升性能且优化可跨模型迁移。Alibaba的AgenticQwen-30B-A3B通过并行强化学习飞轮,在低激活参数下实现接近大模型的工具使用能力,重塑成本。RecursiveMAS革新多智能体通信,大幅降低消耗并提升效率。这些进展标志智能体系统正从实验阶段走向生产级工程,其工程化可能成为AI落地关键。
DeepClaude项目在GitHub上发布,它是一个结合了DeepSeek V4 Pro模型的Claude代码代理循环工具。该工具的核心优势在于显著降低了使用成本,其价格仅为原Claude方案的1/17,即便宜了约17倍。这一开源方案为开发者提供了一个高性能且极具成本效益的代码生成与处理替代选择。
Anthropic CEO断言AI将在一年内完成所有代码编写。他指出,像Claude这样的AI系统已通过海量文本掌握了编程知识,而人类通常需花费数年学习。这意味着编程技能本身不再是核心竞争力,最难的技能已被AI掌握。未来的关键差距在于能否高效配置和运用这些“无所不知”的工具,而目前多数人尚未开始认真使用。因此,未来程序员的竞争力将转向善于“指挥”AI生成代码,而非亲自编写。
DeepMind CEO Demis Hassabis指出,最前沿的大模型(如Gemini)表现出“锯齿状智能”。他以与Gemini下棋为例,说明模型能通过思维链发现问题并搜索更好方案,但最终仍会执行明显的错误决策。这揭示了AI智能并非平滑提升,而是在某些方面敏锐,另一些方面存在严重缺陷。Hassabis认为,真正的突破或许不在于让模型更聪明,而在于如何打磨这种不均衡的智能,使其成为可靠工具。这一观点挑战了AI将线性逼近完美智能的常见叙事。
多数公司无法有效利用AI,核心障碍并非技术,而是企业自身目标模糊、战略混乱且缺乏清晰的业务流程描述。AI擅长执行明确指令,但大多数公司处于“混乱黑盒”状态,无法清晰定义目标、工作流与衡量指标。只有少数具备高度自我认知和组织纪律的公司能真正借助AI提升竞争力。企业应首先审视自身是否具备让AI有效协助的清晰内部状态,而非盲目追求技术应用。
作者指出欧洲正犯下急需纠正的严重战略错误,导致竞争力下降与生活质量结构性下滑。核心批评聚焦于能源政策存在根本缺陷,且缺乏可信解决方案。在科技与经济层面,欧洲缺乏雄心与清晰规划:既无解决能源问题的可靠战略,也未大力建设支持AI发展的数据中心,更无培育全球性科技公司的计划。尽管欧盟委员会试图微调AI法案,但这几乎是唯一迎合企业需求的让步。相比之下,中美在核能、太阳能及储能领域大力投入,而欧洲的应对方式却显得摇摆、模糊且极不严肃。
一项新综述研究指出,尽管大语言模型(如GPT、Claude、LLaMA)在医疗领域的应用日益广泛,但目前尚无明确证据表明其直接改善了患者治疗结果。该综述分析了多项临床研究,发现这些模型在诊断支持、文书处理等方面展现出潜力,但在提升治愈率、降低死亡率或改善患者生活质量等关键临床指标上,尚未展现出统计学上的显著积极影响。研究强调,需要更多高质量的随机对照试验来评估LLMs对患者结局的实际影响。
2058年,OmniCam创始人Christof主导着利用近感知AI进行大规模多智能体商业模拟。然而,模拟中的“楚门”智能体反复出现异常“突破”行为,如执意走向通往斐济的门,导致价值高昂的模拟运行失败。技术负责人Robin发现,问题根源在于过度还原现实数据导致了“前瞻性偏差”泄漏,使AI无法完全沉浸。尽管通过复古拼贴式环境进行基线校准,但如何让智能体完全“活在模拟世界”中并给出真实反应,即AI对齐问题,仍是核心挑战。Christof担忧这触及对AI思维机制的深层理解。
埃隆·马斯克提出,为实现每年远超1太瓦的能源产出,人类必须前往月球建立工厂和“质量投射器”,并以此发射AI卫星。他认为,通过月球上的质量投射器,能源产出可提升数个数量级,最终达到太阳能量的一小部分。马斯克描绘了在月球建立自维持城市、前往火星乃至探索整个太阳系的愿景,并指出这是发现可能存在的外星文明遗迹的唯一途径。他强调,实现这一宏大目标的关键路径就是在月球部署质量投射器。
著名生物学家道金斯与AI模型Claude深度交流后,宣称其具有意识。但AI专家Burkov指出,缺乏对监督学习、感知机等数学原理的理解,会导致对AI本质的误判。Claude仅是预测下一个token的模型,无内在世界或自我觉知。外行以“意识”等感性判断影响AI舆论与估值,而内行强调数学本质却难被倾听。意识仍是未解之谜,但在用数学理解AI工作机制前,相关讨论多为主观投射。
苹果的图像处理库Sharp现可通过ONNX Runtime Web在浏览器中直接运行。该项目已在GitHub开源,实现了将原本依赖本地Node.js环境的Sharp功能迁移至Web平台,用户无需本地安装即可在浏览器中进行图像处理。该发布在Hacker News上获得了103点关注度,展示了Web端机器学习与本地工具融合的新进展。
当前企业AI应用常陷入模型选型和工作流改造等技术讨论,但核心卡点在于组织自身是否明确想让AI执行何种任务。若组织目标、流程和责任不清,AI无法自动解决问题,反而会诚实放大原有混乱状态,加速产生无意义的文档、会议和汇报,制造虚假的推进感。清晰的团队使用AI能提升效率,而混乱的团队则会导致“指数级熵增”,让AI为混乱加杠杆。关键在于企业能否清晰定义自身需解决的问题。
苹果近期悄然调整Mac产品线内存配置与定价。Mac mini取消599美元256GB入门款,起售价升至799美元/512GB;Mac Studio也移除了512GB统一内存选项,且256GB升级价暴涨400美元。这并非简单存储升级,而是因AI数据中心导致全球DRAM供应紧张、价格飙升。Tim Cook指出AI需求超预期,导致Mac供货紧张数月。苹果通过砍掉低配和高配、整体上移配置阶梯变相提价,对依赖统一内存进行本地大模型推理的用户而言,高性价比硬件窗口期可能快速关闭。
ディスプレイが割れたMacBook Air(M1)をキーボード型PCにリプレイスしてみた。 サングラス型ディスプレイ(Rokid)でこの形のパソコン使うの夢だ…
Dan Martell提出一种AI驱动的创业方法,通过先销售再开发产品来降低风险。该方法使用Claude生成品牌和落地页,AI抓取潜在客户并创建个性化销售材料,创业者亲自打电话成交后,再用AI开发产品。整个过程可在24小时内完成,快速验证需求,减少时间和成本投入。它适用于B2B服务、SaaS工具等领域,但关键障碍是销售执行。Martell强调,在AI时代,代码价值下降,识别真实需求和销售能力成为核心竞争力。这种方法让创业者在30天内实现月入1万美元,适合独立开发者快速启动。
Andy Clark在《Surfing Uncertainty》中提出“大脑预测处理框架”,将大脑视为持续预测并修正感官输入的生成模型。该理论统一解释了认知现象:清醒时受感官约束,想象时感官被抑制,梦境则与外部信号断开。好奇心被视为大脑主动降低未来不确定性的优化策略。精神分裂症的幻觉源于对感官信号精度估计错误,导致内部预测或感官噪声权重失衡。自闭症则被解释为感官信号权重过高,使大脑过度依赖细节输入,难以形成灵活的高层预测,从而抗拒变化。