6月14日
00:00
EleutherAI:Blog
无需神谕概念标签的自由形式最小二乘概念擦除

该方法提出自由形式最小二乘概念擦除技术,在推理阶段无需依赖神谕概念标签即可实现比 LEACE 更精细的模型编辑。通过自由形式优化框架,技术突破传统方法对标注数据的依赖,在保持模型原有能力的同时,精准定位和移除目标概念表征,显著提升概念编辑的灵活性与精确度,为无监督概念操控提供高效解决方案。

安全/对齐论文/研究
00:00
Runway:Changelog(网页)
语音验证

推出声纹身份验证功能,用户通过朗读随机数字或自然语音即可完成实名认证。系统采用端到端加密传输与抗录音攻击算法,误识率控制在 0.5% 以下。支持 16 种语言及方言识别,已集成至客服热线与金融 App,开发者可通过 API 在 10 分钟内完成接入。

产品更新语音
6月6日
11:59
Qwen:Research(API)
使用 Qwen-Agent 将 LLM 上下文从 8k 扩展到 1M

基于 Qwen2(8k 上下文)构建的 Qwen-Agent 可理解 1M token 长文档,性能超越 RAG 及原生长上下文模型。该 Agent 同时用于生成训练数据,以训练新的长上下文 Qwen 模型。

智能体检索增强数据/训练论文/研究
5月26日
00:00
xAI:News(网页)
精选
Grok-1.5 Vision 预览版

xAI 发布 Grok-1.5 Vision 预览版,新增视觉理解能力,可处理图像、图表及文档内容,支持跨模态推理与视觉问答,现面向早期测试者开放试用。

xAI多模态模型发布

推荐理由:xAI发布Grok-1.5 Vision预览版,具备多模态视觉理解能力
5月23日
01:00
EleutherAI:Blog
VINC-S:具备释义不变性的闭式可选监督知识提取方法

研究者正在整理2023年春季项目成果,核心成果为VINC-S方法。该技术实现了闭式解的可选监督知识提取,关键创新在于引入释义不变性机制,确保模型在面对语义等价的不同表述时保持稳定的知识抽取能力。方法支持灵活监督设置,采用闭式数学推导,但具体的实验数据、性能指标及架构细节尚未在现有文本中披露。

数据/训练论文/研究
5月21日
00:00
Anthropic:Transformer Circuits(可解释性研究)
精选83
Scaling Monosemanticity: 从 Claude 3 Sonnet 中提取可解释特征

研究团队成功将稀疏自编码器方法扩展至 Claude 3 Sonnet 模型,从中提取出高质量、可解释的抽象特征。这些特征具有多语言、多模态特性,并能连接同一概念的抽象与具体实例,例如识别代码中的安全漏洞以及关于漏洞的抽象讨论。研究发现的特征涵盖名人、城市、代码类型签名等多个领域,其中部分特征与AI安全高度相关,涉及代码后门、偏见、欺骗、权力寻求及危险内容等潜在风险。研究通过缩放定律指导稀疏自编码器训练,证实了该方法在大规模生产模型上的可行性,为理解大模型内部表征提供了新工具。

Anthropic推理论文/研究
关联讨论 1Anthropic:Transformer Circuits(可解释性研究)
推荐理由:揭示大模型内部可解释特征,对AI安全研究和模型调试有重要参考价值。
5月20日
00:00
LMSYS:Blog(Chatbot Arena 团队)
Chatbot Arena新增Hard Prompts高难度评测类别

Chatbot Arena推出Hard Prompts新评测类别,基于特定性、领域知识、复杂度等7项标准对100万条提示词评分,筛选得分≥6的高难度提示(约占20%)构建榜单。新榜单显示,Llama-3-8B-Instruct排名较英语总榜显著下滑,Claude-3-Opus超越Llama-3-70B-Instruct,GPT-4o等模型表现提升。平台同步实施去重机制减少高频问候干扰。

推理数据/训练评测/基准
5月14日
01:39
Sam Altman:Blog(RSS)
精选
GPT-4o

OpenAI 将 GPT-4o 向所有 ChatGPT 用户免费开放,无广告。全新语音(及视频)模式响应速度接近人类,表现力极强,被 Sam Altman 称为「用过最好的计算机界面」,像电影里的 AI。未来还将支持个性化、代操作等功能。

OpenAI多模态模型发布语音

推荐理由:Sam Altman 解读 GPT-4o 发布,强调语音交互与免费策略
5月11日
18:10
Qwen:Research(API)
精选
Qwen-MAX-0428 笔记

通义千问发布 Qwen-MAX-0428,参数量超越此前开源的 Qwen1.5 系列(0.5B-110B),成为该系列当前最大规模模型。

推理模型发布

推荐理由:阿里Qwen发布更大规模模型Qwen-MAX-0428,参数规模超越此前110B版本
5月10日
00:00
5月8日
00:00
LMSYS:Blog(Chatbot Arena 团队)
技术博客:Llama 3 表现如何?Arena 数据分析

Meta 于 4 月 18 日发布的开源模型 Llama 3-70B 在 Chatbot Arena 排行榜迅速登顶,参与超 5 万次对战。该模型在开放式写作和创意任务上表现突出,胜率达 60%,但在数学、编码等封闭式技术任务上逊于 GPT-4-Turbo 和 Claude 3 Opus。随着提示难度增加,其胜率从 50% 显著下降至 40%。分析显示,Llama 3 的输出风格更友好且具对话性,这成为其获得用户偏好的关键因素。

Meta开源生态推理评测/基准
5月2日
00:00
LMSYS:Blog(Chatbot Arena 团队)
LMSYS 与 Kaggle 联合举办人类偏好预测竞赛,奖金 10 万美元

LMSYS 与 Kaggle 联合发起一项人类偏好预测竞赛,总奖金池达 10 万美元。参赛者需构建预测模型,判断用户在大型语言模型(LLM)两两对决中更偏好哪个回答。竞赛基于 LMSYS Arena 的真实对战数据,旨在通过众包方式探索更准确的 LLM 评估方法,推动模型与人类偏好对齐。比赛面向全球开发者开放,获胜方案有望改进现有大模型排名机制。

数据/训练评测/基准
4月25日
13:33
Qwen:Research(API)
精选
Qwen1.5-110B:Qwen1.5 系列首个 100B+ 参数模型

Qwen1.5 系列发布首个 100B+ 模型 Qwen1.5-110B,基础性能对标 Meta-Llama3-70B,在 MT-Bench 和 AlpacaEval 2.0 对话评测中表现优异。

开源生态数据/训练模型发布

推荐理由:阿里Qwen开源110B参数大模型,性能对标Llama3-70B
4月22日
14:55
DeepSeek:GitHub 新仓库
精选
DeepSeek-V2:一种强大、经济且高效的混合专家语言模型

DeepSeek-AI发布第二代大模型DeepSeek-V2,采用MoE架构,总参数量236B、每次前向传播仅激活21B参数,在保持接近GPT-4性能的同时显著降低计算成本。模型支持128K长上下文,通过创新的多头潜在注意力机制提升推理效率,训练成本与API定价均远低于同类模型。

DeepSeek开源/仓库推理模型发布
关联讨论 1DeepSeek:GitHub 新仓库
推荐理由:DeepSeek 开源 V2 模型,MoE 架构实现低成本高效推理
4月19日
00:00
LMSYS:Blog(Chatbot Arena 团队)
从实时数据到高质量基准:Arena-Hard Pipeline

研究团队推出 Arena-Hard 数据流程及 Arena Hard Auto v0.1 基准测试,用于从 Chatbot Arena 实时用户数据中自动构建高质量 LLM 评估集。该基准在模型区分度上显著优于 MT Bench,与 Chatbot Arena 人类偏好排序的一致性达 89.1%,可分离性达 87.4%,单次评估成本仅需 25 美元。流程通过主题建模从 20 万条用户查询中筛选多样化、高质量提示词,并采用 GPT-4-Turbo 作为评判,解决了传统静态基准测试集泄露和区分度不足的问题。

数据/训练论文/研究评测/基准
4月15日
08:00
Anthropic:Transformer Circuits(可解释性研究)
精选76
2024年4月机制可解释性研究动态与团队招聘计划

Anthropic可解释性团队分享了2024年4月的研究进展与招聘规划。团队现有17人,预计2024至2025年将持续大规模扩张,重点招聘管理、研究科学家和工程师等职位。研究方面,团队探讨了字典学习的扩展规律,分析了计算资源分配与稀疏自编码器(SAE)训练效果的关系,并以一个具体案例展示了通过大规模超参数扫描寻找最优配置的过程。团队强调,这些成果属于初步分享,类似于实验室会议上的非正式交流。

Anthropic推理数据/训练论文/研究

推荐理由:可解释性研究揭示AI内部机制,助力构建更安全可靠的AI产品。
01:00
EleutherAI:Blog
Pile-T5:基于 The Pile 训练的 T5 模型

Pile-T5 是研究人员基于 T5 架构,在 The Pile 大规模文本数据集上训练的语言模型。该模型继承了 T5 的文本到文本转换框架,通过在大规模多样化语料上的预训练,提升了自然语言理解与生成能力。Pile-T5 的发布为相关研究提供了基于 The Pile 数据训练的 T5 变体,适用于各类下游自然语言处理任务。

开源生态数据/训练模型发布
4月2日
13:33
3月28日
11:31
Qwen:Research(API)
精选
Qwen1.5-MoE:以1/3激活参数匹敌7B模型性能

Qwen1.5-MoE-A2.7B 发布,仅2.7B激活参数(约为7B模型的1/3)即可匹敌 Mistral 7B 和 Qwen1.5-7B 的性能。

模型发布部署/工程

推荐理由:阿里Qwen发布MoE架构小模型,2.7B激活参数匹敌7B性能,大幅降低推理成本
08:00
xAI:News(网页)
Grok-1.5 正式发布

xAI 发布 Grok-1.5 大模型,推理与编程能力显著提升,支持 128K 上下文窗口,数学与代码基准测试成绩大幅改进,已向 X 平台 Premium+ 用户开放。

xAI模型发布
3月25日
17:00
EleutherAI:Blog
Yi-34B、Llama 2 与 LLM 训练常见实践:对《纽约时报》的事实核查

文章针对《纽约时报》关于 Yi-34B 与 Llama 2 关系的报道进行事实核查,澄清 Yi-34B 在架构设计、训练数据及分词器实现上与 Llama 2 的实际差异,同时系统梳理了当前大语言模型训练领域的行业常见实践,强调在遵循开源协议前提下基于现有架构进行技术迭代是 AI 社区的标准做法。

Meta开源生态数据/训练论文/研究
3月22日
00:00
Runway:Changelog(网页)
多人脸唇形同步

支持对视频中的多张人脸同时进行音频驱动的唇形同步,突破传统单人脸技术限制,适用于多人对话场景的内容生成与后期制作。

产品更新视频
3月21日
00:00
Runway:News(网页)
Runway 与 Musixmatch 合作提升全球音乐体验

Runway 与 Musixmatch 达成合作,后者超100万艺术家社区将可使用 Gen-2 等模型制作动态歌词视频。结合 Musixmatch 歌词语义提取与 Runway 视频生成能力,让音乐视频创作更快、更独特且易于获取,帮助艺术家与全球听众建立更深连接。

多模态行业动态视频
3月20日
00:00
Runway:News(网页)
与 Media.Monks 达成合作,拓展创意边界

Runway 与 Media.Monks 达成合作,为这家 2023 年度 Adweek AI 代理商提供生成式 AI 技术支持,帮助其优化内容创作流程、扩大创意产出规模并节省制作时间。Media.Monks 为 S4Capital 旗下数字营销品牌,此次合作旨在通过 AI 技术重新定义创意表达边界。

行业动态视频
3月17日
08:00
xAI:News(网页)
Grok-1 开源发布

xAI 宣布开源 Grok-1 模型权重,采用 Apache 2.0 协议。该模型拥有 3140 亿参数,基于 MoE 架构,是迄今参数量最大的开源大模型之一。权重已上传至 GitHub 和 Hugging Face,可自由下载用于本地部署与商用。

xAI开源/仓库
3月15日
08:00
Anthropic:Transformer Circuits(可解释性研究)
58
2024年3月电路研究进展

Anthropic可解释性团队提出利用稀疏自编码器(SAE)学习到的特征来快速识别语言模型内部电路,替代传统依赖大量行为数据集的繁琐方法。研究以“Fact: [运动员姓名] plays the sport of”为例,通过归因分析在第9层残差流中自动识别出与篮球、棒球、网球相关的关键特征。这些特征本身构成了针对特定运动的探测机制,并能揭示注意力头等组件对特征的直接影响。该方法为理解模型组件功能提供了更通用、高效的途径。

Anthropic推理论文/研究
3月7日
16:32
DeepSeek:GitHub 新仓库
精选
DeepSeek-VL:面向真实世界的视觉语言理解

DeepSeek 发布视觉语言模型 DeepSeek-VL,专注于真实场景下的多模态理解任务。该模型致力于缩小实验室环境与实际应用之间的性能差距,提升在复杂真实世界场景中的视觉问答、图像描述等能力。通过针对实际数据分布优化架构设计与训练策略,DeepSeek-VL 在保持高效推理的同时增强了鲁棒性,为开源社区提供了面向实用场景的高性能视觉语言基础模型选择。

DeepSeek多模态开源/仓库
关联讨论 1DeepSeek:GitHub 新仓库
推荐理由:DeepSeek 开源 VL 模型支持真实场景图文理解,开发者可本地部署测试
3月1日
00:00
LMSYS:Blog(Chatbot Arena 团队)
LMSYS Chatbot Arena:实时社区驱动的大模型评估平台

LMSYS Chatbot Arena是由LMSYS和UC Berkeley SkyLab于2023年5月推出的开源评估平台,基于FastChat框架构建。平台通过实时两两对比已收集超80万张社区投票,评估了GPT-4、Gemini、Llama、Mistral等90余个模型。坚持透明原则,仅收录API或开源权重可访问的公开模型,同时支持未发布模型匿名测试。团队定期开放20%投票数据(含提示词、回答及用户偏好),致力于通过社区驱动的实时评估推进大语言模型研究。

开源生态数据/训练评测/基准
2月29日
17:00
EleutherAI:Blog
Foundation Model 开发速查表

发布全新资源 FM Dev Cheatsheet,这是一份面向 Foundation Model 开发的实用速查表。该资源旨在为开发者提供基础模型开发全流程的关键参考信息,涵盖架构设计、训练优化及部署等环节的核心要点,帮助快速查阅技术规范与最佳实践,提升开发效率与项目质量。

开源生态教程/实践数据/训练
2月15日
08:00
Anthropic:Transformer Circuits(可解释性研究)
58
Circuits 更新 - 2024年2月

Anthropic可解释性团队分享了多项研究进展。针对稀疏自编码器训练中普遍存在的“死亡特征”问题,团队发现其根源在于L1正则化过早抑制了特征,并确认这些特征将编码器权重集中在了整个数据集中弱激活的少数Transformer神经元上。团队提出多项架构改进:将Adam优化器的beta1设为0可大幅减少死亡特征;将解码器范数约束为≤1并允许后期剪枝;移除基于合成数据设置的预编码器偏置。此外,团队修正了“幽灵梯度”实现中的一个错误,并指出该技术目前主要对单层模型有明显提升,在更大模型上的效果尚不明确。

Anthropic推理数据/训练论文/研究
2月5日
00:00
LMSYS:Blog(Chatbot Arena 团队)
基于压缩有限状态机实现本地LLM快速JSON解码

SGLang团队提出Jump-Forward Decoding算法,通过压缩有限状态机中的单一路径,将多token预填充合并为单步执行,突破传统方法逐token解码的限制。该技术兼容任意正则表达式与JSON/YAML schema,相比guidance+llama.cpp和outlines+vLLM等现有方案,延迟降低2倍,吞吐量提升2.5倍,使约束解码速度超越普通解码。

开源/仓库部署/工程
2月4日
13:33
Qwen:Research(API)
Qwen1.5 开源发布

Qwen1.5 系列模型开源,涵盖 0.5B 至 110B 共八个参数规模的 base 与 chat 版本,并包含 MoE 架构模型。

开源生态模型发布端侧
1月25日
13:33
Qwen:Research(API)
Qwen-VL 发布

基于 Qwen 大模型能力,阿里云于2023年9月开源多模态模型 Qwen-VL,采用统一多模态预训练解决泛化局限。近期该系列升级,推出 Qwen-VL-Plus 与 Qwen-VL-Max 两个增强版本。

多模态开源生态模型发布
1月23日
22:13
Qwen:Research(API)
Qwen 系列介绍

距离 Qwen-7B 首次发布四个月,官方发布 Qwen 系列整体介绍,回顾开源大语言模型发展历程并阐述项目目标。

其他开源生态
1月17日
00:00
LMSYS:Blog(Chatbot Arena 团队)
利用 RadixAttention 与 SGLang 实现快速且灵活的 LLM 推理

研究团队发布 SGLang 结构化生成语言及后端技术 RadixAttention,通过基数树数据结构自动管理并重用 KV 缓存,显著减少多轮生成调用中的冗余计算。在 NVIDIA A10G GPU 上运行 Llama-7B 和 Mixtral-8x7B 模型的测试显示,该系统吞吐量较 Guidance 和 vLLM 等现有系统提升最高达 5 倍。前端提供嵌入 Python 的领域特定语言,支持解释器与编译器双模式执行,有效提升复杂 LLM 程序的编程与执行效率。

开源/仓库部署/工程
1月15日
08:00
Anthropic:Transformer Circuits(可解释性研究)
68
2024年1月可解释性研究进展与团队计划

Anthropic可解释性团队分享了2024年1月的多项初步研究想法。团队未来数月将聚焦三个方向:扩展字典学习方法、利用其分析真实模型中的注意力叠加现象,以及在此基础上解析电路机制。报告提及在注意力叠加几何结构上的新发现,例如在仅用两个注意力头表征五个“真实注意力特征”的玩具模型中,混合矩阵呈现出显著的几何结构。此外,团队也探讨了字典学习能否从MNIST模型中提取稀疏特征。这些内容多为初步成果,旨在促进领域内研究者交流。

Anthropic数据/训练论文/研究
1月11日
10:43
DeepSeek:GitHub 新仓库
精选
deepseek-ai/awesome-deepseek-integration:DeepSeek API 集成精选列表

该项目汇总了 DeepSeek 大模型与各类主流软件的集成方案,涵盖编辑器、IDE、聊天客户端及浏览器插件等工具。收录资源包括 VS Code 扩展、Obsidian 插件、ChatGPT-Next-Web 等客户端配置教程,支持开发者快速将 DeepSeek API 接入日常工作流,实现代码补全、文本生成与智能对话等功能。列表持续更新社区贡献的第三方集成案例与配置模板,降低 API 接入门槛。

DeepSeek开源/仓库开源生态

推荐理由:DeepSeek 官方整理 API 接入方案,覆盖主流开发框架与工具
1月2日
11:32
DeepSeek:GitHub 新仓库
精选
DeepSeekMoE:迈向混合专家语言模型的极致专家专业化

DeepSeek 发布 DeepSeekMoE 架构,致力于在混合专家语言模型中实现极致的专家特化。该方案通过优化专家分工与路由机制,提升稀疏激活模型的参数利用效率,在控制计算成本的同时扩展模型容量,为大语言模型的高效训练与部署提供了新的技术路径。

DeepSeek开源/仓库数据/训练

推荐理由:DeepSeek 开源 MoE 架构完整实现,可复现专家 specialization 训练流程
12月27日
00:00
Andrej Karpathy:Blog(网页)
精选
Licklider 1960《人机共生》评述

Licklider 1960年论文《人机共生》提出"智能增强"(IA)是通向AI的过渡阶段,预测人机能力互补——计算机处理机械工作、人类负责思考,这一范式延续64年直至LLM打破界限。他预见云计算雏形,但误判技术路径:当时看好的逻辑推理AI成死胡同,而因缺乏数据被忽视的统计方法(LLM)终成主流。对交互预测也偏离现实:设想的多人协作大屏未普及,键盘鼠标仍是主导;对语音识别"5年实现"的乐观估计,实际耗时64年未成熟。

智能体大佬观点编码

推荐理由:Karpathy 借 1960 年文献反思人机共生与 AI 发展路径,历史洞察深刻
12月22日
06:44
Sam Altman:Blog(RSS)
精选
真希望有人早告诉我这些

Sam Altman 分享17条创业与管理建议:以乐观、信念和人际网络启动项目,用凝聚团队和长期主义推动落地;集中资源押注高信念项目,设计好激励机制,保持快速迭代;警惕官僚作风,重视人才招聘与复利效应,与优秀的人共事。

OpenAI大佬观点

推荐理由:OpenAI CEO Sam Altman 的创业管理核心原则