月之暗面(Moonshot AI)推出 Attention Residuals 技术,对 Transformer 架构进行改进,使每一层能够选择性地关注此前各层的输出,而非统一求和。该技术已应用于其 48B 参数的 Kimi Linear 模型,其达到相同性能所需的算力比基线少约 20%,同时在 GPQA-Diamond 推理基准上提升 7.5 分,编程与数学能力亦有所提升。
月之暗面发布 Attention Residuals 技术
Previous: Anthropic 推出 Claude 认证架构师基础考试