并行KV Cache压缩支持的128K长度外推:【方法】Paralle;lComp

2025-07-29 04:31:44      来源:南方周末

作者熊璟,香港大学一年级博士生,师从黄毅教授和孔令鹏教授。已在ICLR、ICML、NeurIPS、ACL、EMNLP、TMLR等顶级会议/期刊发表论文,研究方向为高效大语言模型推理与自动定理证明。担任NAACL、EMNLP、ACL、ICML、ICLR、NeurIPS、COLING等会议审稿人。个人主页:https://menik1126.github.io/

引言:大模型长文本推理的瓶颈与突破

随着大语言模型(LLMs)能力日益提升,AI对超长文本的理解和处理需求也变得前所未有地重要。然而,目前主流LLM虽然依赖旋转位置编码(RoPE)等机制,在训练阶段能高效处理4K-8Ktokens级别的上下文,但一旦推理阶段外推遇到如128K以上长度的长文本时,模型往往受到显存瓶颈的限制和注意力下沉(attentionsink)等问题影响,采用常规的文本截断方案容易出现信息遗失,这极大限制了大模型在实际场景中的应用拓展。

业界目前尝试的处理长文本的高效推理主要的瓶颈有两个,一个是位置编码的长度外推,再一个是长度外推中的内存瓶颈。

目前的位置编码包括两类:一是基于频率区分的NTK插值方法,为不同频段位置编码设计专属策略以试图拓展长度上限;二是各种分块(chunking)方法,将文本切分、块内复用位置编码,避免重新训练的高昂成本。在处理超长上下文(>128K)外推时,两种方案的优劣仍是未知的。

在解决显存瓶颈时,普遍采用了KVcache压缩的方案,并且一些方案发现在传统自回归场景下的注意力普遍遭遇了“注意力下沉”(AttentionSink)现象影响——模型的注意力极易集中在文本首尾,如果加以合理利用可以提升模型性能,但在并行注意力下的注意力下沉的机制是仍待探索的。

图1:标准Attention和并行Attention机制下的注意力分布虽然有所不同,但都容易陷入这种“塌缩”状态。而并行注意力机制在极长文本中产生的多峰新型“sink”现象,尚缺乏系统剖析与有效解决之道。

我们的创新:ParallelComp,高效超长文本推理新范式

针对上述问题,我们提出了一种全新的训练免调(Training-Free)长文本处理方案——ParallelComp,其核心包括并行Attention分块、KV缓存智能淘汰与注意力偏差校准三大技术创新。

论文标题:ParallelComp:ParallelLong-ContextCompressorforLengthExtrapolation

论文链接:https://arxiv.org/abs/2502.14317

代码链接:https://github.com/menik1126/ParallelComp

图2:ParallelComp整体流程示意图

1.并行分块注意力,让超长文本“轻松分段消化”

首先,ParallelComp借鉴并拓展了分块思想,将输入长文本按模型最大处理长度自动切分为若干块(chunk),并与查询一起并行输入模型进行本地Attention计算。这样不仅可以获得块内的注意力分布,还可以通过块的位置编码重用机制可以让模型灵活外推至128K级别的序列长度而性能无明显损失。(见图2)

2.双重淘汰机制,极致压缩显存消耗

分块淘汰(ChunkEviction):基于每个块内部token对查询的“自信息量”进行在线打分,仅保留信息量最高、对当前任务最相关的一部分文本块,极大缩减内存开销。

KV缓存淘汰(ParallelKVCacheEviction):采用高效的FlashAttention推断算法,动态评估每个token在Attention计算中的全局重要性,自动驱逐影响较小的token,实现了分块粒度的KV缓存智能压缩。

通过这两项机制,全流程推理所需显存可以压缩到64G,且基于并行预填充过程即可完成高达128K长度推理任务,显著提升Batchinference和多GPU设置下的推理效率。

图3:三类典型注意力偏置分布案例(U型、山峰型、均匀型)

图4:几种KVcache驱逐策略后的模型的分布

3.注意力偏差校准,攻克并行下的多峰“sink”现象

通过理论分析与大量可视化实证,我们发现并行分块机制下,不同于经典的U型AttentionSink,容易出现多峰、区域性异常(见图3、图4)。为此,我们提出在Attention分布中对异常高分token实施“偏差校准”——分层驱逐被极端关注的token,使Attention分布趋于平滑,极大降低了模型关注“死角”和信息遗漏风险。

进一步的分层实验揭示,不同类型注意力偏差(“首段偏置”“尾段偏置”“中部塌缩”)可分别通过不同深度层的token淘汰策略加以缓解,为长文本推理设计提供了细致化的实操指引。

一个有趣的观察是有些特定层的注意力偏差对模型的上下文学习能力和推理能力至关重要。

i)浅层(第1-8层)的首段偏置对于检索类任务至关重要。去除这些token会显著削弱模型性能。

ii)深层(第9-16层)的尾段偏置在模型推理能力中起到关键作用。淘汰这些token会导致编码和数学任务的性能下降。

iii)浅层的中部偏置(第1-8层)会损害模型的理解能力,淘汰这些token反而能够提升模型表现。而深层的中部偏置(第24-31层)有助于模型在阅读理解任务(如En.MC)中的能力,去除它们会降低模型表现。

iv)早期层(第1-8层)的尾段偏置对于模型的上下文学习能力同样非常重要。

理论与实验分析

我们的理论分析表明,并行Attention下“稀疏性”与“有效信息量”之间存在量化可控的门槛。随着chunk数量增多和长度变长,Attention大概率只会专注于极少数token。合理选择稀疏参数、分层校准策略,可在计算效率与信息保真度之间取得最优平衡。

表2:在longbench上的性能。

表3:在infinitebench上的性能。

表4:PPL的性能

表5:加速比和性能分析

大规模实验显示,ParallelComp在A100-80GB单卡环境中,模型推理长度从8K无缝外推至128K,prefilling阶段加速高达23.5倍;使用仅8B参数、且仅在8K上下文训练的小模型即可在超长文本任务中整体性能达到GPT-4o性能的91.17%,在特定任务下可以超过GPT-4o的性能,甚至超过Claude-2和Kimi-Chat等高参数闭源大模型。这一成果充分证明,我们的方法不仅适用于算力受限场景,更为LLM实际落地部署带来了崭新范式。

结论与展望

ParallelComp为长文本推理时代的LLM结构创新带来了“多快好省”的系统级跃升——无需新训练、仅借助智能分块和淘汰机制,即可极大提升处理长度、效率,并摆脱原有的注意力失衡难题。我们期待该方法未来在法律文档、医学文献、长篇小说等需求复杂的产业应用中进一步开花结果。

  陈政高于1970年担任辽宁省海城县革委会政工组办事员;1978年任大连海运学院团委书记;1982年任辽宁省大连团市委常委、学校部部长;1985年任辽宁省大连市长海县副县长;1988年任辽宁省大连市西岗区委常委、副区长(主持工作);1993年任辽宁省大连市副市长;1997年任辽宁省省长助理;1998年任辽宁省副省长;2003年任辽宁省沈阳市委副书记、市长;2008年任辽宁省委副书记、省长。

责编:尉睿博编辑

存钱和不存钱过的是两种人生

  中国煤矿文工团成立于1947年东北解放区,是国家级艺术院团中历史最悠久的单位之一。2005年,加挂了“中国安全生产艺术团”的牌子。2018年9月,转隶到文化和旅游部。

男生被教官体罚做深蹲致换肾

  曾文莉说,“要发展网球经济和其他体育经济,我们要思考一下,是否已将体育产业充分市场化,运动员的商业价值是否已充分释放,对体育产业、体育经济的杠杆作用是否已充分发挥。”她表示,“我们应该为明星运动员的商业活动营造更好的舆论环境、政策环境和制度环境。”

伊朗给全世界打了个样

  坚持因地制宜、科学抗旱,河库灌区及时开闸放水,增加流量,采取疏通渠道、维修涵闸等措施,做到远送多浇、有水可浇;引黄灌区根据抗旱需水情况,及时开闸放水,争取多引黄河水;平原灌区发挥机电井作用,采取有效措施保障机井通电,并组织投入各类排灌机械179.4万台,努力增加抗旱播种面积。丘陵岗区利用坑、塘、堰、坝等小型水利工程组织抗旱播种。夏播以来,全省累计抗旱浇水7977.3万亩次,播种进度与常年相当。

鹅厂大剧片单

  “当年李娜一度手握13个国内外知名品牌代言,而郑钦文在奥运夺冠之前已有10个代言品牌。”纪宁认为,网球目前在中国的热度已今非昔比,李娜时代已奠定的中国网球经济的热度,在郑钦文夺冠后会被逐渐引爆。纪宁还表示,网球作为全球顶级的职业体育和商业体育项目,正逐步释放巨大的产业经济空间。

徐明浩说不喜欢跳楼机

  张先生告诉《环球时报》记者,近年来走入网球馆和网球场的人越来越多,这一现象在郑钦文夺冠后更加明显,其中尤以青少年人群为多。

张若昀发文回应庆余年

  随着参与网球运动的人逐渐增多,中国网球的基础设施也在不断完善。纪宁告诉《环球时报》记者:“我们在做一个项目,在北京朝阳区规划一个‘大满贯网球文化公园’,将汇集所有大满贯要素。人们既能在此观看全球顶级赛事,也能在场地上训练和比赛。”纪宁说,这仅是一个案例,但从中可以窥见中国网球运动基础设施越来越完善,也越来越专业化。作为体育产业的参与者与观察者,纪宁表示,不仅北京,全国各地网球运动设施也发展得越来越好。/p>

行止晚

  乌鲁木齐不缺国际和地区航线。2024年,乌鲁木齐机场累计运营定期客货运输航线共240条。其中,国际定期客运航线26条,与高加索地区三国与中亚五国实现全部通航,通航中亚航点数量为国内十大枢纽机场之首。/p>

美军用超架战机作诱饵打击伊朗

  中国驻英国使馆发言人强调,在乌克兰问题上,中国的立场是劝和促谈,坚定不移,一以贯之。为此,中国和巴西最近联名发表了关于推动政治解决乌克兰危机的“六点共识”,强调遵守局势降温三原则,即战场不外溢、战事不升级、各方不拱火,同时呼吁各方坚持对话谈判、加大人道主义援助、反对使用核武器、反对攻击核电站、维护全球产业链供应链稳定等。