Codex自动压缩:智能会话历史管理的核心技术

摘要: 项目简介 自动压缩是Codex处理长对话的一项核心看家们并。相当于Claude,Codex在这块可以说做到了行业领先,在有限的上下文窗口内,非常可靠的维持对话的连续性和有效性。这个功能会在后台静默工作,当系统检测到历史对话的长度即将达到设定阈值时,便会自动激活。 整个过程可以理解为一次针对对话历史的...

项目简介

自动压缩是Codex处理长对话的一项核心看家们并。相当于Claude,Codex在这块可以说做到了行业领先,在有限的上下文窗口内,非常可靠的维持对话的连续性和有效性。这个功能会在后台静默工作,当系统检测到历史对话的长度即将达到设定阈值时,便会自动激活。

整个过程可以理解为一次针对对话历史的清理。系统不会压缩文件体积,而是用一段全新的、更简短精炼的“替代历史记录”,替换掉原有的冗长对话记录。之后,模型所看到和基于工作的,就是这段被优化后的历史。这项手术的触发点通常设定在上下文容量占用达到90%左右,确保在内存耗尽前完成优化。

为了实现平滑的压缩,自动压缩提供了两套并行的方案。如果AI服务提供商支持,Codex会调用一个专用的远程接口,由服务端直接返回结构化的压缩后对话。如果不行,Codex则会利用模型自身能力,在本地生成一份对话摘要。无论走哪条路,最终都会用新的历史覆盖旧历史,并重新计算资源占用,让对话可以毫无知觉地继续下去。

食用指南

访问地址

传送门:https://auto-compact-explainer.pages.dev/


官网

      都直到Codex的压缩技术业内领先,但是这个压缩机制到是什么,在自己的Agent里面是否可以用上,这个网站给了我们答案。

操作与体验


调用链路拆解

      调用链路拆解,可以点击每个调用链路查看到具体的执行情况,对于理解整个压缩机制非常有帮助。


数据结构

      拆解了压缩前和压缩后的上下文差异,可以非常清晰的看出来压缩前后的变化,如果自己要做个上下文压缩的Agent可以参考这套机制。


两端执行差异

      两种压缩模式,一种是本地压缩模式,这种是最适合复刻的。还有一种是远端执行,这个远端执行有一些内容是不太透明就无法参考了。


主要细节


误区


源码索引

      这边还提供完整的源码索引的位置,方便去查看和分析压缩以及上下文管理的逻辑,对理解学习上下文管理很有帮助。

写在最后

自动压缩功能的核心价值,在于让“忘记”这件事变得可控。它没有试图无限扩大模型的记忆力,而是承认了技术边界的存在,并在边界内找到了最优雅的解决方案。通过智能摘要替代粗暴删除,Codex保证了长对话的“逻辑完整性”,而不是“字面完整性”。

这个项目为我们拆解“优雅方案”提供了绝佳的蓝图。网站上展示的调用链路、数据结构对比和两种实现路径,清晰地勾勒出一个工业级上下文管理模块的轮廓。对于想在自己应用中集成类似能力的开发者而言,这是一份难得的、可运行的“设计图纸”,尤其本地路径的实现逻辑,具有很高的参考和复用价值。

转自:https://mp.weixin.qq.com/s/1ohssG0Fhpo-CXcu-UM9-A