Context Gateway:给 Claude Code 装了个"后台压缩引擎"
2026-03-07 | ProductHunt | GitHub | 官网
30秒快速判断
这App干嘛的:一个透明代理,坐在你的 Claude Code 和 Anthropic API 之间,在后台自动压缩上下文历史,让你不用再等 /compact 的 3 分钟空白期。
值不值得关注:值得试试,但别急着 All-in。EPFL 学术团队 + YC W26 背书,技术路线靠谱。不过产品刚上线,缺乏第三方独立 benchmark,"200x 压缩无损"的说法需要打个问号。如果你每天 Claude Code 花费超过 $6,花 1 分钟装一下不亏。
与我有关三问
与我有关吗?
目标用户是谁:每天重度使用 Claude Code / Codex / OpenClaw 的开发者,尤其是经常遇到以下情况的人——session 越写越慢、频繁触发 compaction、月账单让人肉疼。
我是吗:问自己三个问题:
- 你每天用 Claude Code 超过 2 小时吗?
- 你经常看到 "Compacting conversation..." 然后干等 3 分钟吗?
- 你的月 API 花费超过 $100 吗?
如果有两个以上回答"是",你就是目标用户。
什么场景会用到:
- 长 session 开发(2小时+)→ 后台压缩让你不用等 compaction
- 多 MCP 工具项目(10+ servers)→ 压缩工具输出,减少 token 浪费
- API 直连用户 → 直接省钱
- Claude Max 订阅用户 → 同样额度下能干更多活
对我有用吗?
| 维度 | 收益 | 代价 |
|---|---|---|
| 时间 | 省掉每次 compaction 的 3 分钟等待,session 续航更长 | 安装 1 分钟,几乎零配置 |
| 金钱 | 宣称最高 200x 压缩 → token 花费大幅下降 | 目前完全免费(launch 期间) |
| 精力 | 透明代理,不改变现有工作流 | 需要信任第三方代理你的 API 请求 |
ROI 判断:如果你是 API 直连用户,ROI 极高——装了就省钱,不改变任何习惯。如果你是 Max 订阅用户,省的是额度而不是钱,但更长的有效 session 时间本身就有价值。唯一的代价是信任问题:你的所有对话都经过他们的代理。
喜闻乐见吗?
爽点在哪:
- 即时 compaction:不用再看 "Compacting conversation..." 干等了。后台预计算,切换时无感。这是最直接的痛点解决。
- Slack 通知:session 需要你关注时推送通知,适合跑后台任务的场景。
- 支出上限:Claude Code 原生没有这个功能,Context Gateway 帮你加了一个"刹车"。
用户真实评价:
"每个使用 Claude Code 的开发者在每个 session 中都会因为 compaction 浪费好几分钟。你只能坐在那干等上下文重建,心流全断了。" — @KamelCharaf(联合创始人,描述痛点)
怀疑派也有声音:"你不需要这玩意,如果你觉得自己需要,那你该去参加 Anthropic 的培训。如果 Claude Code 的开发者自己都不用,你也不需要。"
说白了,这就是一个"你不知道你需要,但用了回不去"的工具——前提是压缩质量真的能保住。
给独立开发者
技术栈
- 架构:透明代理(Proxy),坐在 agent 和 LLM API 之间
- 安装方式:
curl -fsSL https://compresr.ai/api/download_cli | sh,然后用 TUI 交互式向导选择 agent - 兼容 agent:Claude Code, OpenClaw, Codex, Cursor 等
- 压缩核心:Compresr 自研压缩模型(不开源),对话历史 + 工具输出 + 工具列表都能压
- SDK:Compresr SDK 可集成到任意 LLM 流水线
核心功能实现
Context Gateway 的工作原理不复杂:它拦截 agent 发给 LLM API 的请求,在后台持续对对话历史做增量压缩。当上下文接近窗口上限时,它用预先压缩好的版本替换原始历史,agent 端完全无感。
和 Claude Code 内置的 /compact 不同,/compact 是"停下来-总结-重启",而 Context Gateway 是"边跑边压"。这是架构上的本质区别。
开源情况
- 开源吗:部分开源。代理框架在 GitHub 上开源(Compresr-ai/Context-Gateway),但核心压缩模型不开源,launch 期间免费使用。
- 类似开源项目:
- Context Mode(MCP server 方式,98% 压缩,完全开源 MIT)
- Context Engine(MCP 压缩套件)
- IBM ContextForge(企业级 MCP 网关)
- 自己做难度:中等。如果只是做简单的摘要压缩,用 LLM 自身的总结能力就行。但要做到"200x 无损压缩",需要训练专用压缩模型,这是 Compresr 的核心壁垒,预计 3-6 人月。
商业模式
- 变现方式:目前免费,未来大概率走 SDK/API 付费 + 免费开源代理的路线
- 定价:Launch 期间全部免费
- 用户量:PH 158票,#3 Day Rank,刚起步
巨头风险
高风险。Anthropic 随时可以把后台 compaction 做进 Claude Code 原生功能里。事实上 Claude Code 已经有自动 compaction 了,只是体验不够好(要等 3 分钟)。如果 Anthropic 把 compaction 做成后台预计算,Context Gateway 的核心卖点就没了。
不过 Compresr 的定位不只是"更好的 compaction",而是通用的 LLM 上下文压缩基础设施。如果他们能在压缩质量和通用性上建立壁垒,就不怕被单个平台吃掉。
给产品经理
痛点分析
- 解决什么问题:AI coding agent 的上下文管理难题——session 越长,token 越多,成本越高,质量越差
- 痛点有多痛:中高频刚需。根据 Anthropic 数据,90% 用户日均花费 $12 以内,但 10% 的重度用户远超这个数。对于 API 直连用户,token 优化直接影响钱包。对于订阅用户,context window 是有限资源,压缩 = 更长有效工作时间。
用户画像
- 画像 1:全职 AI 辅助开发者,每天 4-8 小时 Claude Code,月花费 $200-$500
- 画像 2:管理 10+ MCP 服务器的架构师,工具定义吃掉大量 context window
- 画像 3:创业团队 CTO,想压缩 AI 编码开支但不想降低效率
功能拆解
| 功能 | 类型 | 说明 |
|---|---|---|
| 后台上下文压缩 | 核心 | 代替 /compact 的 3 分钟等待 |
| 工具输出压缩 | 核心 | 减少冗余 token |
| 支出上限设置 | 核心 | Claude Code 原生缺失的功能 |
| Slack 通知 | 锦上添花 | Session 需要关注时推送 |
| TUI 安装向导 | 锦上添花 | 1 分钟上手 |
竞品差异
| vs | Context Gateway | Context Mode | Claude 内置 /compact |
|---|---|---|---|
| 方式 | 透明代理 | MCP Server | 内置命令 |
| 压缩对象 | 对话+工具输出+工具列表 | 工具输出 | 对话历史 |
| 等待时间 | 0(后台预计算) | 0(沙箱即时处理) | ~3 分钟 |
| 压缩比 | 宣称 200x | 宣称 98% (约 50x) | 不明确 |
| 开源 | 部分(模型不开源) | 完全开源 MIT | 不适用 |
| 安装 | CLI 一行命令 | claude mcp add 一行 | 内置 |
| 风险 | 代理你的 API 请求 | 本地运行 | 无 |
可借鉴的点
- "透明代理"模式:不改变用户现有工作流,即装即用。这比 MCP server 需要额外配置的方式更友好。
- 后台预计算:把"暂停-压缩-重启"变成"持续压缩",思路值得学习。
- 补齐原生缺失功能:支出上限、Slack 通知这些"微功能"组合起来也是差异化。
给科技博主
创始人故事
- 团队:4 人,全部 EPFL(瑞士联邦理工学院)背景
- Ivan Zakazov(CEO):EPFL PhD,研究方向就是 LLM 上下文压缩,前 Microsoft + Philips Research
- Oussama Gabouj(CTO):EPFL DLab + AXA,专注高效 ML 系统
- Kamel Charaf(COO):EPFL 数据科学硕士,前 Bell Labs
- Berke Argin:联合创始人
- 为什么做这个:CEO 做 PhD 就研究这个方向,然后 Claude Code 火了,发现自己的研究正好能用上——经典的"技术找到了场景"。
争议点/讨论角度
- 角度 1:信任问题。你的所有代码、对话、API key 都经过第三方代理。对于企业用户,这可能是一票否决项。
- 角度 2:"200x 无损"可信吗? 没有第三方 benchmark,Factory.ai 刚发了上下文压缩评估框架,但还没覆盖到 Compresr。
- 角度 3:Anthropic 会不会自己做? Claude Code 已经有 auto-compaction,如果做成后台预计算,Context Gateway 的护城河就很浅。
- 角度 4:YC 背书的分量。W26 batch,4 个 EPFL PhD/硕士,学术底蕴够硬,但商业化路径还不清晰。
热度数据
- PH排名:#3 Day Rank,158 票
- Twitter讨论:YC 官方推文 67 likes / 9117 views,创始人个人推文互动偏低(1-10 likes)
- 搜索趋势:刚上线,讨论量还在爬坡期
内容建议
- 适合写的角度:"Claude Code 省钱三件套对比"(Context Gateway vs Context Mode vs 内置 /compact),实测数据驱动
- 蹭热点机会:Claude Code 成本优化是 2026 开发者热门话题,Anthropic 自己都在推 prompt caching 和 auto-compaction
给早期采用者
定价分析
| 层级 | 价格 | 包含功能 | 够用吗? |
|---|---|---|---|
| 免费(当前) | $0 | 全部功能 + 压缩模型免费使用 | 完全够用 |
| 未来付费 | 未公布 | 预计高级压缩/企业功能 | 待观察 |
上手指南
- 上手时间:1 分钟
- 学习曲线:极低
- 步骤:
- 安装 CLI:
curl -fsSL https://compresr.ai/api/download_cli | sh - 运行
context-gateway,用 TUI 向导选择你用的 agent(Claude Code / Codex / OpenClaw) - 正常使用,Context Gateway 在后台透明工作
- 不需要 API key(直接用你的 Claude 订阅)
- 安装 CLI:
坑和吐槽
- 代理信任问题:所有 API 请求经过 Compresr 服务器。如果你对代码隐私极度敏感,这是个大坑。
- 产品太新:刚上线 PH,缺乏社区验证。出了 bug 可能没人帮你。
- 压缩模型不开源:免费期过后定价未知,存在供应商锁定风险。
- "200x 无损"存疑:没有第三方独立测试验证,信息压缩理论上不可能完全无损。
安全和隐私
- 数据存储:代理模式,请求经过 Compresr 服务器(具体数据存储策略未明确披露)
- 隐私政策:需要查看官网详细说明
- 安全审计:暂无公开的第三方安全审计
替代方案
| 替代品 | 优势 | 劣势 |
|---|---|---|
| Context Mode | 完全开源 MIT,本地运行,98% 压缩 | 只压缩工具输出,不压缩对话历史 |
| Claude 内置 /compact | 零配置,官方支持 | 要等 3 分钟,打断心流 |
| Sonnet 替代 Opus | 便宜一半,SWE-bench 只差 1.2% | 复杂任务质量确实有差距 |
| 手动 context 管理 | 零成本,学会了一劳永逸 | 学习曲线高,不适合新手 |
给投资人
市场分析
- 赛道规模:AI Agents 市场 2025 年 $7.84B → 2030 年 $52.62B(CAGR 46.3%,MarketsandMarkets)
- 增长率:编码 agent 是增长最快的子赛道,软件开发 AI 占 agentic AI 市场 38%
- 驱动因素:Claude Code 收入 7 个月增长 5.5x,开发者 AI 辅助已从实验进入标准实践
竞争格局
| 层级 | 玩家 | 定位 |
|---|---|---|
| 头部 | Anthropic(内置 compaction) | 平台方,随时能做 |
| 腰部 | Context Mode, Context Engine | 开源社区方案 |
| 新进入者 | Context Gateway (Compresr) | YC 背书,SDK + 代理 |
| 相邻赛道 | Bifrost, IBM ContextForge | LLM 网关/MCP 网关 |
Timing 分析
- 为什么是现在:Claude Code 在 2025-2026 年爆发式增长,企业用户开始关注成本控制。Anthropic 自己的 compaction 体验不够好,给了第三方工具窗口期。
- 技术成熟度:LLM 上下文压缩是学术热门方向,Compresr 团队从 EPFL 直接带着研究成果来创业,技术成熟度中等偏上。
- 市场准备度:高。Claude Code 日均 $6 的开发者成本已经让很多人开始找省钱方案。
团队背景
- 创始人:Ivan Zakazov,EPFL PhD(LLM 上下文压缩方向),前 Microsoft + Philips Research
- 核心团队:4 人,全部 EPFL 背景(PhD/硕士),横跨 ML 研究、数据科学、工程
- 过往成绩:学术研究背景强,但商业化经验需要观察
融资情况
- 已融资:YC W26 batch(标准 YC deal:$500K for 7%)
- 投资人:Y Combinator
- 估值:未披露
结论
Context Gateway 是一个"对的方向、对的团队、但还太早"的产品。 上下文压缩是 AI coding agent 的真实痛点,EPFL 团队的学术底蕴让技术路线有可信度。但核心风险在于:Anthropic 随时可以把这个功能做进原生 Claude Code,而且免费的窗口期过后,定价策略不明。
| 用户类型 | 建议 |
|---|---|
| 开发者 | 试试 — 免费、1 分钟安装、不改变工作流。但注意隐私风险,别在高机密项目上用。 |
| 产品经理 | 关注 — "透明代理 + 后台压缩"的模式值得借鉴,但要关注 Anthropic 的内置优化路线图。 |
| 博主 | 可写 — "Claude Code 省钱三件套实测对比"是好选题,Context Gateway vs Context Mode vs /compact。 |
| 早期采用者 | 尝鲜 — 免费期赶紧体验,但不要把它当核心依赖。产品太新,稳定性和持续性都是问号。 |
| 投资人 | 观望 — YC 背书 + EPFL 团队是加分项,但 Anthropic 的巨头风险太大。如果 Compresr 能把 SDK 做成通用基础设施而不只是 Claude Code 插件,故事就完全不同。 |
资源链接
| 资源 | 链接 |
|---|---|
| 官网 | https://compresr.ai/ |
| GitHub | https://github.com/Compresr-ai/Context-Gateway |
| ProductHunt | https://www.producthunt.com/posts/context-gateway |
| YC Profile | https://www.ycombinator.com/companies/compresr |
| Twitter (YC) | https://x.com/ycombinator/status/2026811140010045847 |
| 竞品 Context Mode | https://github.com/mksglu/claude-context-mode |
| IBM ContextForge | https://github.com/IBM/mcp-context-forge |
2026-03-07 | Trend-Tracker v7.3