返回探索

Edgee

AI Infrastructure Tools

为 Token 瘦身的 AI 网关

💡 Edgee 在 Prompt 到达大模型服务商之前对其进行压缩,最高可降低 50% 的 Token 成本。无需修改代码,即可实现更少的 Token 消耗和更低的账单。

"它就像是 AI 界的“压缩饼干机”,把原本臃肿的 Prompt 挤掉水分,只留下核心干货喂给大模型。"

30秒快速判断
这App干嘛的:Edgee 是一个 AI 网关,核心卖点是通过边缘侧的 Token 压缩技术为 LLM 账单“瘦身”,号称最高节省 50% 成本。
值不值得关注:如果每月 LLM 账单超过 $500 且涉及长上下文或 RAG 场景,值得关注;个人小项目建议优先考虑 LiteLLM 等成熟方案。
3/10

热度

7/10

实用

8

投票

产品画像
完整分析报告

Edgee:AI 网关赛道的“Token 减肥药”,能跑出来吗?

2026-02-13 | Product Hunt | 官网 | GitHub


30秒快速判断

这产品干嘛的:Edgee 是一个 AI 网关 (AI Gateway),在你的应用和 LLM 提供商之间加了一层“中间人”。它的核心卖点是 Token 压缩 —— 在边缘层把你的 Prompt 瘦身,去掉冗余信息但保留语义,号称最多省 50% Token 成本。同时提供统一 API 接入 200+ 模型、自动故障转移、实时成本追踪。

值不值得关注:看你是谁。如果你每月 LLM 账单超过 $500,且用了 RAG/长上下文/多轮对话,值得试试。如果你只是个人项目调 API,先看看免费的 LiteLLM 就行。这个产品目前还很早期 —— PH 票数仅 8,GitHub 76 stars,Twitter 账号甚至没发过推文。但团队背景不错(前《世界报》CTO + 连续创业者),拿了 $2.9M 融资,技术栈也挺硬核(Rust + Wasm + Fastly 边缘网络)。


与我有关三问

与我有关吗?

目标用户画像

  • 中大型团队的后端/AI 工程师,每月 LLM API 支出在 $500-$50K 之间
  • 用了多个 LLM 提供商(OpenAI + Anthropic + Gemini),需要统一管理
  • 运行 RAG 管道、Agent 系统、长上下文应用的团队

我是目标用户吗?

  • 如果你经常觉得“OpenAI 账单怎么又涨了” —— 你是
  • 如果你在对比不同模型但烦恼每次都要改代码 —— 你是
  • 如果你只用一个模型、月花费 < $100 —— 暂时不需要这个

什么场景用得上

  • RAG 系统 -> 检索的文档往往冗余多,压缩效果好
  • 多轮对话/Agent -> 上下文越长越费 Token,压缩价值越大
  • 多提供商切换 -> 统一 API 很省心
  • 生产环境需要故障转移 -> 一个提供商挂了自动切另一个

对我有用吗?

维度收益代价
时间省去自己写提供商切换逻辑、成本追踪的时间学习 SDK + 部署约 30 分钟
金钱号称省 50% Token 成本(实际可能 20-35%)按需付费,注册送 $5 试用
精力统一 API 减少维护多个 SDK 的心智负担多了一个依赖,多了一个可能的故障点

ROI 判断:如果你月 LLM 支出超过 $1000,省 20% 就是 $200/月,半年省 $1200,值得花半天时间试试。如果月支出 < $200,省下的钱可能还不够折腾的。

喜闻乐见吗?

爽点在哪

  • 一行代码切提供商:OpenAI 兼容 API,改个模型名就能从 GPT-4o 切到 Claude,不用换 SDK
  • 透明的省钱反馈:每次请求返回 saved_tokens 数据,能直观看到省了多少钱
  • P99 延迟 < 5ms:基于 Rust + Fastly 边缘网络,加了这层中间人几乎不影响速度

用户声音: 产品目前太早期,公开的用户评价几乎没有。Twitter @edgee_ai 账号只有 31 个关注者且零推文。PH 上的讨论也有限。这是个需要“信仰充值”的阶段 —— 要么你信 Rust + 边缘计算的技术方向,要么等有更多用户验证后再入场。

说实话,一个 AI 产品的 Twitter 账号没发过推文,这本身就有点让人犹豫。


给独立开发者

技术栈

  • 核心语言:Rust(高性能,编译为 WebAssembly)
  • 运行环境:Fastly Compute 全球边缘网络
  • 组件模型:Wasm Component Model(支持 C/C#/Go/JS/Python/Rust/TS 写组件)
  • API:兼容 OpenAI 的 API
  • SDK:Go、Rust (79 stars)、Python、TypeScript/Node.js
  • 集成:Claude Code、Anthropic SDK、OpenAI SDK、LangChain
  • MCP:提供 MCP Server (mcp-server-edgee)

核心功能怎么实现的

说白了就是一个跑在 Fastly 边缘网络上的 Rust 反向代理。你的 AI API 请求先到 Edgee,它做三件事:

  1. 压缩 —— 把 Prompt 里的冗余信息去掉(类似 LLMLingua 的思路,但在网关层做)
  2. 路由 —— 根据你的策略决定发给哪个提供商
  3. 监控 —— 记录成本、延迟、错误

性能方面,Fastly 全球网络处理数十亿请求/月,P99 延迟 < 5ms。Rust 组件冷启动 < 2ms(Python 组件要 ~2s,差距巨大)。

开源情况

  • 开源:是,采用 Apache-2.0 许可
  • GitHub:76 stars,9 forks,39 个仓库
  • 类似开源项目:LiteLLM(更成熟,28K+ stars)、Helicone(也用 Rust)
  • 自己做难度:中等偏高。Token 压缩算法 + 边缘部署是核心壁垒。简单的 API 代理 + 路由用 LiteLLM 就够了,但 Token 压缩要自己做比较难。预计 2-3 人月复刻基础版本。

商业模式

  • 变现方式:按需付费 (Pay-as-you-go),不在提供商价格上加价
  • 定价:注册送 $5 额度,之后按使用量付费
  • 盈利逻辑:通过增值服务(边缘工具、私有模型、可观测性)盈利,基础路由不加价以吸引用户

巨头风险

高风险。AI 网关赛道巨头已经入场:

  • Cloudflare 有 AI Gateway(免费核心功能)
  • Vercel 有 AI Gateway
  • Kong 有开源 AI Gateway 扩展
  • IBM 也在做

但 Edgee 的 Token 压缩是独特卖点,巨头目前没做。问题是:压缩 Prompt 是不是一个足够大的差异化?如果 LLM 定价持续下降(历史趋势确实如此),“省 Token”的价值会越来越小。


给产品经理

痛点分析

  • 解决什么问题:LLM API 成本控制 + 多提供商管理
  • 痛点有多痛:高频刚需。每个用 AI 的公司都面临这个问题。Ramp 数据显示 2025 年 Q4 客户在 AI 基础设施上花了 $2.6 亿。42% 企业已采用 AI 中间件。
  • Edgee 的独特切入点: “传统 AI 网关帮你管提供商,我们帮你省钱”

用户画像

用户类型特征需求优先级
AI 工程师月 LLM 支出 $1K-$50K成本 > 可靠性 > 易用性
技术 VP/CTO管理 AI 基础设施可观测性 > 成本 > 合规
独立开发者个人项目免费 > 易用性 > 功能

功能拆解

功能类型说明
Token 压缩核心去冗余保语义,省 20-50% Token
统一 API核心200+ 模型一个 API 搞定
自动故障转移核心提供商挂了自动切换
成本追踪核心实时看每个请求花了多少钱
Edge Tools锦上添花在边缘跑自定义逻辑
Private Models锦上添花边缘部署私有小模型
Wasm 组件锦上添花可扩展的组件生态

竞品差异

对比维度EdgeeHeliconeLiteLLMPortkey
核心能力Token 压缩 + 边缘路由可观测性 + 路由开源统一接口企业合规
模型数200+主流模型100+1600+
开源是 (Apache-2.0)部分
价格按需付费,无加价免费自托管免费自托管$49/月起
延迟P99 < 5ms~50ms较高 (Python)50-200ms
独特点Token 压缩Rust 性能支持提供商最多SOC2/HIPAA

可借鉴的点

  1. “不加价”策略:不在提供商价格上加价,靠增值服务赚钱,降低用户试用门槛。
  2. 透明省钱数据:每次请求返回 saved_tokens,让用户实实在在“看见”价值。
  3. Wasm 组件模型:把扩展性做成生态,让用户贡献组件,平台从中受益。

给科技博主

创始人故事

这个团队很有意思 —— 三个法国人做了一个从巴黎到旧金山的边缘计算创业公司:

  • Sacha Morard (Co-CEO):前《世界报》集团 CTO/CIO。在法国最大的媒体集团管过大规模系统,对性能和数据有深刻理解。
  • Gilles Raymond (Co-CEO):连续创业者,自称“4x CEO”。上一个公司 News Republic 被猎豹移动收购。还创办了保护吹哨人的 The Signal Networks Foundation。
  • Alexandre Gravem (Co-founder):巴西人,20 年编程经验,曾在 Vestiaire Collective 负责技术。

故事线:Edgee 最早做的是边缘数据收集 —— 解决“广告拦截器和隐私法规导致 25% 用户数据丢失”的问题。后来转型 (Pivot) 到 AI 网关,把“边缘计算”的能力用到了 AI 流量管理上。这个转型很聪明 —— AI 网关比数据收集赛道更大更热。

争议点/讨论角度

  1. Token 压缩会不会“压坏”语义? —— 研究显示中等压缩下有 1-2% 准确率损失。对大多数场景够用,但医疗/法律等高精度场景可能有风险。
  2. 从数据收集转型到 AI 网关 —— 是追热点还是真看到机会?
  3. AI 网关赛道挤破头 —— Cloudflare、Vercel 免费做,LiteLLM 开源,Edgee 凭什么活下来?
  4. LLM 降价趋势 vs Token 压缩价值 —— 如果 Token 越来越便宜,“省 Token”还是个好卖点吗?

热度数据

指标数据判断
PH 票数8低,关注度有限
GitHub Stars76 (主仓库)小型项目
Twitter31 关注者, 0 推文几乎无社交存在感
融资$2.9M Pre-seed起步阶段
荣誉Europas 100 Hottest Startups 2024有一定认可度

内容建议

  • 适合写的角度: “AI 网关赛道大乱斗,Token 压缩能成为杀手锏吗?”
  • 蹭热点:结合 LLM 成本优化话题(所有 AI 开发者都关心)
  • 对比评测:Edgee vs Helicone vs LiteLLM 实测到底省了多少钱

给早期采用者

定价分析

层级价格包含功能够用吗?
免费$5 试用额度全功能足够测试和小项目
付费按需付费全功能 + 无加价看具体使用量

隐藏成本:无。不在提供商价格上加价,可以用自己的 API Key 或 Edgee 的 Key。

上手指南

  • 上手时间:约 10-30 分钟
  • 学习曲线:低(如果你用过 OpenAI SDK)
  • 步骤
    1. 注册 edgee.ai 账号,拿到 $5 额度
    2. 安装 SDK (pip install edgee / npm install edgee)
    3. 把 OpenAI 的 base_url 改成 Edgee 的端点
    4. 开始使用,在后台看板查看成本节省数据

坑和吐槽

  1. 社区几乎不存在:Twitter 无推文,Reddit 无讨论。遇到问题只能看文档或提 GitHub Issue。对于早期采用者来说,这意味着踩坑要自己扛。
  2. Python Wasm 组件慢:如果你想写自定义组件,Python 冷启动约 2s,Rust < 2ms。强烈推荐用 Rust 写组件。
  3. 压缩效果因场景而异:信息密度高的内容(代码、数学、结构化数据)压缩比低,可能只有 2-3 倍而达不到宣称的 10-20 倍。
  4. 产品刚转型:从数据收集转到 AI 网关不久,功能成熟度存疑。

安全和隐私

  • 数据存储:在边缘层处理,不持久化存储用户数据
  • 隐私特性:可配置日志保留、提供商端零数据保留 (ZDR)、Prompt 隐私层
  • 合规:有基础隐私控制,但目前不如 Portkey (SOC2/HIPAA/GDPR) 完善
  • 匿名化:具备自动 PII 脱敏功能

替代方案

替代品适合谁优势劣势
LiteLLM想自托管、零成本完全免费开源,支持 100+ 提供商Python 性能一般,需自运维
Helicone想要好的可观测性Rust 构建,零加价,开源无 Token 压缩功能
Cloudflare AI Gateway已用 Cloudflare 的用户免费核心功能,全球 CDN有隐藏的 Workers 成本
Portkey企业合规需求SOC2/HIPAA/GDPR,防护栏功能$49/月起,较贵
OpenRouter想试各种模型模型选择最丰富有一定的加价

给投资人

市场分析

  • AI 网关大市场:2024 年 $39 亿 -> 2031 年 $98 亿,年复合增长率 14.3%
  • LLM 中间件网关细分:2026 年 $1890 万 -> 2034 年 $1.89 亿,年复合增长率 49.6%
  • 边缘计算:2030 年 $1562 亿,年复合增长率 16.3%
  • 驱动因素:42% 企业已采用 AI 中间件,40% 企业应用集成 AI Agent,合规需求驱动

竞争格局

层级玩家定位
巨头Cloudflare, Vercel, Kong, IBM免费/低价核心功能,生态锁定
成熟创业公司Portkey, Helicone, LiteLLM各有侧重(合规/可观测/开源)
新进入者Edgee, Resultant, Bifrost差异化切入

时机 (Timing) 分析

  • 为什么是现在:Gartner 2025 把 AI 网关从“新兴技术”升级为“基础设施必需品”。企业 AI 支出在快速增长。
  • 技术成熟度:Rust + Wasm + 边缘计算都已成熟。Fastly Compute 提供了现成的全球基础设施。
  • 市场准备度:需求明确(每个 AI 团队都想省钱),但竞争激烈。CNCF 预计 2026 年出台行业标准。

团队背景

  • Sacha Morard:前《世界报》集团 CTO/CIO,大规模系统管理经验丰富
  • Gilles Raymond:4x CEO,前 News Republic 创始人(成功退出,被猎豹移动收购)
  • Alexandre Gravem:20 年编程经验,Vestiaire Collective 技术背景
  • 团队规模:小而精的初创团队

融资情况

  • 已融资:$2.9M Pre-seed/Seed(2024 年 10 月)
  • 投资人:Serena Ventures, VentureFriends
  • 估值:未公开

风险

  1. 巨头挤压:Cloudflare 免费做 AI 网关,Edgee 如何持续竞争?
  2. LLM 降价趋势:Token 越便宜,压缩带来的边际价值就越小
  3. 转型风险:从数据收集转到 AI 网关,产品成熟度有待验证
  4. 社区薄弱:76 GitHub stars,几乎没有社交媒体存在感

结论

Edgee 是一个有技术深度但市场存在感极弱的早期产品。Token 压缩是个好故事,但能不能在巨头林立的 AI 网关赛道跑出来,还要看后续的用户增长和社区建设。

用户类型建议
开发者观望为主。技术有意思(Rust + Wasm + 边缘),但社区太小。如果你已经用 LiteLLM 或 Helicone,没必要换。如果你对 Token 压缩有强需求,可以试试 $5 免费额度。
产品经理关注“Token 压缩”这个方向。不管 Edgee 能不能成,Prompt 优化/压缩会成为 AI 基础设施的标配能力。可以作为竞品分析的参考。
博主可以写。“AI 网关赛道分析”或“LLM 成本优化方案对比”是好选题,Edgee 可以作为其中一个案例。单独写 Edgee 的话,受众有限。
早期采用者谨慎试用。$5 免费额度可以体验,但别把生产流量切过去。等社区更活跃、产品更稳定后再考虑。
投资人中性。赛道对(AI 基础设施),团队有经验(成功退出过),但竞争太激烈。76 GitHub stars 说明开发者还没买账。需要看后续增长数据。

资源链接

资源链接
官网https://www.edgee.ai/
GitHubhttps://github.com/edgee-cloud/edgee
文档https://www.edgee.ai/docs/introduction
Twitterhttps://x.com/edgee_ai
Product Hunthttps://www.producthunt.com/products/edgee
定价https://www.edgee.ai/pricing
路线图https://roadmap.edgee.cloud/
Crunchbasehttps://www.crunchbase.com/organization/edgee-0756
融资公告https://www.edgee.cloud/blog/posts/accelerating-funding

2026-02-13 | Trend-Tracker v7.3

一句话判断

Edgee 是一个技术导向的早期产品,Token 压缩是其差异化杀手锏,但需警惕巨头竞争和极弱的社区存在感。

常见问题

关于 Edgee 的常见问题

Edgee 是一个 AI 网关,核心卖点是通过边缘侧的 Token 压缩技术为 LLM 账单“瘦身”,号称最高节省 50% 成本。

Edgee 的主要功能包括:Token 压缩、统一 API 接入(200+模型)、自动故障转移、实时成本看板。

注册送 $5 额度,后续按量计费(无加价)

中大型团队的 AI 工程师、每月 LLM 支出在 $500-$50K 的企业、使用多模型架构的团队。

Edgee 的主要竞品包括:Helicone, LiteLLM, Portkey, Cloudflare AI Gateway。

数据来源: ProductHunt2026年2月13日
最后更新: