Google AI Edge Gallery:把大模型塞进手机,Google 端侧 AI 的野心之作
2026-02-28 | ProductHunt | GitHub | App Store

从左到右依次是:主菜单、Audio Scribe(语音转文字)、Ask Image(图片问答)、AI Chat(多轮对话)、Prompt Lab(单次提示)。所有功能完全离线运行,底部还显示了 TTFT、Decode Speed 等实时性能指标。
30秒快速判断
这App干嘛的:Google 做了一个开源 App,让你在手机上离线跑 AI 大模型——聊天、看图、语音转文字、用自然语言控制手机,全程不联网。核心武器是 FunctionGemma,一个只有 270M 参数的小模型,能把"帮我创建个日历事件"这种话直接翻译成手机能执行的函数调用。
值不值得关注:非常值得。这不是又一个"手机上跑 LLM"的玩具——Google 把整个端侧 AI 技术栈(LiteRT + MediaPipe + FunctionGemma)打包成了一个完整的开发者平台。两个月 50 万次 APK 下载说明开发者很买账。如果你关心隐私、离线场景、或者想做端侧 AI 应用,这是目前最成熟的方案。
与我有关三问
与我有关吗?
目标用户是谁:
- 移动端开发者(想在 App 里集成离线 AI 功能)
- 隐私敏感用户(不想把数据传到云端)
- AI 应用创业者(想做不依赖 API 的本地 AI 产品)
- 嵌入式/IoT 开发者(需要在边缘设备跑模型)
我是吗:如果你符合以下任一场景,你就是目标用户:
- 你在做移动 App,想加 AI 功能但不想每次都调云端 API
- 你在做医疗/金融/企业应用,数据不能出设备
- 你想做一个离线可用的 AI 助手
- 你对端侧 AI 技术好奇,想亲手体验
什么场景会用到:
- 飞机上/地铁里没网时需要 AI 辅助 -> 用这个
- 处理敏感照片/文档不想上传云端 -> 用这个
- 开发需要本地 AI 的 App -> 用这个的 SDK
- 只是日常聊天要求高质量回答 -> 不需要这个,云端模型更强
对我有用吗?
| 维度 | 收益 | 代价 |
|---|---|---|
| 时间 | 省去每次 API 调用的网络延迟;离线场景从"不可能"变成"可以" | 初始模型下载需要几分钟;学习 LiteRT/MediaPipe 生态需要 1-2 天 |
| 金钱 | 免费(Android)/ $4.99一次性(iOS);不用付 API 调用费 | 设备需要 6GB+ RAM;存储空间被模型占用 |
| 精力 | 开源+文档齐全+Notebook教程,上手门槛不高 | 设置流程稍繁琐(Hugging Face 账号 + 多个协议) |
ROI 判断:如果你是移动开发者,花半天时间跑通 demo 就值了——Google 已经把最难的部分(模型优化、推理引擎、跨平台适配)都做好了,你只需要在上层做业务逻辑。如果只是普通用户想体验,下载玩 20 分钟就够了,别指望它替代 ChatGPT。
喜闻乐见吗?
爽点在哪:
- 完全离线:飞行模式下照常工作,没有"正在加载"的等待
- Function Calling:用自然语言说"打开手电筒"、"创建明天下午的日历事件",手机直接执行
- Tiny Garden 小游戏:用语言控制种花浇水,展示了 AI agent 在端侧的可能性
- 实时性能指标:能看到 TTFT(首字延迟)、解码速度等数据,很 geek
"哇"的瞬间:
"Gemma 现在就住在我的 iOS 里。完全本地运行的端侧 AI,不需要服务器。我非常享受用语音指令控制手机以及玩 'Tiny Garden' 的体验。" — @TheRealTreyN
用户真实评价:
正面:"这是端侧 AI 真正落地的标志。在 AI Edge Gallery 中直接交付 Mobile Actions 和 Tiny Garden,再加上 FunctionGemma (270M) 这样的轻量级模型,表明 Google 对私有化、本地 AI 是认真的。在端侧运行更小、更高效的模型 = 更低的延迟、更好的隐私以及真正的移动原生 Agent。" — @10turtle_com
吐槽:"设置流程是个大坑——需要下载 App、创建 Hugging Face 账号、签署多个用户协议,光走完这些步骤就够折腾的。" — Android Authority
给独立开发者
技术栈
整个 Google AI Edge 技术栈分三层,从底到顶:
| 层级 | 组件 | 说明 |
|---|---|---|
| 运行时 | LiteRT (原 TF Lite) | 底层推理引擎,支持 PyTorch/TF/JAX 模型转换 |
| Pipeline | LiteRT-LM | 管道框架,把分词器+视觉编码器+文本解码器串起来,提供对话和工具调用 API |
| 高级SDK | MediaPipe GenAI Tasks | 开箱即用的 Kotlin/Swift/JS API,几行代码就能跑模型 |
- 前端:原生 App(Android Kotlin + iOS Swift)
- 模型格式:TFLite(通过 ai-edge-torch 转换 + dynamic_int8 量化)
- 模型托管:Hugging Face 集成
- 核心模型:FunctionGemma 270M — 基于 Gemma 3 架构,256K 词汇表,6T tokens 训练
核心功能实现
FunctionGemma 是整个 function calling 能力的核心。它只有 270M 参数(550MB RAM 即可运行),但能做到:
- 自然语言 -> 函数调用:用户说"创建明天午餐的日历事件",模型输出结构化的 function call JSON
- 统一对话和动作:能在"生成函数调用"和"自然语言回复"之间无缝切换
- 自定义微调:通过 TRL/SFTTrainer 微调,基线 58% 准确率可以提升到 85%
部署流程:微调 -> ai-edge-torch 转 TFLite (dynamic_int8 量化) -> 打包成 .task 文件(含分词器+停止词)-> 在设备上通过 LiteRT-LM 运行。
开源情况
- 完全开源:github.com/google-ai-edge/gallery
- 模型开放权重:FunctionGemma on HuggingFace
- 微调教程:Google 提供 Colab Notebook,Unsloth 也支持免费微调
- 类似开源项目:SmolChat(GGUF 格式 Android LLM)、Ollama(桌面端)
- 自己做难度:中等偏低。Google 把底层都封装好了,基于 MediaPipe GenAI Tasks 做一个带 function calling 的 App,预计 1-2 人月。从零搭整个推理栈,那是另一回事了。
商业模式
- 变现方式:这不是一个商业产品,而是 Google 端侧 AI 生态的开发者入口
- 策略:类似"移动 AI 界的 Linux"——让开发者用 Google 的技术栈做端侧 AI,锁定生态
- iOS 定价:App Store $4.99 一次性;Android 免费
- 用户量:两个月 50 万次 APK 下载
巨头风险
说白了,这就是巨头自己在做。Google 的优势是:拥有芯片(Tensor)、模型(Gemma)、运行时(LiteRT)、SDK(MediaPipe)的全栈能力。Apple 有 Core ML 但封闭在自己生态里。独立开发者的机会不在于做另一个 AI Edge Gallery,而在于用这个技术栈做垂直场景的端侧 AI 应用——比如离线翻译、本地文档助手、隐私优先的健康 AI 等。
给产品经理
痛点分析
- 解决什么问题:云端 AI 的三大痛点——延迟(每次调 API)、隐私(数据上传)、离线不可用
- 痛点有多痛:高频刚需。医疗/金融/企业场景数据不能出设备是硬性要求;飞行/地铁等离线场景覆盖数亿用户
用户画像
- 主要用户:移动端开发者(想在 App 里集成 AI)
- 次要用户:AI 爱好者(想体验端侧 AI 的边界)
- 使用场景:开发者用它做技术验证和原型开发;用户用它体验离线 AI 能力
功能拆解
| 功能 | 类型 | 说明 |
|---|---|---|
| AI Chat | 核心 | 多轮离线对话 |
| Mobile Actions (Function Calling) | 核心 | 自然语言控制手机功能 |
| Ask Image | 核心 | 离线图片问答 |
| Audio Scribe | 核心 | 离线语音转文字/翻译 |
| Prompt Lab | 锦上添花 | 单次提示实验(摘要、改写、代码生成) |
| Tiny Garden | 锦上添花 | 展示 AI Agent 能力的小游戏 |
| Performance Insights | 锦上添花 | 实时性能指标展示 |
竞品差异
| 维度 | AI Edge Gallery | Apple Core ML | Ollama | SmolChat |
|---|---|---|---|---|
| 平台 | Android + iOS + Web + 嵌入式 | 仅 Apple | 桌面/服务器 | 仅 Android |
| Function Calling | 有(FunctionGemma) | 无原生支持 | 有(桌面端) | 无 |
| 开源 | 完全开源 | 闭源 | 开源 | 开源 |
| 模型来源 | Hugging Face 生态 | Core ML 格式 | GGUF 格式 | GGUF 格式 |
| 适合谁 | 移动+嵌入式开发者 | Apple 开发者 | 桌面用户 | Android 玩家 |
可借鉴的点
- 性能透明化:在 UI 里直接显示 TTFT、解码速度——让用户"看到"AI 在本地跑,建立信任
- 渐进式功能展示:从简单的聊天到图片问答到 function calling,层层递进
- Tiny Garden 式 Demo:用一个小游戏展示 AI Agent 能力,比干巴巴的技术文档有说服力 100 倍
- 开源+生态策略:通过开源吸引开发者,通过 Hugging Face 集成降低模型获取门槛
给科技博主
团队故事
- 出品方:Google Research at Google 团队
- 关键人物:Cormac Brick(领导), Matthias Grundmann, Ram Iyengar 等
- 背景:这个团队之前做 TensorFlow Lite 和 MediaPipe,是 Google 端侧 AI 的核心团队
- 为什么做这个:Google I/O 2025 首次预览,定位为"开发者灵感工具"。真正的目的是让开发者用 Google 的端侧 AI 技术栈,而不是 Apple 的 Core ML
争议点/讨论角度
- Google 在 iPhone 上做端侧 AI,这意味着什么? — 通常 Google 在 iOS 上的存在感有限,但 AI Edge Gallery 直接把 Gemma 模型带到 iPhone 上,这是一个值得深挖的战略意图
- 270M 参数能做什么? — 在 GPT-4.5 动辄万亿参数的时代,一个 270M 的小模型能在手机上做 function calling,这个反差本身就是个好故事
- 隐私 vs 能力的权衡 — 完全离线意味着隐私有保障,但也意味着能力上限受限于设备算力。什么时候该用端侧,什么时候该用云端?
- 设置流程的门槛 — 需要 Hugging Face 账号、多个协议签署,对普通用户不友好,但这到底是 bug 还是 feature?
热度数据
- PH排名:#3 trending,186票
- Twitter讨论:中等热度,开发者圈子关注较多,普通用户关注较少
- 下载量:50万次 APK 下载(两个月内)
- 搜索趋势:随 2026年2月 iOS 版发布出现新一波关注
内容建议
- 适合写的角度:"当 AI 不需要网络:我在飞行模式下用手机跑大模型的一天"
- 蹭热点机会:结合 Apple Intelligence 的争议(强制云端)vs Google 的端侧开放策略
- 视频选题:"270M 参数的模型到底能干啥?我用 Google AI Edge Gallery 测了 10 个场景"
给早期采用者
定价分析
| 层级 | 价格 | 包含功能 | 够用吗? |
|---|---|---|---|
| Android (Play Store/APK) | 免费 | 全部功能 | 完全够用 |
| iOS (App Store) | $4.99 一次性 | 全部功能 | 够用,但需 6GB+ RAM |
| 模型下载 | 免费 | 需 Hugging Face 账号 | 够用 |
隐藏成本:模型文件占存储空间(几百 MB 到几 GB 不等),低端手机可能跑不动。
上手指南
- 上手时间:Android 约 10 分钟,iOS 约 5 分钟
- 学习曲线:低(作为用户体验)/ 中(作为开发者集成)
- 步骤:
- 下载 App:Android 从 Play Store / iOS 从 App Store ($4.99)
- 创建 Hugging Face 账号并签署模型使用协议
- 在 App 内选择并下载模型(推荐先试 Gemma 3n)
- 开始使用——选择功能(Chat / Ask Image / Mobile Actions 等)
- 如果要开发,参考 GitHub 上的 DEVELOPMENT.md
坑和吐槽
- 设置流程太繁琐:Hugging Face 账号 + Google Gemma 协议 + App 内协议,三步签约才能用
- 模型不能处理文档:别指望它帮你分析 PDF 或 Word
- 低端设备劝退:iOS 需要 6GB+ RAM(iPhone 15 Pro 起),老款 Android 也可能卡顿
- iOS 版本较新:功能和稳定性可能不如 Android 版成熟
安全和隐私
- 数据存储:100% 本地,模型推理全在设备上完成
- 隐私优势:没有数据上传到云端,没有 API 调用,真正的"what happens on device stays on device"
- 新风险:设备丢失=模型和缓存数据泄露;模型本身可能被逆向工程
- 安全审计:Google 开源项目,社区可审计
替代方案
| 替代品 | 优势 | 劣势 |
|---|---|---|
| Ollama | 生态更成熟、模型更多、社区更大 | 桌面端为主,不适合手机 |
| SmolChat | 支持任意 GGUF 模型 | 仅 Android,无 function calling |
| Apple Intelligence | 深度系统集成 | 依赖云端、不开源、不跨平台 |
| Jan.ai | UI 漂亮、易用 | 桌面端为主 |
给投资人
市场分析
- 赛道规模:Edge AI 市场 2026 约 $30-48B(不同研究机构估计差异较大)
- 增长率:21.7%-33.3% CAGR
- 推理市场:推理负载占 2026 年所有 AI 计算的 2/3;推理芯片市场 >$50B
- 驱动因素:IoT 爆发、实时低延迟需求、数据隐私法规趋严、5G 边缘计算
竞争格局
| 层级 | 玩家 | 定位 |
|---|---|---|
| 头部 | Google (AI Edge)、Apple (Core ML)、Qualcomm (AI Engine) | 全栈(芯片+运行时+模型) |
| 腰部 | NVIDIA (Jetson)、MediaTek (NeuroPilot) | 芯片+推理引擎 |
| 开源生态 | Ollama、llama.cpp、ONNX Runtime | 社区驱动、桌面为主 |
| 新进入者 | SmolChat、各种端侧 AI 创业公司 | 垂直场景 |
Timing 分析
- 为什么是现在:三个趋势交汇——(1) 模型压缩技术成熟(270M 参数能做 function calling);(2) 手机算力足够(6GB+ RAM 成为标配);(3) 隐私法规倒逼(GDPR、各国数据本地化要求)
- 技术成熟度:核心技术已就绪,FunctionGemma 微调后 85% 准确率,足以用于生产
- 市场准备度:开发者热情高(50万下载),但普通用户认知还不够——大多数人不知道"AI 可以在手机上离线跑"
团队背景
- Google AI Edge 团队:前 TensorFlow Lite + MediaPipe 核心团队
- 核心领导:Cormac Brick, Matthias Grundmann, Ram Iyengar, Sachin Kotwani
- 过往成绩:TensorFlow Lite 是端侧 ML 的事实标准,MediaPipe 广泛用于手势/人脸/姿态识别
融资情况
- Google 内部产品,无独立融资
- 但 Edge AI 领域的创业机会在于:用 Google 的基础设施做垂直场景产品
- 参考:Edge AI 初创融资在 2025-2026 年持续活跃
结论
一句话判断:Google AI Edge Gallery 不是一个面向普通用户的产品,而是 Google 端侧 AI 生态的"招牌展厅"。它真正的价值在于证明了一件事:270M 参数的模型就能在手机上做 function calling,端侧 AI 的时代真的来了。
| 用户类型 | 建议 |
|---|---|
| 开发者 | 必看。这是目前最完整的端侧 AI 开发平台,开源、文档齐全、微调工具链完善。如果你要做移动端 AI 应用,从这里开始。 |
| 产品经理 | 值得关注。Function Calling on-device 打开了"离线 AI 助手"这个新品类,想想你的产品哪些功能可以搬到端侧。 |
| 博主 | 好选题。"270M 模型在手机上做 function calling"这个反差故事天然有流量,结合 Apple Intelligence 做对比更佳。 |
| 早期采用者 | 可以玩玩。Android 免费下载体验,Tiny Garden 和 Mobile Actions 很有趣。但别期待它替代 ChatGPT。 |
| 投资人 | 关注赛道。Google 在铺基础设施,真正的投资机会在用这个基础设施做垂直应用的创业公司。 |
资源链接
| 资源 | 链接 |
|---|---|
| 官网 | ai.google.dev/edge |
| GitHub | github.com/google-ai-edge/gallery |
| App Store | Google AI Edge Gallery |
| Google Play | Google AI Edge Gallery |
| FunctionGemma 模型 | HuggingFace |
| 微调教程 | Google Developers Blog |
| 开发者文档 | Google Developers Blog |
| Unsloth 微调 | docs.unsloth.ai |
2026-02-28 | Trend-Tracker v7.3 | 数据来源:ProductHunt、Google Developers Blog、GitHub、Twitter/X、VentureBeat、InfoQ、Grand View Research