返回探索

Google AI Edge Gallery

Music

为 iPhone 带来端侧函数调用功能

💡 探索全球信息,涵盖网页、图片、视频等丰富内容。Google 提供多种特色功能,助你精准锁定所需。

"它就像是给你的手机装了一个“离线大脑”,即便在万米高空的飞行模式下,它也能听懂你的指令并替你干活。"

30秒快速判断
这App干嘛的:Google 推出的开源神器,让手机在完全断网状态下运行大模型,实现聊天、识图、语音转文字及自然语言控机。
值不值得关注:非常值得关注。它不仅是一个 Demo,更是包含 LiteRT 和 MediaPipe 的完整开发平台,两个月内下载量已达 50 万次。
8/10

热度

8/10

实用

168

投票

产品画像
完整分析报告

Google AI Edge Gallery:把大模型塞进手机,Google 端侧 AI 的野心之作

2026-02-28 | ProductHunt | GitHub | App Store

Google AI Edge Gallery 界面总览

从左到右依次是:主菜单、Audio Scribe(语音转文字)、Ask Image(图片问答)、AI Chat(多轮对话)、Prompt Lab(单次提示)。所有功能完全离线运行,底部还显示了 TTFT、Decode Speed 等实时性能指标。


30秒快速判断

这App干嘛的:Google 做了一个开源 App,让你在手机上离线跑 AI 大模型——聊天、看图、语音转文字、用自然语言控制手机,全程不联网。核心武器是 FunctionGemma,一个只有 270M 参数的小模型,能把"帮我创建个日历事件"这种话直接翻译成手机能执行的函数调用。

值不值得关注:非常值得。这不是又一个"手机上跑 LLM"的玩具——Google 把整个端侧 AI 技术栈(LiteRT + MediaPipe + FunctionGemma)打包成了一个完整的开发者平台。两个月 50 万次 APK 下载说明开发者很买账。如果你关心隐私、离线场景、或者想做端侧 AI 应用,这是目前最成熟的方案。


与我有关三问

与我有关吗?

目标用户是谁

  • 移动端开发者(想在 App 里集成离线 AI 功能)
  • 隐私敏感用户(不想把数据传到云端)
  • AI 应用创业者(想做不依赖 API 的本地 AI 产品)
  • 嵌入式/IoT 开发者(需要在边缘设备跑模型)

我是吗:如果你符合以下任一场景,你就是目标用户:

  • 你在做移动 App,想加 AI 功能但不想每次都调云端 API
  • 你在做医疗/金融/企业应用,数据不能出设备
  • 你想做一个离线可用的 AI 助手
  • 你对端侧 AI 技术好奇,想亲手体验

什么场景会用到

  • 飞机上/地铁里没网时需要 AI 辅助 -> 用这个
  • 处理敏感照片/文档不想上传云端 -> 用这个
  • 开发需要本地 AI 的 App -> 用这个的 SDK
  • 只是日常聊天要求高质量回答 -> 不需要这个,云端模型更强

对我有用吗?

维度收益代价
时间省去每次 API 调用的网络延迟;离线场景从"不可能"变成"可以"初始模型下载需要几分钟;学习 LiteRT/MediaPipe 生态需要 1-2 天
金钱免费(Android)/ $4.99一次性(iOS);不用付 API 调用费设备需要 6GB+ RAM;存储空间被模型占用
精力开源+文档齐全+Notebook教程,上手门槛不高设置流程稍繁琐(Hugging Face 账号 + 多个协议)

ROI 判断:如果你是移动开发者,花半天时间跑通 demo 就值了——Google 已经把最难的部分(模型优化、推理引擎、跨平台适配)都做好了,你只需要在上层做业务逻辑。如果只是普通用户想体验,下载玩 20 分钟就够了,别指望它替代 ChatGPT。

喜闻乐见吗?

爽点在哪

  • 完全离线:飞行模式下照常工作,没有"正在加载"的等待
  • Function Calling:用自然语言说"打开手电筒"、"创建明天下午的日历事件",手机直接执行
  • Tiny Garden 小游戏:用语言控制种花浇水,展示了 AI agent 在端侧的可能性
  • 实时性能指标:能看到 TTFT(首字延迟)、解码速度等数据,很 geek

"哇"的瞬间

"Gemma 现在就住在我的 iOS 里。完全本地运行的端侧 AI,不需要服务器。我非常享受用语音指令控制手机以及玩 'Tiny Garden' 的体验。" — @TheRealTreyN

用户真实评价

正面:"这是端侧 AI 真正落地的标志。在 AI Edge Gallery 中直接交付 Mobile Actions 和 Tiny Garden,再加上 FunctionGemma (270M) 这样的轻量级模型,表明 Google 对私有化、本地 AI 是认真的。在端侧运行更小、更高效的模型 = 更低的延迟、更好的隐私以及真正的移动原生 Agent。" — @10turtle_com

吐槽:"设置流程是个大坑——需要下载 App、创建 Hugging Face 账号、签署多个用户协议,光走完这些步骤就够折腾的。" — Android Authority


给独立开发者

技术栈

整个 Google AI Edge 技术栈分三层,从底到顶:

层级组件说明
运行时LiteRT (原 TF Lite)底层推理引擎,支持 PyTorch/TF/JAX 模型转换
PipelineLiteRT-LM管道框架,把分词器+视觉编码器+文本解码器串起来,提供对话和工具调用 API
高级SDKMediaPipe GenAI Tasks开箱即用的 Kotlin/Swift/JS API,几行代码就能跑模型
  • 前端:原生 App(Android Kotlin + iOS Swift)
  • 模型格式:TFLite(通过 ai-edge-torch 转换 + dynamic_int8 量化)
  • 模型托管:Hugging Face 集成
  • 核心模型:FunctionGemma 270M — 基于 Gemma 3 架构,256K 词汇表,6T tokens 训练

核心功能实现

FunctionGemma 是整个 function calling 能力的核心。它只有 270M 参数(550MB RAM 即可运行),但能做到:

  1. 自然语言 -> 函数调用:用户说"创建明天午餐的日历事件",模型输出结构化的 function call JSON
  2. 统一对话和动作:能在"生成函数调用"和"自然语言回复"之间无缝切换
  3. 自定义微调:通过 TRL/SFTTrainer 微调,基线 58% 准确率可以提升到 85%

部署流程:微调 -> ai-edge-torch 转 TFLite (dynamic_int8 量化) -> 打包成 .task 文件(含分词器+停止词)-> 在设备上通过 LiteRT-LM 运行。

开源情况

  • 完全开源github.com/google-ai-edge/gallery
  • 模型开放权重FunctionGemma on HuggingFace
  • 微调教程:Google 提供 Colab Notebook,Unsloth 也支持免费微调
  • 类似开源项目:SmolChat(GGUF 格式 Android LLM)、Ollama(桌面端)
  • 自己做难度:中等偏低。Google 把底层都封装好了,基于 MediaPipe GenAI Tasks 做一个带 function calling 的 App,预计 1-2 人月。从零搭整个推理栈,那是另一回事了。

商业模式

  • 变现方式:这不是一个商业产品,而是 Google 端侧 AI 生态的开发者入口
  • 策略:类似"移动 AI 界的 Linux"——让开发者用 Google 的技术栈做端侧 AI,锁定生态
  • iOS 定价:App Store $4.99 一次性;Android 免费
  • 用户量:两个月 50 万次 APK 下载

巨头风险

说白了,这就是巨头自己在做。Google 的优势是:拥有芯片(Tensor)、模型(Gemma)、运行时(LiteRT)、SDK(MediaPipe)的全栈能力。Apple 有 Core ML 但封闭在自己生态里。独立开发者的机会不在于做另一个 AI Edge Gallery,而在于用这个技术栈做垂直场景的端侧 AI 应用——比如离线翻译、本地文档助手、隐私优先的健康 AI 等。


给产品经理

痛点分析

  • 解决什么问题:云端 AI 的三大痛点——延迟(每次调 API)、隐私(数据上传)、离线不可用
  • 痛点有多痛:高频刚需。医疗/金融/企业场景数据不能出设备是硬性要求;飞行/地铁等离线场景覆盖数亿用户

用户画像

  • 主要用户:移动端开发者(想在 App 里集成 AI)
  • 次要用户:AI 爱好者(想体验端侧 AI 的边界)
  • 使用场景:开发者用它做技术验证和原型开发;用户用它体验离线 AI 能力

功能拆解

功能类型说明
AI Chat核心多轮离线对话
Mobile Actions (Function Calling)核心自然语言控制手机功能
Ask Image核心离线图片问答
Audio Scribe核心离线语音转文字/翻译
Prompt Lab锦上添花单次提示实验(摘要、改写、代码生成)
Tiny Garden锦上添花展示 AI Agent 能力的小游戏
Performance Insights锦上添花实时性能指标展示

竞品差异

维度AI Edge GalleryApple Core MLOllamaSmolChat
平台Android + iOS + Web + 嵌入式仅 Apple桌面/服务器仅 Android
Function Calling有(FunctionGemma)无原生支持有(桌面端)
开源完全开源闭源开源开源
模型来源Hugging Face 生态Core ML 格式GGUF 格式GGUF 格式
适合谁移动+嵌入式开发者Apple 开发者桌面用户Android 玩家

可借鉴的点

  1. 性能透明化:在 UI 里直接显示 TTFT、解码速度——让用户"看到"AI 在本地跑,建立信任
  2. 渐进式功能展示:从简单的聊天到图片问答到 function calling,层层递进
  3. Tiny Garden 式 Demo:用一个小游戏展示 AI Agent 能力,比干巴巴的技术文档有说服力 100 倍
  4. 开源+生态策略:通过开源吸引开发者,通过 Hugging Face 集成降低模型获取门槛

给科技博主

团队故事

  • 出品方:Google Research at Google 团队
  • 关键人物:Cormac Brick(领导), Matthias Grundmann, Ram Iyengar 等
  • 背景:这个团队之前做 TensorFlow Lite 和 MediaPipe,是 Google 端侧 AI 的核心团队
  • 为什么做这个:Google I/O 2025 首次预览,定位为"开发者灵感工具"。真正的目的是让开发者用 Google 的端侧 AI 技术栈,而不是 Apple 的 Core ML

争议点/讨论角度

  • Google 在 iPhone 上做端侧 AI,这意味着什么? — 通常 Google 在 iOS 上的存在感有限,但 AI Edge Gallery 直接把 Gemma 模型带到 iPhone 上,这是一个值得深挖的战略意图
  • 270M 参数能做什么? — 在 GPT-4.5 动辄万亿参数的时代,一个 270M 的小模型能在手机上做 function calling,这个反差本身就是个好故事
  • 隐私 vs 能力的权衡 — 完全离线意味着隐私有保障,但也意味着能力上限受限于设备算力。什么时候该用端侧,什么时候该用云端?
  • 设置流程的门槛 — 需要 Hugging Face 账号、多个协议签署,对普通用户不友好,但这到底是 bug 还是 feature?

热度数据

  • PH排名:#3 trending,186票
  • Twitter讨论:中等热度,开发者圈子关注较多,普通用户关注较少
  • 下载量:50万次 APK 下载(两个月内)
  • 搜索趋势:随 2026年2月 iOS 版发布出现新一波关注

内容建议

  • 适合写的角度:"当 AI 不需要网络:我在飞行模式下用手机跑大模型的一天"
  • 蹭热点机会:结合 Apple Intelligence 的争议(强制云端)vs Google 的端侧开放策略
  • 视频选题:"270M 参数的模型到底能干啥?我用 Google AI Edge Gallery 测了 10 个场景"

给早期采用者

定价分析

层级价格包含功能够用吗?
Android (Play Store/APK)免费全部功能完全够用
iOS (App Store)$4.99 一次性全部功能够用,但需 6GB+ RAM
模型下载免费需 Hugging Face 账号够用

隐藏成本:模型文件占存储空间(几百 MB 到几 GB 不等),低端手机可能跑不动。

上手指南

  • 上手时间:Android 约 10 分钟,iOS 约 5 分钟
  • 学习曲线:低(作为用户体验)/ 中(作为开发者集成)
  • 步骤
    1. 下载 App:Android 从 Play Store / iOS 从 App Store ($4.99)
    2. 创建 Hugging Face 账号并签署模型使用协议
    3. 在 App 内选择并下载模型(推荐先试 Gemma 3n)
    4. 开始使用——选择功能(Chat / Ask Image / Mobile Actions 等)
    5. 如果要开发,参考 GitHub 上的 DEVELOPMENT.md

坑和吐槽

  1. 设置流程太繁琐:Hugging Face 账号 + Google Gemma 协议 + App 内协议,三步签约才能用
  2. 模型不能处理文档:别指望它帮你分析 PDF 或 Word
  3. 低端设备劝退:iOS 需要 6GB+ RAM(iPhone 15 Pro 起),老款 Android 也可能卡顿
  4. iOS 版本较新:功能和稳定性可能不如 Android 版成熟

安全和隐私

  • 数据存储:100% 本地,模型推理全在设备上完成
  • 隐私优势:没有数据上传到云端,没有 API 调用,真正的"what happens on device stays on device"
  • 新风险:设备丢失=模型和缓存数据泄露;模型本身可能被逆向工程
  • 安全审计:Google 开源项目,社区可审计

替代方案

替代品优势劣势
Ollama生态更成熟、模型更多、社区更大桌面端为主,不适合手机
SmolChat支持任意 GGUF 模型仅 Android,无 function calling
Apple Intelligence深度系统集成依赖云端、不开源、不跨平台
Jan.aiUI 漂亮、易用桌面端为主

给投资人

市场分析

  • 赛道规模:Edge AI 市场 2026 约 $30-48B(不同研究机构估计差异较大)
  • 增长率:21.7%-33.3% CAGR
  • 推理市场:推理负载占 2026 年所有 AI 计算的 2/3;推理芯片市场 >$50B
  • 驱动因素:IoT 爆发、实时低延迟需求、数据隐私法规趋严、5G 边缘计算

竞争格局

层级玩家定位
头部Google (AI Edge)、Apple (Core ML)、Qualcomm (AI Engine)全栈(芯片+运行时+模型)
腰部NVIDIA (Jetson)、MediaTek (NeuroPilot)芯片+推理引擎
开源生态Ollama、llama.cpp、ONNX Runtime社区驱动、桌面为主
新进入者SmolChat、各种端侧 AI 创业公司垂直场景

Timing 分析

  • 为什么是现在:三个趋势交汇——(1) 模型压缩技术成熟(270M 参数能做 function calling);(2) 手机算力足够(6GB+ RAM 成为标配);(3) 隐私法规倒逼(GDPR、各国数据本地化要求)
  • 技术成熟度:核心技术已就绪,FunctionGemma 微调后 85% 准确率,足以用于生产
  • 市场准备度:开发者热情高(50万下载),但普通用户认知还不够——大多数人不知道"AI 可以在手机上离线跑"

团队背景

  • Google AI Edge 团队:前 TensorFlow Lite + MediaPipe 核心团队
  • 核心领导:Cormac Brick, Matthias Grundmann, Ram Iyengar, Sachin Kotwani
  • 过往成绩:TensorFlow Lite 是端侧 ML 的事实标准,MediaPipe 广泛用于手势/人脸/姿态识别

融资情况

  • Google 内部产品,无独立融资
  • 但 Edge AI 领域的创业机会在于:用 Google 的基础设施做垂直场景产品
  • 参考:Edge AI 初创融资在 2025-2026 年持续活跃

结论

一句话判断:Google AI Edge Gallery 不是一个面向普通用户的产品,而是 Google 端侧 AI 生态的"招牌展厅"。它真正的价值在于证明了一件事:270M 参数的模型就能在手机上做 function calling,端侧 AI 的时代真的来了。

用户类型建议
开发者必看。这是目前最完整的端侧 AI 开发平台,开源、文档齐全、微调工具链完善。如果你要做移动端 AI 应用,从这里开始。
产品经理值得关注。Function Calling on-device 打开了"离线 AI 助手"这个新品类,想想你的产品哪些功能可以搬到端侧。
博主好选题。"270M 模型在手机上做 function calling"这个反差故事天然有流量,结合 Apple Intelligence 做对比更佳。
早期采用者可以玩玩。Android 免费下载体验,Tiny Garden 和 Mobile Actions 很有趣。但别期待它替代 ChatGPT。
投资人关注赛道。Google 在铺基础设施,真正的投资机会在用这个基础设施做垂直应用的创业公司。

资源链接

资源链接
官网ai.google.dev/edge
GitHubgithub.com/google-ai-edge/gallery
App StoreGoogle AI Edge Gallery
Google PlayGoogle AI Edge Gallery
FunctionGemma 模型HuggingFace
微调教程Google Developers Blog
开发者文档Google Developers Blog
Unsloth 微调docs.unsloth.ai

2026-02-28 | Trend-Tracker v7.3 | 数据来源:ProductHunt、Google Developers Blog、GitHub、Twitter/X、VentureBeat、InfoQ、Grand View Research

一句话判断

这是 Google 展示端侧 AI 野心的集大成之作,证明了极小模型也能在手机端实现复杂的 Agent 功能,标志着离线 AI 应用正式进入实用化阶段。

常见问题

关于 Google AI Edge Gallery 的常见问题

Google 推出的开源神器,让手机在完全断网状态下运行大模型,实现聊天、识图、语音转文字及自然语言控机。

Google AI Edge Gallery 的主要功能包括:AI Chat (离线智能对话)、Mobile Actions (自然语言控制手机)、Ask Image (离线图片问答)、Audio Scribe (本地语音转文字)。

Android 版免费;iOS 版 $4.99 一次性买断;模型下载需关联 Hugging Face 账号。

移动端开发者、隐私敏感型用户、AI 应用创业者、IoT 开发者。

Google AI Edge Gallery 的主要竞品包括:Apple Core ML, Ollama, SmolChat, Jan.ai。

数据来源: ProductHunt2026年3月1日
最后更新: