Locally AI + Qwen:你手机里的免费私人 AI,不联网也能跑
2026-03-05 | Product Hunt | 官网 | App Store
30秒快速判断
这App干嘛的:一个完全免费的 iOS/iPad/Mac 应用,让你在 iPhone 上本地运行 Qwen、Llama、Gemma、DeepSeek 等开源大模型。没有云端,没有登录,没有订阅费,所有数据留在你设备上。
值不值得关注:值得。虽然 PH 只有 12 票,但开发者 Adrien Grondin 在 Twitter 上发的 Qwen 3.5 跑在 iPhone 17 Pro 上的演示视频拿了 6906 likes、343万次播放。说明产品本身的吸引力远超 PH 数据所反映的。免费+完全隐私+离线可用,这三个卖点组合在一起,对很多人来说就是"不下白不下"。
与我有关三问
与我有关吗?
目标用户是谁:
- 在意隐私的人(不想把聊天内容/敏感信息发到 OpenAI/Google 服务器)
- 不想为 ChatGPT Plus 每月付 $20 的人
- 经常没网(飞机上、地铁里、海外)还需要 AI 帮忙的人
- AI 爱好者/开发者,想在手机上测试各种开源模型
- 信息安全从业者,需要在不泄露数据的前提下做 AI 分析
我是吗:如果你用过 ChatGPT 但对"我的对话数据去哪了"有过哪怕一秒的犹豫,你就是目标用户。如果你在飞机上想让 AI 帮你改一段文字但没网,你就是。
什么场景会用到:
- 飞机/地铁/偏远地区 → 离线 AI 助手,写邮件、改文案、翻译
- 处理敏感文件 → 合同审查、财务分析初稿,数据不出设备
- 日常闲聊 → 不花钱的 AI 伙伴
- Siri + Shortcuts 自动化 → 用本地模型驱动 Apple 生态自动化流程
- 不需要这个 → 你只用最强模型(GPT-4o/Claude Opus),对隐私不敏感
对我有用吗?
| 维度 | 收益 | 代价 |
|---|---|---|
| 时间 | 随时可用,无需等网络/API 响应 | 首次下载模型需几分钟(模型文件 1-4GB) |
| 金钱 | 完全免费,省掉 ChatGPT Plus $20/月 | 零成本(连内购都没有) |
| 精力 | 下载即用,无需注册/登录/配置 | 本地模型能力弱于 GPT-4o,复杂任务仍需云端 |
ROI 判断:零成本投入,装一个完全不亏。把它当成"不方便用 ChatGPT 时的备选方案"就对了。别期望它能替代 Claude Opus 或 GPT-4o 做深度推理,但处理日常文字任务绰绰有余。
喜闻乐见吗?
爽点在哪:
- 真-零成本:免费、无广告、无内购、无订阅,在 2026 年的 AI 应用里几乎找不到第二个这么良心的
- 飞行模式照跑:下完模型后断网也能用,这种安全感是云端 AI 给不了的
- Siri 直接唤起:说一句"Hey, Locally AI"就能开聊,不用打开 App
"哇"的瞬间:
"The new Qwen 3.5 running on-device on iPhone 17 Pro. Qwen 3.5 beats models 4 times its size, has strong visual understanding, and can toggle reasoning on or off." — @adrgrondin (6906 likes, 3.43M views)
"iphone'unun icinde, internetsiz, api key'siz, bulut sunucusuz bir LLM calisiyor ve kendinden 4 kat buyuk modelleri dovuyor... 2025'te herkes hangi yapay zekayi kullanalim diye tartisiyordu, 2026'da model telefonunda calisiyor, oyun tamamen degisti" (翻译:你 iPhone 里跑着一个没网、没 API key、没云服务器的 LLM,还打得过比自己大 4 倍的模型...2025年大家还在讨论用哪个AI,2026年模型直接在你手机上跑了,游戏彻底变了) — @sakevoid (688 likes)
用户真实评价:
正面:"我们免费得到的东西——而且还是免费的——远超我的预期" — App Store 用户 正面:"真的很棒……它不收集我的任何数据" — 信息安全分析师 吐槽:"在 iPhone Air 上使用时语音模式会崩溃" — App Store 用户 吐槽:"缺少 DeepSeek V3, GPT OSS, Llama 4 轻量化版本" — App Store 用户
给独立开发者
技术栈
- 前端:SwiftUI(原生 Apple 全平台)
- 后端:无后端,100% 本地设备运行
- AI/推理引擎:Apple MLX 框架(利用 Apple Silicon 统一内存架构)
- 模型格式:MLX 格式(4-bit/6-bit 量化),从 Hugging Face MLX-community 获取
- 语音:完全本地的 TTS/STT,无云端处理
- 基础设施:无需服务器,零运维成本
核心功能实现
Locally AI 的技术核心是 Apple 的 MLX 框架。MLX 专为 Apple Silicon 设计,利用统一内存架构(CPU 和 GPU 共享同一块内存),避免了传统框架中 CPU-GPU 数据搬运的开销。模型加载后直接在设备 GPU 上做推理,延迟极低。
Qwen 3.5-2B 在 iPhone 17 Pro 上用 6-bit 量化后,社区测试显示生成速度约 30-50 tokens/秒,接近云端 API 的响应速度但没有网络延迟。模型的"思考/非思考"切换模式也在本地实现——用户可以选择快速回复(低延迟)或开启推理模式(深度思考),有效管理续航和算力分配。
开源情况
- 开源吗:否,GitHub 上没有公开仓库
- 类似开源项目:mlx-swift-chat(SwiftUI + MLX 的开源聊天 App)、LocalLLMClient(Swift 本地 LLM 客户端库)
- 自己做难度:中等偏低。核心推理逻辑靠 MLX 框架封装好了,1-2人月可以做出基本版本。难点在打磨 UX(模型管理、Siri 集成、Shortcuts)和持续适配新模型
商业模式
- 变现方式:目前零变现(完全免费,无广告无内购)
- 可能的盈利路径:Pro 版订阅(高级功能)、企业版、或被收购
- 用户量:未公开。但创始人 Twitter 单条推文 343 万播放量说明品牌认知度不低
巨头风险
中等。Apple 在 iOS 26 内置了 Foundation Model (LFM),但目前功能有限(只有基础对话)。Locally AI 的优势是支持十几种开源模型、更灵活、更新更快。真正的风险是 Apple 持续增强原生 AI 能力,把第三方 App 的价值空间挤压掉——但这个周期可能需要 2-3 年。短期内,Locally AI 作为"模型超市"的定位仍然稳固。
给产品经理
痛点分析
- 解决什么问题:让普通用户零门槛在手机上跑本地大模型(以前这是极客专属操作)
- 痛点有多痛:中高频刚需。隐私焦虑是真实的(尤其在欧洲 GDPR 背景下),离线 AI 需求随着模型能力提升会越来越高频
用户画像
- 核心用户:Privacy-first 用户群(安全从业者、律师、医生等处理敏感信息的人)
- 增长用户:AI 爱好者/技术尝鲜者,想在手机上"跑模型"这件事本身就很酷
- 潜在用户:不想付 ChatGPT 月费但仍需 AI 的人群
功能拆解
| 功能 | 类型 | 说明 |
|---|---|---|
| 本地模型推理 | 核心 | 支持 Qwen/Llama/Gemma/DeepSeek 等 10+ 模型 |
| 完全离线使用 | 核心 | 下载模型后无需网络 |
| Siri 集成 | 核心 | "Hey, Locally AI" 直接唤起 |
| Apple Shortcuts | 核心 | 与 iOS 自动化深度集成 |
| 语音对话模式 | 锦上添花 | 本地语音输入输出,但目前有崩溃问题 |
| 视觉理解(Qwen VL) | 锦上添花 | 图片识别能力,依赖 VL 模型 |
| Apple Foundation Model | 锦上添花 | 集成 iOS 26 内置模型,无需额外下载 |
竞品差异
| 维度 | Locally AI | Private LLM | Enclave AI | Apollo AI |
|---|---|---|---|---|
| 价格 | 免费 | ~$10 一次性 | 免费+内购 | 免费(开源) |
| 推理引擎 | MLX | mlc-llm(号称更快) | MLX | llama.cpp |
| 模型量化 | MLX 原生 | OmniQuant(更先进) | MLX 原生 | GGUF |
| Siri/Shortcuts | 有 | 有 | 有 | 无 |
| 文档支持 | 无 | 无 | 有(PDF/TXT) | 无 |
| 核心优势 | 免费+模型多+更新快 | 推理速度快 | 隐私极致+文档 | 开源可控 |
可借鉴的点
- 免费策略建立口碑:完全免费在 AI 赛道是差异化,快速积累用户基数
- Siri + Shortcuts 集成:把本地 AI 变成系统级能力而不是独立 App,使用频率大幅提升
- 模型适配性信息:App 内告知用户"这个模型在你的设备上跑不跑得动",降低预期落差
- 紧跟模型发布节奏:Qwen 3.5 发布当天就有 App 适配演示,抢占传播窗口
给科技博主
创始人故事
- 创始人:Adrien Grondin,法国巴黎
- 背景:MatchGroup (Meetic/Match.com) 的全职 iOS 开发者。之前在法国家政服务平台 Stootie、智能家居公司 Netatmo 做 iOS 开发。曾共同创立旅游创业公司 Whimtrip
- 为什么做这个:自称 AI & ML 爱好者,副项目。除了 Locally AI,还做了 Locally Translate(本地翻译 App)和一个 MLX 语音库
- 有意思的点:白天给约会 App 写代码,晚上回家做 AI App。在 Swift Craft UK 做过 MLX + 本地 LLM 的闪电演讲。一个人撑起整个产品线
争议点/讨论角度
- "手机跑 AI 到底是不是噱头?":2025年 Callstack 发过一篇文章标题就是 "Local LLMs on Mobile Are a Gimmick",但 2026 年 Qwen 3.5-2B 跑出 30-50 tok/s 的速度,已经不是噱头了
- 模型幻觉问题:有人用 Locally AI 跑 Qwen 3 时,模型自称是"GPT-3.5 Turbo, jointly developed by OpenAI and Alibaba"——这种身份混淆在本地小模型里很常见,但容易引发信任危机
- Apple 会不会杀死这个赛道?:iOS 26 已内置 Foundation Model,Apple 历史上有"吃掉第三方 App"的传统
热度数据
- PH 排名:12 票(低,可能没怎么推广)
- Twitter 真实热度:创始人的 Qwen 3.5 演示推文 —— 6906 likes、652 转推、330 回复、343 万播放。这个数据级别在独立开发者里非常炸裂
- 媒体曝光:Simon Willison(知名技术博主)推荐、法国科技播客专访、MacStories App Debuts 收录
- 搜索趋势:随着 Qwen 3.5 发布,"Qwen iPhone local" 搜索量明显上升
内容建议
- 适合写的角度:"一个法国独立开发者,白天写约会 App,晚上做的免费 AI App 在 Twitter 上获得 343 万播放"
- 蹭热点机会:Qwen 3.5 Small 系列刚发布(2026-03-02),"手机跑 AI 不是未来,是现在"这个话题正热
- 对比评测:Locally AI vs Private LLM vs Enclave AI 三款 App 横评,适合做视频内容
给早期采用者
定价分析
| 层级 | 价格 | 包含功能 | 够用吗? |
|---|---|---|---|
| 免费(唯一档位) | $0 | 全部功能、所有模型、Siri 集成、Shortcuts、语音模式 | 完全够用 |
没有付费版,没有功能阉割。说实话在 2026 年 AI 应用全面收费的大背景下,这种产品让人感动。
上手指南
- 上手时间:3 分钟
- 学习曲线:极低
- 步骤:
- App Store 搜索 "Locally AI" 下载(免费)
- 打开 App,浏览模型列表(App 会标注哪些模型适合你的设备)
- 选择一个模型下载(推荐 Qwen 3.5-2B,约 1.5GB)
- 下载完成后直接开聊,无需注册/登录
- 进阶玩法:设置 Siri 集成、创建 Shortcuts 自动化
坑和吐槽
- Voice mode 不稳定:在 iPhone Air 上有崩溃问题,音量也很小。等修复再用
- 模型能力天花板:别指望 2B 参数的模型能和 GPT-4o 比。做简单对话、改文字、翻译可以,复杂推理不行
- 模型自称错误:有用户反馈 Qwen 3 自称是 GPT-3.5 Turbo,小模型幻觉问题比较明显
- 不支持文档上传:目前无法导入 PDF/Word 等文件到对话中,这点不如 Enclave AI
- 续航影响:持续推理 2-3 小时会耗完 iPhone 17 Pro 电池,间歇使用 8 小时约耗 15-20% 电量
安全和隐私
- 数据存储:100% 本地,不联网、不收集、不上传
- 隐私政策:开发者声明不收集任何数据(App Store Privacy 标签确认)
- 安全审计:未公开过第三方审计,但由于完全离线运行,攻击面极小
替代方案
| 替代品 | 优势 | 劣势 |
|---|---|---|
| Private LLM (~$10) | 推理更快(mlc-llm 引擎)、量化更优 | 要花钱 |
| Enclave AI(免费+内购) | 支持 PDF 文档、隐私极致 | 模型支持较少 |
| LM Studio(桌面端免费) | 功能最强、模型最全 | 只有桌面端,iPhone 上没法用 |
| 直接用 Apple Foundation Model | 零下载、系统集成 | 模型小、能力弱、需 Apple Intelligence 设备 |
给投资人
市场分析
- Edge AI 赛道规模:2026 年约 $30-48B(Grand View Research / Fortune Business Insights)
- 增长率:21-36% CAGR
- 推理市场:2026 年全球 AI 推理占总算力的 2/3,推理芯片市场超 $50B(Deloitte)
- 驱动因素:隐私法规趋严(GDPR/各国数据主权)、5G 覆盖不均催生离线需求、端侧芯片算力每代提升 30-40%、小模型能力接近 2-3 年前大模型水平
竞争格局
| 层级 | 玩家 | 定位 |
|---|---|---|
| 头部平台 | Apple (Foundation Model)、Google (Gemini Nano) | 系统级集成,但模型有限 |
| 桌面端 | LM Studio、Jan、Ollama | 功能最强,开发者工具 |
| 移动端付费 | Private LLM | 一次性付费,推理优化 |
| 移动端免费 | Locally AI、Enclave AI、Apollo AI | 免费入口,用户增长快 |
| 模型提供方 | Alibaba Qwen、Meta Llama、Google Gemma | 持续发布更小更强的模型 |
Timing 分析
- 为什么是现在:Qwen 3.5 Small 系列(2026-03-02 发布)标志着"手机跑大模型"从 demo 变成日常可用。0.8B 参数的模型能做 OCR,2B 能做流畅对话,9B 在推理任务上打败 GPT-oss-120B
- 技术成熟度:MLX 框架已迭代多版,iPhone 15 Pro 以上设备都能流畅运行 2B 模型。M5 芯片 Neural Accelerators 带来 4x 加速
- 市场准备度:高。ChatGPT 培育了大众 AI 使用习惯,现在用户开始关心"我的数据去哪了"。本地 AI 是自然的下一步
团队背景
- 创始人:Adrien Grondin,MatchGroup iOS 开发者
- 核心团队:1 人(独立开发者副项目)
- 过往项目:Locally Translate(翻译 App)、Whimtrip(旅游创业)
融资情况
- 已融资:无公开信息,大概率是 bootstrapped 副项目
- 估值:N/A
- 投资角度:作为独立项目很亮眼(免费产品、Twitter 百万级曝光、紧跟前沿模型),但 1 人团队、零收入、巨头威胁是明显的风险。更适合作为"端侧 AI 应用"趋势的观察标的,而非直接投资对象
结论
一句话:手机上免费跑 AI 大模型的最佳入口之一,不用花一分钱、不用注册账号、不用联网,装一个不亏。
| 用户类型 | 建议 |
|---|---|
| 开发者 | 值得关注 — MLX + SwiftUI 的技术栈值得学习,自己做一个类似 App 门槛不高(1-2人月),核心差异化在 UX 和模型适配速度 |
| 产品经理 | 值得借鉴 — "完全免费+Siri 集成+Shortcuts 自动化"的产品策略让 AI 从独立 App 变成系统级能力,这个思路可以搬到其他场景 |
| 博主 | 值得写 — 独立开发者故事+343万播放的病毒传播+"手机跑 AI 不是未来是现在"的话题,适合多种内容形式 |
| 早期采用者 | 推荐下载 — 零成本零门槛,作为离线/隐私场景的 ChatGPT 备选方案,先装上不吃亏 |
| 投资人 | 观望 — 1人团队零收入,但代表了端侧 AI 的大趋势。关注这个赛道,但等更成熟的标的 |
资源链接
2026-03-05 | Trend-Tracker v7.3