返回探索

Locally Ai For Mac

你的离线私人 AI 助手,让大模型在设备上安家

💡 Locally Ai For Mac 是一款让你的 Mac 和 iOS 设备变身“离线大脑”的神器。它支持在本地直接运行 Qwen、Llama、Gemma 等顶级开源大模型,完全不需要联网,也不收任何订阅费。更重要的是,你的所有聊天记录和敏感数据都只存在你自己的设备上,隐私安全直接拉满,是追求极致隐私和离线办公用户的理想选择。

"它就像是你口袋里的“私人保险柜版”ChatGPT,不需要钥匙(联网),也不收租金,随时随地为你出谋划策。"

30秒快速判断
这App干嘛的:一个完全免费、无需联网、极致保护隐私的 iOS/Mac 本地大模型运行神器。
值不值得关注:非常值得关注。虽然 PH 票数一般,但在 Twitter 上数百万次的播放量足以证明其在端侧 AI 领域的强大吸引力和用户基础。
7/10

热度

8/10

实用

0

投票

产品画像
完整分析报告

Locally AI + Qwen:你手机里的免费私人 AI,不联网也能跑

2026-03-05 | Product Hunt | 官网 | App Store


30秒快速判断

这App干嘛的:一个完全免费的 iOS/iPad/Mac 应用,让你在 iPhone 上本地运行 Qwen、Llama、Gemma、DeepSeek 等开源大模型。没有云端,没有登录,没有订阅费,所有数据留在你设备上。

值不值得关注:值得。虽然 PH 只有 12 票,但开发者 Adrien Grondin 在 Twitter 上发的 Qwen 3.5 跑在 iPhone 17 Pro 上的演示视频拿了 6906 likes、343万次播放。说明产品本身的吸引力远超 PH 数据所反映的。免费+完全隐私+离线可用,这三个卖点组合在一起,对很多人来说就是"不下白不下"。


与我有关三问

与我有关吗?

目标用户是谁

  • 在意隐私的人(不想把聊天内容/敏感信息发到 OpenAI/Google 服务器)
  • 不想为 ChatGPT Plus 每月付 $20 的人
  • 经常没网(飞机上、地铁里、海外)还需要 AI 帮忙的人
  • AI 爱好者/开发者,想在手机上测试各种开源模型
  • 信息安全从业者,需要在不泄露数据的前提下做 AI 分析

我是吗:如果你用过 ChatGPT 但对"我的对话数据去哪了"有过哪怕一秒的犹豫,你就是目标用户。如果你在飞机上想让 AI 帮你改一段文字但没网,你就是。

什么场景会用到

  • 飞机/地铁/偏远地区 → 离线 AI 助手,写邮件、改文案、翻译
  • 处理敏感文件 → 合同审查、财务分析初稿,数据不出设备
  • 日常闲聊 → 不花钱的 AI 伙伴
  • Siri + Shortcuts 自动化 → 用本地模型驱动 Apple 生态自动化流程
  • 不需要这个 → 你只用最强模型(GPT-4o/Claude Opus),对隐私不敏感

对我有用吗?

维度收益代价
时间随时可用,无需等网络/API 响应首次下载模型需几分钟(模型文件 1-4GB)
金钱完全免费,省掉 ChatGPT Plus $20/月零成本(连内购都没有)
精力下载即用,无需注册/登录/配置本地模型能力弱于 GPT-4o,复杂任务仍需云端

ROI 判断:零成本投入,装一个完全不亏。把它当成"不方便用 ChatGPT 时的备选方案"就对了。别期望它能替代 Claude Opus 或 GPT-4o 做深度推理,但处理日常文字任务绰绰有余。

喜闻乐见吗?

爽点在哪

  • 真-零成本:免费、无广告、无内购、无订阅,在 2026 年的 AI 应用里几乎找不到第二个这么良心的
  • 飞行模式照跑:下完模型后断网也能用,这种安全感是云端 AI 给不了的
  • Siri 直接唤起:说一句"Hey, Locally AI"就能开聊,不用打开 App

"哇"的瞬间

"The new Qwen 3.5 running on-device on iPhone 17 Pro. Qwen 3.5 beats models 4 times its size, has strong visual understanding, and can toggle reasoning on or off." — @adrgrondin (6906 likes, 3.43M views)

"iphone'unun icinde, internetsiz, api key'siz, bulut sunucusuz bir LLM calisiyor ve kendinden 4 kat buyuk modelleri dovuyor... 2025'te herkes hangi yapay zekayi kullanalim diye tartisiyordu, 2026'da model telefonunda calisiyor, oyun tamamen degisti" (翻译:你 iPhone 里跑着一个没网、没 API key、没云服务器的 LLM,还打得过比自己大 4 倍的模型...2025年大家还在讨论用哪个AI,2026年模型直接在你手机上跑了,游戏彻底变了) — @sakevoid (688 likes)

用户真实评价

正面:"我们免费得到的东西——而且还是免费的——远超我的预期" — App Store 用户 正面:"真的很棒……它不收集我的任何数据" — 信息安全分析师 吐槽:"在 iPhone Air 上使用时语音模式会崩溃" — App Store 用户 吐槽:"缺少 DeepSeek V3, GPT OSS, Llama 4 轻量化版本" — App Store 用户


给独立开发者

技术栈

  • 前端:SwiftUI(原生 Apple 全平台)
  • 后端:无后端,100% 本地设备运行
  • AI/推理引擎:Apple MLX 框架(利用 Apple Silicon 统一内存架构)
  • 模型格式:MLX 格式(4-bit/6-bit 量化),从 Hugging Face MLX-community 获取
  • 语音:完全本地的 TTS/STT,无云端处理
  • 基础设施:无需服务器,零运维成本

核心功能实现

Locally AI 的技术核心是 Apple 的 MLX 框架。MLX 专为 Apple Silicon 设计,利用统一内存架构(CPU 和 GPU 共享同一块内存),避免了传统框架中 CPU-GPU 数据搬运的开销。模型加载后直接在设备 GPU 上做推理,延迟极低。

Qwen 3.5-2B 在 iPhone 17 Pro 上用 6-bit 量化后,社区测试显示生成速度约 30-50 tokens/秒,接近云端 API 的响应速度但没有网络延迟。模型的"思考/非思考"切换模式也在本地实现——用户可以选择快速回复(低延迟)或开启推理模式(深度思考),有效管理续航和算力分配。

开源情况

  • 开源吗:否,GitHub 上没有公开仓库
  • 类似开源项目mlx-swift-chat(SwiftUI + MLX 的开源聊天 App)、LocalLLMClient(Swift 本地 LLM 客户端库)
  • 自己做难度:中等偏低。核心推理逻辑靠 MLX 框架封装好了,1-2人月可以做出基本版本。难点在打磨 UX(模型管理、Siri 集成、Shortcuts)和持续适配新模型

商业模式

  • 变现方式:目前零变现(完全免费,无广告无内购)
  • 可能的盈利路径:Pro 版订阅(高级功能)、企业版、或被收购
  • 用户量:未公开。但创始人 Twitter 单条推文 343 万播放量说明品牌认知度不低

巨头风险

中等。Apple 在 iOS 26 内置了 Foundation Model (LFM),但目前功能有限(只有基础对话)。Locally AI 的优势是支持十几种开源模型、更灵活、更新更快。真正的风险是 Apple 持续增强原生 AI 能力,把第三方 App 的价值空间挤压掉——但这个周期可能需要 2-3 年。短期内,Locally AI 作为"模型超市"的定位仍然稳固。


给产品经理

痛点分析

  • 解决什么问题:让普通用户零门槛在手机上跑本地大模型(以前这是极客专属操作)
  • 痛点有多痛:中高频刚需。隐私焦虑是真实的(尤其在欧洲 GDPR 背景下),离线 AI 需求随着模型能力提升会越来越高频

用户画像

  • 核心用户:Privacy-first 用户群(安全从业者、律师、医生等处理敏感信息的人)
  • 增长用户:AI 爱好者/技术尝鲜者,想在手机上"跑模型"这件事本身就很酷
  • 潜在用户:不想付 ChatGPT 月费但仍需 AI 的人群

功能拆解

功能类型说明
本地模型推理核心支持 Qwen/Llama/Gemma/DeepSeek 等 10+ 模型
完全离线使用核心下载模型后无需网络
Siri 集成核心"Hey, Locally AI" 直接唤起
Apple Shortcuts核心与 iOS 自动化深度集成
语音对话模式锦上添花本地语音输入输出,但目前有崩溃问题
视觉理解(Qwen VL)锦上添花图片识别能力,依赖 VL 模型
Apple Foundation Model锦上添花集成 iOS 26 内置模型,无需额外下载

竞品差异

维度Locally AIPrivate LLMEnclave AIApollo AI
价格免费~$10 一次性免费+内购免费(开源)
推理引擎MLXmlc-llm(号称更快)MLXllama.cpp
模型量化MLX 原生OmniQuant(更先进)MLX 原生GGUF
Siri/Shortcuts
文档支持有(PDF/TXT)
核心优势免费+模型多+更新快推理速度快隐私极致+文档开源可控

可借鉴的点

  1. 免费策略建立口碑:完全免费在 AI 赛道是差异化,快速积累用户基数
  2. Siri + Shortcuts 集成:把本地 AI 变成系统级能力而不是独立 App,使用频率大幅提升
  3. 模型适配性信息:App 内告知用户"这个模型在你的设备上跑不跑得动",降低预期落差
  4. 紧跟模型发布节奏:Qwen 3.5 发布当天就有 App 适配演示,抢占传播窗口

给科技博主

创始人故事

  • 创始人:Adrien Grondin,法国巴黎
  • 背景:MatchGroup (Meetic/Match.com) 的全职 iOS 开发者。之前在法国家政服务平台 Stootie、智能家居公司 Netatmo 做 iOS 开发。曾共同创立旅游创业公司 Whimtrip
  • 为什么做这个:自称 AI & ML 爱好者,副项目。除了 Locally AI,还做了 Locally Translate(本地翻译 App)和一个 MLX 语音库
  • 有意思的点:白天给约会 App 写代码,晚上回家做 AI App。在 Swift Craft UK 做过 MLX + 本地 LLM 的闪电演讲。一个人撑起整个产品线

争议点/讨论角度

  • "手机跑 AI 到底是不是噱头?":2025年 Callstack 发过一篇文章标题就是 "Local LLMs on Mobile Are a Gimmick",但 2026 年 Qwen 3.5-2B 跑出 30-50 tok/s 的速度,已经不是噱头了
  • 模型幻觉问题:有人用 Locally AI 跑 Qwen 3 时,模型自称是"GPT-3.5 Turbo, jointly developed by OpenAI and Alibaba"——这种身份混淆在本地小模型里很常见,但容易引发信任危机
  • Apple 会不会杀死这个赛道?:iOS 26 已内置 Foundation Model,Apple 历史上有"吃掉第三方 App"的传统

热度数据

  • PH 排名:12 票(低,可能没怎么推广)
  • Twitter 真实热度:创始人的 Qwen 3.5 演示推文 —— 6906 likes、652 转推、330 回复、343 万播放。这个数据级别在独立开发者里非常炸裂
  • 媒体曝光:Simon Willison(知名技术博主)推荐、法国科技播客专访、MacStories App Debuts 收录
  • 搜索趋势:随着 Qwen 3.5 发布,"Qwen iPhone local" 搜索量明显上升

内容建议

  • 适合写的角度:"一个法国独立开发者,白天写约会 App,晚上做的免费 AI App 在 Twitter 上获得 343 万播放"
  • 蹭热点机会:Qwen 3.5 Small 系列刚发布(2026-03-02),"手机跑 AI 不是未来,是现在"这个话题正热
  • 对比评测:Locally AI vs Private LLM vs Enclave AI 三款 App 横评,适合做视频内容

给早期采用者

定价分析

层级价格包含功能够用吗?
免费(唯一档位)$0全部功能、所有模型、Siri 集成、Shortcuts、语音模式完全够用

没有付费版,没有功能阉割。说实话在 2026 年 AI 应用全面收费的大背景下,这种产品让人感动。

上手指南

  • 上手时间:3 分钟
  • 学习曲线:极低
  • 步骤
    1. App Store 搜索 "Locally AI" 下载(免费)
    2. 打开 App,浏览模型列表(App 会标注哪些模型适合你的设备)
    3. 选择一个模型下载(推荐 Qwen 3.5-2B,约 1.5GB)
    4. 下载完成后直接开聊,无需注册/登录
    5. 进阶玩法:设置 Siri 集成、创建 Shortcuts 自动化

坑和吐槽

  1. Voice mode 不稳定:在 iPhone Air 上有崩溃问题,音量也很小。等修复再用
  2. 模型能力天花板:别指望 2B 参数的模型能和 GPT-4o 比。做简单对话、改文字、翻译可以,复杂推理不行
  3. 模型自称错误:有用户反馈 Qwen 3 自称是 GPT-3.5 Turbo,小模型幻觉问题比较明显
  4. 不支持文档上传:目前无法导入 PDF/Word 等文件到对话中,这点不如 Enclave AI
  5. 续航影响:持续推理 2-3 小时会耗完 iPhone 17 Pro 电池,间歇使用 8 小时约耗 15-20% 电量

安全和隐私

  • 数据存储:100% 本地,不联网、不收集、不上传
  • 隐私政策:开发者声明不收集任何数据(App Store Privacy 标签确认)
  • 安全审计:未公开过第三方审计,但由于完全离线运行,攻击面极小

替代方案

替代品优势劣势
Private LLM (~$10)推理更快(mlc-llm 引擎)、量化更优要花钱
Enclave AI(免费+内购)支持 PDF 文档、隐私极致模型支持较少
LM Studio(桌面端免费)功能最强、模型最全只有桌面端,iPhone 上没法用
直接用 Apple Foundation Model零下载、系统集成模型小、能力弱、需 Apple Intelligence 设备

给投资人

市场分析

  • Edge AI 赛道规模:2026 年约 $30-48B(Grand View Research / Fortune Business Insights)
  • 增长率:21-36% CAGR
  • 推理市场:2026 年全球 AI 推理占总算力的 2/3,推理芯片市场超 $50B(Deloitte)
  • 驱动因素:隐私法规趋严(GDPR/各国数据主权)、5G 覆盖不均催生离线需求、端侧芯片算力每代提升 30-40%、小模型能力接近 2-3 年前大模型水平

竞争格局

层级玩家定位
头部平台Apple (Foundation Model)、Google (Gemini Nano)系统级集成,但模型有限
桌面端LM Studio、Jan、Ollama功能最强,开发者工具
移动端付费Private LLM一次性付费,推理优化
移动端免费Locally AI、Enclave AI、Apollo AI免费入口,用户增长快
模型提供方Alibaba Qwen、Meta Llama、Google Gemma持续发布更小更强的模型

Timing 分析

  • 为什么是现在:Qwen 3.5 Small 系列(2026-03-02 发布)标志着"手机跑大模型"从 demo 变成日常可用。0.8B 参数的模型能做 OCR,2B 能做流畅对话,9B 在推理任务上打败 GPT-oss-120B
  • 技术成熟度:MLX 框架已迭代多版,iPhone 15 Pro 以上设备都能流畅运行 2B 模型。M5 芯片 Neural Accelerators 带来 4x 加速
  • 市场准备度:高。ChatGPT 培育了大众 AI 使用习惯,现在用户开始关心"我的数据去哪了"。本地 AI 是自然的下一步

团队背景

  • 创始人:Adrien Grondin,MatchGroup iOS 开发者
  • 核心团队:1 人(独立开发者副项目)
  • 过往项目:Locally Translate(翻译 App)、Whimtrip(旅游创业)

融资情况

  • 已融资:无公开信息,大概率是 bootstrapped 副项目
  • 估值:N/A
  • 投资角度:作为独立项目很亮眼(免费产品、Twitter 百万级曝光、紧跟前沿模型),但 1 人团队、零收入、巨头威胁是明显的风险。更适合作为"端侧 AI 应用"趋势的观察标的,而非直接投资对象

结论

一句话:手机上免费跑 AI 大模型的最佳入口之一,不用花一分钱、不用注册账号、不用联网,装一个不亏。

用户类型建议
开发者值得关注 — MLX + SwiftUI 的技术栈值得学习,自己做一个类似 App 门槛不高(1-2人月),核心差异化在 UX 和模型适配速度
产品经理值得借鉴 — "完全免费+Siri 集成+Shortcuts 自动化"的产品策略让 AI 从独立 App 变成系统级能力,这个思路可以搬到其他场景
博主值得写 — 独立开发者故事+343万播放的病毒传播+"手机跑 AI 不是未来是现在"的话题,适合多种内容形式
早期采用者推荐下载 — 零成本零门槛,作为离线/隐私场景的 ChatGPT 备选方案,先装上不吃亏
投资人观望 — 1人团队零收入,但代表了端侧 AI 的大趋势。关注这个赛道,但等更成熟的标的

资源链接

资源链接
官网https://locallyai.app/
App Storehttps://apps.apple.com/us/app/locally-ai-local-ai-chat/id6741426692
Product Hunthttps://www.producthunt.com/products/locally-ai-for-mac
创始人 Twitterhttps://x.com/adrgrondin
创始人 GitHubhttps://github.com/adrgrondin
病毒推文 (343万播放)https://x.com/adrgrondin/status/2028568689709084919
Simon Willison 推荐https://simonwillison.net/2025/Sep/21/locally-ai/
MLX 框架https://github.com/ml-explore/mlx
Qwen 3.5 发布https://www.marktechpost.com/2026/03/02/alibaba-just-released-qwen-3-5-small-models/

2026-03-05 | Trend-Tracker v7.3

一句话判断

Locally AI 是目前在移动端体验本地大模型的最佳免费入口,它精准踩中了端侧 AI 普及的大趋势,强烈建议所有关注隐私和 AI 技术的用户下载尝试。

常见问题

关于 Locally Ai For Mac 的常见问题

一个完全免费、无需联网、极致保护隐私的 iOS/Mac 本地大模型运行神器。

Locally Ai For Mac 的主要功能包括:支持超过 10 种主流开源大模型的本地推理。、支持完全离线运行,不产生任何流量。、与 Siri 和 Apple Shortcuts 深度集成,实现语音唤起。。

完全免费,没有任何内购或订阅陷阱。

对隐私极度敏感的用户、不想支付昂贵订阅费的人群、经常在无网环境下工作的专业人士以及 AI 开发者。

Locally Ai For Mac 的主要竞品包括:Private LLM, Enclave AI, Apollo AI。

数据来源: ProductHunt2026年3月5日
最后更新: