mvntSTUDIO:K-POP 编舞师做的 AI 舞蹈生成器,思路对但时机尚早
2026-02-28 | ProductHunt | 官网 | Hacker News

界面解读:左侧粘贴 YouTube 链接,右侧实时预览 3D 人偶跳舞。交互非常直觉——丢个链接进去,等 3 分钟,一段编舞就出来了。
30秒快速判断
这App干嘛的:给它一首歌(YouTube 链接或音频文件),AI 自动生成一段 3D 舞蹈动画。不是套模板,是从音乐节奏出发"原创"编舞。
值不值得关注:值得收藏观望,但现在不值得花太多时间。产品是 v0.1 公开测试版,连 MP4 下载都还没做好。真正有意思的是背后的团队——BTS/Seventeen 的编舞师 + 现代舞创业者,拿了 Epic MegaGrant 和 NVIDIA Inception,这不是一个随便玩玩的 side project。
与我有关三问
与我有关吗?
目标用户画像:
- 短视频创作者:想给 TikTok/抖音视频配上独特舞蹈动画
- K-POP / 舞蹈爱好者:想可视化自己脑海中的编舞
- 游戏/动画开发者:需要角色舞蹈动作的 3D 动画资产
- 专业编舞师:用 AI 辅助创意构思,快速原型
我是目标用户吗? 如果你做短视频内容、搞 3D 动画、或者和舞蹈/K-POP 相关的创作,这就是给你准备的。如果你只是普通开发者或产品经理,更多是"开眼界"的价值。
对我有用吗?
| 维度 | 收益 | 代价 |
|---|---|---|
| 时间 | 3 分钟生成一段编舞,传统方式需要请编舞师 + 动捕设备 | 当前质量有限,可能需要后期调整 |
| 金钱 | 现在完全免费 | 未来定价不明 |
| 精力 | 丢个 YouTube 链接就行,零门槛 | 产品极早期,功能残缺(无 MP4 下载、无手指/面部动作) |
ROI 判断:现阶段玩一玩体验下就好,别指望用在正式项目里。但如果你是做舞蹈/动画相关内容的,值得加入他们社区跟进——这个团队的背景意味着产品会持续迭代。
喜闻乐见吗?
爽点在哪:
- 零门槛编舞:粘贴 YouTube 链接 → 3 分钟出结果,这个体验本身就很有趣
- Image to Dance:上传任意角色图片让它跳舞(用了 Tripo AI v3),把一拳超人、海绵宝宝之类的角色拿来跳舞,社区 Gallery 里全是这种"搞怪"创作

社区 Gallery:用户让各种角色(派大星、Baby Shark、动漫角色)跳舞,这种"搞怪"玩法是产品目前最大的乐趣来源。
创始人的话:
"我们只是觉得把它们像公共测试台一样开放,分享过程,并作为一个社区一起玩耍,纯粹是非常有趣的事情。" — @jooooooooonjung (来源)
给独立开发者
技术栈
- 核心模型: mvnt-m4,自研扩散模型(基于扩散模型的音乐转动作生成)
- 基础架构: 基于 Stanford EDGE (CVPR 2023) 改进的 EDGE++
- 音乐编码: 冻结的 Jukebox 模型提取音乐特征 → 基于 Transformer 的扩散模型生成 5 秒舞蹈片段
- 3D 角色渲染: Tripo AI v3(Image to Dance 功能)
- 训练数据: 专有动捕数据集,规模远超 AIST++(5.2小时、10种舞蹈风格),来自专业编舞师
- 部署: 基于 Web,正在迁移到 g7e 实例以加速推理
- 产品形态: 浏览器端 playground
核心技术逻辑
说白了就是:音乐 → Jukebox 提取节奏/旋律特征 → 扩散模型"去噪"生成动作序列 → 渲染成 3D 动画。
EDGE 的核心创新是用扩散模型替代了之前的 GAN/Transformer 方案,天然支持编辑能力(比如指定某个关节的动作、在两个关键帧之间插值)。mvntSTUDIO 在此基础上用更大的数据集训练了 EDGE++,追求更高质量和多风格支持。
开源情况
- mvntSTUDIO 本身: 不开源。GitHub 组织 (github.com/mvnt) 没有公开代码
- 基础论文: EDGE 完全开源 → GitHub - Stanford-TML/EDGE
- 类似开源项目: LODGE (CVPR 2024, 长序列舞蹈生成)、DanceRevolution、Bailando
- 自己做难度: 中高。EDGE 开源代码可以跑通,但要做到产品级质量需要大量高质量动捕数据(这是核心壁垒)。预估 3-6 人月可做到 demo 级别,但数据采集才是真正的难题。
商业模式
- 当前: 免费 playground(用户验证阶段)
- 母公司 MVNT 的变现路径:
- Emote Publisher:给游戏公司卖舞蹈动作 IP(K-POP 编舞、传统舞蹈等)
- Zepeto 合作:在 Naver Z 的元宇宙平台上卖舞蹈虚拟商品(2000万月活用户)
- 编舞版权管理:帮编舞师收版税(类似音乐版权的 ASCAP)
巨头风险
有风险但不致命。Linus Ekenstam(Twitter 知名 AI 评论者)在最近的推文中提到 Google Labs 的 AISOMA 项目也在做 AI 编舞。但舞蹈生成这个赛道有两个天然壁垒:
- 数据壁垒: 高质量编舞动捕数据需要专业舞者配合采集,MVNT 的联合创始人是 K-POP 顶级编舞师,这个资源不是大厂花钱就能快速复制的
- 版权壁垒: MVNT 拿了韩国著作权委员会的编舞经纪牌照,在 K-POP 编舞 IP 这个细分领域有先发优势
给产品经理
痛点分析
- 核心问题: AI 生成内容已经覆盖了文字、图片、音乐、视频,但"舞蹈/动作"这一块几乎是空白
- 痛点有多痛: 中频刚需。对短视频创作者来说,想给内容加舞蹈动画目前要么请编舞师 + 动捕(贵),要么用模板(没创意)。但这个痛点不是"不解决就活不下去"的级别
- 更深层痛点: 编舞师创作了 K-POP 标志性舞蹈,但无法像作曲/作词一样获得版税。MVNT 想从根本上改变这个现状
用户画像
| 用户类型 | 频率 | 付费意愿 |
|---|---|---|
| TikTok/短视频创作者 | 高频 | 低-中(免费为主) |
| 游戏开发者(需要角色动作) | 中频 | 高(B2B) |
| K-POP 娱乐公司 | 低频高价值 | 高(IP 交易) |
| 专业编舞师 | 低频 | 低(工具辅助) |
功能拆解
| 功能 | 类型 | 说明 |
|---|---|---|
| Music to Dance | 核心 | YouTube 链接 → 3D 舞蹈,< 3分钟 |
| Image to Dance | 核心 | 上传角色图片 → 让它跳舞 |
| Community Gallery | 增长 | 用户作品展示,社交证明 |
| Screen Recording | 基础 | 屏幕录制导出(MP4 下载开发中) |
| Choreography Assistant | 规划中 | 专业编舞师辅助工具 |
| MVNT Studio Compose | 规划中 | B2B 游戏/虚拟环境动作生成 |
竞品差异
| 维度 | mvntSTUDIO | DeepMotion ($17/月) | Krikey AI (免费/$15/月) | Freebeat |
|---|---|---|---|---|
| 核心能力 | 音乐→原创编舞 | 视频→3D动作捕捉 | 模板驱动3D动画 | 音乐→2D舞蹈视频 |
| 创新点 | AI 从零编舞 | 还原真人动作 | 一站式动画制作 | 节拍匹配视觉 |
| 输出格式 | 3D 动画(WebGL) | FBX | 视频/FBX/GIF | 视频 |
| 数据来源 | 编舞师授权动捕 | 用户上传视频 | 预设模板 | AI生成 |
| 最佳场景 | 创意编舞/K-POP | 游戏动画制作 | 教育/营销 | 短视频 |
关键差异: 大部分竞品做的是"动作迁移"(motion transfer)——把已有的舞蹈动作套到角色上。mvntSTUDIO 做的是"动作生成"(motion generation)——从音乐直接创造新编舞。这是本质区别。
可借鉴的点
- "playground" 发布策略: 不等产品完善就开放测试,用社区 Gallery 的搞怪创作(让各种角色跳舞)制造传播力
- UGC 工作流整合: 明确标注可以把生成的舞蹈导出为 Kling AI、Seedance 的动作参考,把自己定位为创作工具链的一环

工作流整合思路:Suno 生成音乐 → Tripo 生成角色 → mvntSTUDIO 生成舞蹈 → Kling AI 生成最终视频。这个 pipeline 的定位很聪明。
给科技博主
创始人故事
这是一个很有故事性的团队:
-
최영준 (Choi Youngjun): 韩国顶级 K-POP 编舞师,TEAM SAME 负责人,2010 年入行,累计编舞 700+ 支。代表作包括 BTS、Seventeen、TWICE、Wanna One 的编舞。2020年获韩国总理奖(大众文化艺术奖)。他亲身经历了编舞师"有名无利"的困境——K-POP 的标志性舞蹈传遍全球,但编舞师只拿一次性服务费,没有版税。
-
정의준 (Jung Eui-jun): CEO,现代舞专业出身,之前是创业共居空间 'nonce' 的创始成员。把舞蹈背景和创业能力结合起来。
创业动机: 他们看到编舞师的创作不被当作"知识产权"保护,决定用 AI + 区块链技术建立编舞 IP 体系。mvntSTUDIO 是这个愿景的消费端产品。
争议点/讨论角度
- AI 编舞会取代编舞师吗? MVNT 的答案是"不会"——他们强调所有训练数据都经编舞师授权,且目标是帮编舞师获得版税,而不是替代他们。但这个话题本身就有讨论空间。CalMatters 的报道 做了 AI 舞蹈生成的测试,结论是"AI 还不太会跳舞"——这既是挑战也是机会。
- K-POP 编舞版权: 一个很有意思的切入角度。K-POP 全球爆火,但编舞师几乎不赚钱。Naver Z (Zepeto) 已经和 MVNT 签了合作协议,要保护编舞版权。
- Web3 元素: MVNT 的 GitHub 自我介绍是 "Web 3.0 Entertainments",但目前产品里看不到明显的区块链/Token 元素。可以追问。
热度数据
- ProductHunt: 2 票,几乎没有热度
- Hacker News: Show HN 帖子已发布,早期阶段
- Twitter/X: 创始人自己的帖子 4 赞 / 132 浏览,知名 AI 评论者 Linus Ekenstam 提到了 Google 的竞品 AISOMA (86 赞)
- 整体判断: 极早期,公众认知接近零。但"K-POP 编舞师用 AI 做编舞工具"这个叙事本身有话题性
内容建议
- 最佳角度: "BTS 编舞师的 AI 创业故事"——把技术和 K-POP 文化结合,既有人物故事又有技术深度
- 蹭热点: 如果 AI 编舞在 TikTok 上火起来(类似之前的 AI 换装),这是第一个专门做这个的产品
- 对比评测: 把 mvntSTUDIO、DeepMotion、Krikey、Freebeat 做个横评,用同一首歌生成舞蹈对比
给早期采用者
定价分析
| 层级 | 价格 | 包含功能 | 够用吗? |
|---|---|---|---|
| 当前(v0.1) | 完全免费 | 音乐转舞蹈、图片转舞蹈、屏幕录制、社区画廊 | 能玩,但功能残缺 |
| 未来 | 未公布 | 预计会有付费层级 | 待观察 |
上手指南
- 上手时间: 1 分钟
- 学习曲线: 极低——粘贴链接就行
- 步骤:
- 打开 mvnt.studio
- 粘贴 YouTube 链接或上传 .wav 文件
- 等待 ~3 分钟
- 看 3D 角色跳舞,可以用屏幕录制导出
- (可选)上传角色图片,让自定义角色跳舞
坑和吐槽
- 没有 MP4 下载: 只能屏幕录制,不方便。创始人说正在开发中
- 没有手指/面部动作: 3D 角色看起来像提线木偶,缺乏细节
- 舞蹈质量: v0.1 的 m4 模型质量还在提升中,m4.1 开发中
- 产品极早期: 明确是 "公共测试台",别对质量期望太高
- 社区登录: 还不支持社交账号登录
安全和隐私
- 数据存储: 云端处理(上传的音乐/图片在服务器处理)
- 隐私政策: 未找到明确的隐私政策页面
- 安全审计: 无
替代方案
| 替代品 | 优势 | 劣势 |
|---|---|---|
| DeepMotion | 动作捕捉精度高,支持 FBX 导出 | $17/月起,不生成原创编舞 |
| Krikey AI | 一站式 3D 动画,有免费档 | 模板驱动,创意有限 |
| Freebeat | 音乐驱动视频生成,节拍匹配好 | 2D 视频,不是 3D 动画 |
| EDGE 开源代码 | 完全免费开源,可自部署 | 需要技术能力,质量一般 |
给投资人
市场分析
- 3D 动捕市场: $319.25M (2026) → $595.37M (2031),CAGR 13.27%
- 生成式 AI 动画市场: $652.1M (2024) → $13.4B (2033),CAGR 39.8% — 这是增速最快的细分
- 动画与 VFX 总市场: $220.69B (2026),CAGR 11.86%
- 驱动因素: 短视频创作需求爆发、AI 推理成本下降、无标记动捕技术成熟、元宇宙/虚拟人需求
竞争格局
| 层级 | 玩家 | 定位 |
|---|---|---|
| 大厂实验 | Google Labs (AISOMA)、Meta | 研究阶段,未产品化 |
| 头部工具 | DeepMotion、Move.ai | 专业级动作捕捉,面向工作室 |
| 腰部产品 | Krikey、Viggle、Freebeat | 消费级动画/视频工具 |
| 新进入者 | mvntSTUDIO | 唯一专注"音乐→原创编舞"的产品 |
| 开源社区 | Stanford EDGE、LODGE | 学术论文 + 开源实现 |
Timing 分析
-
为什么是现在:
- AI 生成内容已覆盖文/图/音/视频,"动作/舞蹈"是最后一块空白
- 短视频平台(TikTok、抖音)让舞蹈内容的需求暴涨
- 扩散模型在动作生成领域刚达到"可用"的质量门槛
- K-POP 编舞版权问题引发行业关注,韩国已开始立法
-
风险: 技术还不够成熟(AI 生成的舞蹈质量距离人类编舞有明显差距),需要 1-2 年才能达到生产级(production-ready)
团队背景
- CEO 정의준 (Jung Eui-jun): 现代舞 + 创业背景
- 联创 최영준 (Choi Youngjun): K-POP 顶级编舞师,BTS/Seventeen/TWICE 编舞,700+ 作品
- 团队规模: 未披露(预估小团队 5-10 人)
- 独特优势: 编舞行业顶级资源 + AI 技术能力的罕见组合
融资情况
- 已融资: 种子轮(金额未披露)
- 投资方: Mashup Ventures、NVIDIA Inception Program、Google for Startups
- Mashup Ventures 评价: "MVNT 有望成为编舞版权界的环球音乐集团"
- 其他: 获 Epic Games MegaGrant、韩国著作权委员会编舞经纪牌照
- Naver Z 合作: 与 Zepeto(2000万月活)达成编舞 IP 分发合作
结论
一句话判断: mvntSTUDIO 的方向对(AI 编舞是真空地带),团队对(K-POP 顶级编舞师 + AI 技术),但产品极早期——现在是"关注"的时候,不是"大规模使用"的时候。
| 用户类型 | 建议 |
|---|---|
| 开发者 | 观望。技术基于开源 EDGE,核心壁垒在数据而非算法。想做类似产品可以从 EDGE 开源代码起步 |
| 产品经理 | 收藏。"playground + 社区画廊"的冷启动策略值得学习,UGC 工作流整合的思路很聪明 |
| 博主 | 推荐关注。"BTS 编舞师做 AI 创业"这个故事有写头,但等产品质量提升后再写评测 |
| 早期采用者 | 去玩一下。免费的,体验一下"音乐→舞蹈"的魔法,但别指望用在正式项目里 |
| 投资人 | 值得跟踪。团队资源稀缺,赛道增长 39.8% CAGR,但产品成熟度还需要 1-2 年 |
资源链接
| 资源 | 链接 |
|---|---|
| 官网 | mvnt.studio |
| ProductHunt | mvntSTUDIO |
| Hacker News | Show HN |
| 母公司 | mvnt.world |
| 技术文档 | MVNT Docs |
| GitHub | github.com/mvnt |
| EDGE 论文 | edge-dance.github.io |
| Crunchbase | MVNT |
| 创始人 Twitter | @jooooooooonjung |
| 融资新闻 | WOWTALE |
2026-02-28 | Trend-Tracker v7.3