Google Photos 新功能:AI 扫描旧照片,Wardrobe 实现你的虚拟试衣间

Google 相簿 即将推出「Wardrobe」功能,自动扫描用户相册、建立数码衣橱并支持虚拟试穿;核心是「Nano Banana」模型,负责识别衣物、生成数码化身与渲染试穿效果;功能将先在 Android 设备上线(2026 年夏天),iOS 支持稍后跟进。
(前情提要:Nano Banana 2 来了!支持 4K 强化角色一致性,Gemini 生图更快更准)
(背景补充:a16z 最新 AI 百大应用榜单:ChatGPT 稳坐龙头,平台品牌卡位战正式开打)

本文目录

切换

  • 衣橱 AI 怎么运作
  • 这和去年的试穿功能有何不同
  • 手机相册正在变成另一种入口

1995 年的电影《独领风骚》有一幕让人印象深刻:女主角站在屏幕前,电脑自动从衣橱里抓取衣物、即时配对出当天造型。如今那个场景在 AI 帮助下逐渐成真。

Google 在官方公告中表示,Google 相簿正式推出「Wardrobe」功能。系统会主动扫描用户相册,从过去拍过的照片中识别出曾穿过的衣物,按上衣、下装、裙子、洋装、鞋子等类别自动整理,建立一个可互动的数码衣橱。

衣橱 AI 怎么运作

功能的核心是「Nano Banana」模型,系统会生成一个你的数码化身,然后把你选定的服装组合渲染到那个化身上,完成「虚拟试穿」。

整个流程在设备端执行。用户不需要上传任何额外资料,系统从现有相册就地处理,喜欢的组合还可以储存为「moodboard」,也可以分享给朋友。

不过要提醒的是 Nano Banana 负责的是识别与渲染,不负责「建议你今天穿什么」。它是工具,不是造型师。

这和去年的试穿功能有何不同

Google 在 2025 年曾在 Search 推出 AI 试穿功能,但那个版本的使用情境是:你在 Google 搜索一件商品,想知道穿起来什么感觉,系统让你试穿后决定要不要买。核心逻辑是「购物辅助」。

这次的 Wardrobe 功能逻辑截然不同。应用对象从「准备购买的商品」变成「你已经拥有的衣物」,从消费行为切入改为日常管理切入。用户的相册不再只是记忆储存库,而变成一个可操作的服装数据库。

部分 Android 设备(如 Motorola Razr)已在测试,正式版预计 2026 年夏天前推出,iOS 版本将在此后跟进。

手机相册正在变成另一种入口

Google 近年来持续将 AI 能力嵌入旗下消费者应用:Gemini 进入 Gmail、Docs、Maps,AI 生成摘要出现在 Search 结果页,照片 App 已有 Magic Eraser 去除杂物、Photo Unblur 修复模糊照片。

Wardrobe 是这条路线的延续,只是这次的场景更私密:你的穿着历史。

不过有一个值得思考的问题是:当 AI 系统可以从你过去几年的照片里,自动建立一份关于你穿着偏好的完整资料,这份资料的所有权和用途边界在哪里?Google 目前没有在公告中说明 Wardrobe 功能是否会影响广告定向,也没有说明数码衣橱的资料是否会用于模型训练。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论