谷歌 AI 模式视觉搜索升级:对话式交互重塑购物与视觉探索体验

谷歌 AI 模式视觉搜索升级:对话式交互重塑购物与视觉探索体验

谷歌于 2025 年 9 月 30 日宣布对 AI Mode(AI 模式)进行重大更新,聚焦视觉搜索功能优化,通过更具对话性的交互方式,彻底改变用户图像搜索与在线购物的体验。此次升级率先面向美国英语用户推出,依托谷歌 Lens 视觉识别技术与 Gemini 2.5 的先进多模态能力,突破传统搜索对精准关键词与筛选条件的依赖,让用户能以 “与朋友对话” 般自然的方式获取视觉结果,同时强化购物场景的实用性与便捷性。

在核心功能升级上,AI Mode 的视觉搜索实现 “对话化 + 多模态融合” 双重突破。一方面,用户无需再通过颜色、尺寸、品牌等传统筛选器缩小范围,而是可直接用模糊描述发起搜索 —— 例如查找 “不是太宽松的桶形牛仔裤”,随后通过自然语言跟进需求(如 “想要更多踝长款”“展示酸洗牛仔布款式”),系统会智能理解语义偏好,动态调整结果。这种交互模式不仅贴合日常沟通习惯,还能精准捕捉用户的主观需求(如 “氛围偏复古”“材质更轻薄”),尤其适合难以用明确参数定义的商品或视觉灵感搜索(如室内设计风格)。

另一方面,多模态搜索能力显著增强。用户可通过上传参考图像或实时拍摄照片启动搜索,获取视觉相似结果;更可结合文本描述进一步细化需求,例如上传一件喜欢的衬衫照片后,补充 “找类似图案但颜色偏墨绿的连衣裙”。谷歌通过 “视觉搜索扇出(Visual Search Fan-out)” 技术,在后台自动生成多个关联查询,同时识别图像中的物体、材质、色彩、空间关系等细节,甚至捕捉次要物体与场景上下文 —— 例如拍摄书架照片时,系统能精准识别每本书籍,提供书名、评分及相似推荐,并支持后续追问 “有没有同作者的其他作品”。

购物场景的优化是此次更新的重点方向。AI Mode 深度整合谷歌 “购物图谱(Shopping Graph)”—— 该图谱涵盖超 500 亿条商品信息,且每小时更新超 20 亿条 listings,确保商品的价格、库存、评价等数据实时准确。用户在搜索商品时,系统会直接呈现 “可购买选项”,每条结果均附带零售商官网链接,点击即可跳转完成购买,无需多次跳转。例如搜索 “适合露营的轻便折叠椅”,结果中不仅会展示不同款式的折叠椅图像,还会标注折扣信息、用户评分及库存状态,大幅缩短购物决策链路。谷歌搜索产品副总裁罗比・斯坦(Robby Stein)表示,这一设计旨在让 “购物搜索像聊天一样轻松”,解决用户 “想找却不知如何描述” 的痛点。

技术层面,此次升级以 Gemini 2.5 的多模态理解能力为核心支撑。该模型能完整解析图像场景,不仅识别单个物体,还能理解物体间的关联(如 “桌子上的笔记本电脑与台灯搭配风格”),以及材质、纹理等细微特征,从而生成更具针对性的结果。同时,AI Mode 延续了此前的优势 —— 界面设计简洁、响应速度快,且能处理复杂开放式问题(如对比两款产品差异、规划旅行中的视觉路线),数据显示其平均查询长度是传统谷歌搜索的两倍,反映出用户更愿意在此模式下深入表达需求。

在发布与使用范围上,此次 AI Mode 视觉搜索升级于 2025 年 9 月底至 10 月初逐步向美国英语用户推送,覆盖谷歌 App(安卓与 iOS 端),完整功能可能需要数天时间才能全量生效。此前,AI Mode 仅对谷歌 One AI Premium 订阅用户及部分 Labs 测试用户开放,此次更新后,谷歌开始向数百万更多 Labs 用户开放访问,用户可通过 Labs 报名体验。值得注意的是,当前功能暂不支持其他地区与语言,谷歌尚未公布全球推广时间表,但表示会根据用户反馈持续优化体验。

此外,该功能的应用场景不仅限于购物。在通用视觉探索中,用户可通过拍摄或上传图像获取深度信息 —— 例如拍摄陌生植物查询品种与养护方法、拍摄建筑细节了解设计风格、拍摄旅行风景图获取景点介绍等,且所有结果均附带详细解读与相关链接,方便进一步探索。谷歌强调,此次更新是对多年视觉搜索技术的迭代升级,旨在让 AI Mode 从 “文本问答工具” 转变为 “可视化信息交互入口”,为用户提供更直观、更贴合需求的搜索体验。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/gu-ge-ai-mo-shi-shi-jue-sou-suo-sheng-ji-dui-hua-shi-jiao

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月8日
Next 2025年10月8日

相关推荐

发表回复

Please Login to Comment