
在AI技术深度渗透物理世界的当下,“记忆能力”正成为智能系统突破瓶颈的关键。2026年3月16日,AI初创公司Memories AI在英伟达GTC大会上宣布与半导体巨头达成合作,双方将共同为可穿戴设备和机器人构建专属的“视觉记忆层”,让AI系统真正拥有“看见并记住”的能力。
Memories AI创始人沈肖恩(Shawn Shen)的创业灵感源于Meta雷朋智能眼镜的开发经历。在打造这款AI眼镜的过程中,他与联合创始人、首席技术官本·周(Ben Zhou)发现了一个核心痛点:即便设备能记录视觉数据,若无法高效回忆和利用这些信息,技术的实用价值将大打折扣。当他们发现市场上尚无针对AI物理应用的视觉记忆解决方案时,便决定从Meta独立出来,自主搭建这一关键技术基础设施。
“AI在数字世界已取得巨大成功,但在物理世界仍有漫长的路要走。”沈肖恩表示,“无论是AI可穿戴设备还是机器人,都需要类似人类的记忆能力,尤其是视觉记忆,这是它们在现实世界中高效运作的核心。”
当前AI领域的记忆技术多聚焦于文本层面,OpenAI的ChatGPT、xAI的Grok以及谷歌Gemini等产品均在文本对话记忆上实现了突破,但这类结构化的记忆系统并不适用于以视觉为主要交互方式的物理场景。Memories AI的核心目标便是填补这一空白,打造能处理非结构化视觉数据的记忆架构。
借助英伟达的技术支持,Memories AI将采用Cosmos-Reason 2视觉语言模型和Metropolis视频检索与参考架构,构建能存储、索引和召回视觉信息的技术栈。这家成立于2024年的初创公司已累计获得1600万美元融资,其中2025年7月完成800万美元种子轮融资,随后又获得同等金额的融资扩展,投资方包括Susa Ventures、Seedcamp、Fusion Fund和Crane Venture Partners等知名机构。
构建视觉记忆层的挑战在于两方面:一是开发能将视频数据转化为可存储、可检索格式的基础设施,二是获取足够的训练数据。为此,Memories AI在2025年7月推出了大型视觉记忆模型(LVMM),沈肖恩将其比作轻量化的Gemini Embedding 2多模态索引模型。为解决数据难题,公司开发了名为LUCI的硬件设备,由数据采集员佩戴以获取训练所需的视频数据。沈肖恩强调,公司无意成为硬件厂商,开发LUCI是因为市售设备多聚焦高画质,存在功耗过高的问题,无法满足持续数据采集的需求。
目前,Memories AI已推出第二代LVMM,并与高通达成合作,计划在今年晚些时候实现模型在高通处理器上的运行。尽管公司已与多家大型可穿戴设备厂商展开合作,但沈肖恩并未透露具体合作方。在商业化策略上,Memories AI更侧重于模型和基础设施的研发,沈肖恩认为:“可穿戴设备和机器人市场的爆发只是时间问题,我们现在要做的是提前搭建好技术底座。”
随着AI从数字世界迈向物理世界,视觉记忆能力将成为智能设备的核心竞争力。Memories AI与英伟达的合作,不仅为可穿戴设备和机器人赋予了“长久记忆”,更可能推动AI在物理场景中的应用边界,让智能系统真正理解并适应复杂多变的现实世界。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/memories-ai-lian-shou-ying-wei-da-wei-ke-chuan-dai-she-bei