Kumo的“关系基础模型”预见大语言模型无法洞悉的未来‌

Kumo的“关系基础模型”预见大语言模型无法洞悉的未来‌

在生成式人工智能蓬勃发展的当下,我们拥有了强大的语言模型,它们能够撰写、摘要以及针对海量文本和其他类型数据进行推理。然而,在处理高价值的预测任务,比如预测客户流失或检测结构化关系数据中的欺诈行为时,企业依然受限于传统机器学习的范畴。斯坦福大学教授兼Kumo AI联合创始人尤雷·莱斯科维奇指出,这正是当前缺失的关键一环。他所在公司推出的工具——关系基础模型(RFM),是一种新型预训练人工智能,它能够将大型语言模型(LLM)的“零样本”能力应用于结构化数据库。

“它能够对尚未发生、你尚不了解的事物做出预测,”莱斯科维奇向VentureBeat表示,“我认为,这是当前我们认为的通用人工智能所缺失的全新能力。”

预测性机器学习:一项“30年前的技术”

尽管大型语言模型和检索增强生成(RAG)系统能够回答有关既有知识的问题,但它们从根本上说是回顾性的。它们检索并推理已经存在的信息。对于预测性业务任务,企业仍然依赖传统的机器学习。例如,为了构建一个预测客户流失的模型,企业必须聘请一支数据科学家团队,他们要花相当长的时间进行“特征工程”,即从数据中手动创建预测信号的过程。这涉及复杂的数据处理,以将不同表格中的信息(如客户的购买历史和网站点击量)连接起来,从而创建一个庞大且单一的训练表格。

“如果你想进行机器学习,很抱歉,你依然停留在过去,”莱斯科维奇说道。

昂贵且耗时的瓶颈阻碍了大多数组织在数据方面实现真正的敏捷性。

Kumo将Transformer泛化至数据库

Kumo提出的“关系深度学习”方法,通过两大关键见解规避了这一手动过程。首先,它自动将任何关系数据库表示为单个互联图。例如,如果数据库有一个“用户”表来记录客户信息,以及一个“订单”表来记录客户购买行为,那么“用户”表中的每一行都会变成一个用户节点,“订单”表中的每一行都会变成一个订单节点,以此类推。这些节点随后利用数据库的现有关系(如外键)自动连接,从而无需手动操作即可创建整个数据集的丰富映射。

其次,Kumo将Transformer架构泛化,该架构是大型语言模型背后的引擎,使其能够直接从这种图表示中学习。Transformer擅长通过“注意力机制”来理解令牌序列,该机制能够衡量不同令牌在相互关联中的重要性。Kumo的RFM将这种相同的注意力机制应用于图,使其能够同时学习跨多个表格的复杂模式和关系。

莱斯科维奇将这一飞跃比作计算机视觉的发展。在21世纪初,机器学习工程师必须手动设计特征,如边缘和形状,以检测物体。但更新的架构(如卷积神经网络CNN)能够接收原始像素,并自动学习相关特征。类似地,RFM能够接收原始数据库表格,并让网络自行发现最具预测性的信号,无需手动操作。

结果是,预训练基础模型能够立即对新数据库执行预测任务,即所谓的“零样本”。在演示中,莱斯科维奇展示了用户如何通过输入简单查询来预测特定客户在未来30天内是否会下单。几秒钟内,系统便返回了一个概率分数以及导致该结论的数据点的解释,如用户的近期活动或无活动情况。该模型未在所提供的数据库上进行训练,而是通过上下文学习实时适应它。

“我们有一个预训练模型,你只需将其指向你的数据,它便会在200毫秒后给出准确预测,”莱斯科维奇说道。他补充道,它的准确度“与数据科学家数周的工作不相上下”。

该界面旨在让数据分析师(而不仅仅是机器学习专家)也能熟悉,从而使预测分析实现民主化。

助力自主代理的未来

这项技术对企业AI代理的发展具有重要意义。代理要在企业内执行有意义的任务,不仅需要处理语言,还必须基于公司的私有数据做出智能决策。RFM能够成为这些代理的预测引擎。例如,客户服务代理可以查询RFM,以确定客户流失的可能性或他们的潜在未来价值,然后使用大型语言模型相应地调整对话和优惠。

“如果我们相信自主代理的未来,那么代理将需要做出基于私有数据的决策。这就是代理做出决策的方式,”莱斯科维奇解释道。

Kumo的工作预示着企业AI未来将分为两个互补领域:大型语言模型用于处理非结构化文本中的回顾性知识,而关系基础模型则用于结构化数据上的预测性预测。通过消除特征工程的瓶颈,RFM有望使更多企业掌握强大的机器学习工具,从而大幅减少从数据到决策所需的时间和成本。

该公司已发布了RFM的公开演示版,并计划在未来几周内推出允许用户连接自己数据的版本。对于需要最高准确度的组织,Kumo还将提供微调服务,以进一步提升私有数据集上的性能。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/kumo-de-guan-xi-ji-chu-mo-xing-yu-jian-da-yu-yan-mo-xing-wu

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年7月5日
Next 2025年7月5日

相关推荐

发表回复

Please Login to Comment