
当全球企业都在为AI落地的“最后一公里”绞尽脑汁时,Rob May的视角显得格外清醒。作为NeuroMetric的联合创始人兼CEO、HalfCourt Ventures的董事总经理,这位横跨云计算、AI创业与风险投资领域的连续创业者,不仅见证了AI从实验室走向产业的完整周期,更通过投资100余家科技公司的经验,精准捕捉着AI价值转移的底层逻辑。
在他看来,当前AI行业正经历一场从“模型崇拜”到“系统制胜”的关键转型。这场转型的核心,是企业终于意识到:大模型的能力只是基础,真正的壁垒和价值,藏在连接模型与业务的“系统层”中。
### 从短期护城河到长期概率优势:AI投资的底层逻辑
在AI创业与投资的热潮中,很多人热衷于追逐当下的市场空白,但Rob May却提醒道,这些看似诱人的机会往往是“短期护城河”,很快就会被巨头或更高效的解决方案填平。他认为,AI时代的商业竞争,本质是一场“概率决策的竞赛”——那些能对商业决策的概率做出最精准估算的企业,才能构建真正持久的竞争力。
这种竞争力的来源可能是垂直整合,也可能是横向规模,最终取决于具体的市场特性。但无论哪种形式,核心都不再是拥有最先进的模型,而是拥有将模型能力与业务深度融合的系统。这一观点,也正是他创办NeuroMetric的初衷:通过优化AI推理的成本与效率,帮助企业在规模化落地AI时实现更高的投资回报率。
### 系统护城河:AI时代的真正壁垒
Rob May在其《Investing in AI》通讯中反复强调一个观点:模型正在变得越来越可替代,真正的防御性正在向系统层转移。那么,一个真正的“系统护城河”究竟是什么样的?
在他的定义中,真正的系统护城河具备三个核心特质:随使用而复利增长、与客户高度绑定、无法通过替换更优模型来复制。他将这种系统称为“上下文系统”(System of Context)——一个将大模型与企业独特的数据、工作流、领域知识和决策历史深度连接的集成架构。
这种系统的魔力在于,它能从每一次交互中捕捉信号:哪些模型在哪些任务上表现更好、延迟在哪些场景下至关重要、企业特有的业务模式呈现出怎样的规律……这些信号会反过来优化系统本身,形成一个“乘法飞轮”:系统捕捉的信号越多,生成的专用模型就越精准;专用模型越精准,路由决策就越高效;路由决策越高效,就能捕捉到更有价值的数据。如此循环,护城河便会随着每一次推理不断拓宽。
在实践中,这种系统护城河体现为极高的切换成本——不是API层面的技术替换,而是需要重写整个业务逻辑;体现为竞争对手无法复制的专有上下文——这些上下文是企业在数月甚至数年的生产使用中积累而成;更体现为持续的专业化循环——系统会针对特定客户不断进化,而这种进化是通用模型提供商永远无法实现的。
### 多模型策略:打破“单一最优模型”的迷思
当企业终于从“大模型崇拜”中清醒过来,另一个现实问题摆在面前:如何构建有效的多模型策略?Rob May给出的答案是,首先要彻底摒弃“只用最好的模型”的思路——这在规模化场景下是一种失败的策略,就像让最资深的工程师处理每一个基础查询一样,既昂贵又低效,甚至未必能得到最好的结果。
他提出了“推理的锯齿前沿”(Jagged Frontier of Inference)概念:模型的性能是任务特异性的,且充满不确定性。在很多特定任务上,小模型反而能击败大模型。比如在CRM任务中,由多个小模型组成的复合系统准确率可达72.7%,而前沿大模型的得分仅为58%。
基于这一认知,企业构建多模型策略需要从三个层面入手:
首先是路由逻辑。企业需要绘制自己的“推理版图”,梳理所有需要调用LLM的节点,明确每个节点的任务类型、输入输出复杂度、延迟要求、准确率阈值和调用量。通过这种方式,企业会发现大部分AI需求都是高频、窄范围的工作——比如分类、实体提取、意图路由、模板生成等,这些任务完全可以由微调后的小模型处理,成本仅为大模型的几分之一,性能却毫不逊色。而大模型应该被保留给真正需要复杂推理的任务。
其次是升级路径。这不仅仅是简单的故障转移,而是要构建智能的 fallback 机制:系统需要能够识别小模型何时给出低置信度的结果,并自动升级到更合适的模型或模型策略组合。有时候,解决问题的方案不是换更大的模型,而是给同一个模型搭配思维链、束搜索或Best-of-N采样等推理技术。
最后是持续评估。这是大多数企业最容易忽略的环节,却也是构建系统护城河的关键。模型选择不是一劳永逸的决策,而是一个持续优化的过程。新模型不断发布、业务场景不断演变、模型性能会悄然退化,这些都要求企业具备持续评估模型-任务组合实际效果的能力,并基于真实数据动态调整路由策略,而不是依赖静态的基准测试。
### 从试点到生产:AI落地的常见陷阱
在帮助企业将AI从试点推向生产的过程中,Rob May发现了一个普遍的误区:很多企业假设技术选择是静态且长期有效的,但实际上AI技术栈的每一层都在快速变化。他提醒道,企业需要做出能提供“选择权”和灵活性的决策,避免陷入技术锁定的困境。
另一个值得关注的趋势是,小模型在越来越多的日常工作任务中展现出超越大模型的能力——从基础会计到文本摘要,从实体提取到规则性数据处理,只要问题被正确结构化,小模型几乎总能胜出。这种现象的战略意义在于,它彻底打破了“越大越好”的迷思,为企业降低AI落地成本、实现规模化部署提供了可行路径。
### AI边际成本递减:企业 adoption 的长期经济学
Rob May还提出了一个重要观点:AI部署的边际成本正在持续下降。过去的泡沫叙事认为,AI收入需要与模型研发投资成正比,但现实是,模型已经基本成熟,基础设施也已存在,每新增一个AI用例,可能只需要一个提示词、一个数据连接,最多再加上一些轻量微调,而不是再投入上亿美元的训练成本。
这种边际成本递减的趋势,正在重塑AI adoption的长期经济学。与铁路或电信等传统基础设施不同,AI的“引擎”已经建好,后续的连接成本极低,且随着技术进步还在不断下降——过去两年,AI推理成本已经下降了约1000倍。对企业而言,问题不再是AI是否划算,而是如何在同一基础设施上堆叠尽可能多的用例,直到收入曲线超过成本曲线。
### 从集中到分散:AI的“PC时代”正在到来
Rob May将当前的AI格局比作从大型机到PC的转型期。他认为,以OpenAI、Anthropic和Google为代表的大模型厂商就像当年的大型机厂商,他们证明了AI的能力,但AI的未来必然走向分散化,就像PC时代带来了计算的普及一样。
市场数据已经印证了这一趋势:企业AI投资现在几乎平均分配在基础设施和应用上,且应用部分的增长速度更快。AI的扩张是横向的——渗透到HR、法律、营销、运营、财务等各个部门——而不是纵向的——追求更大的模型。
对于系统层的创业者来说,这是一个前所未有的机遇。在集中化的世界里,模型提供商占据了大部分价值;但在分散化的世界里,价值会转移到解决编排、路由、评估和专业化等问题的企业手中。Rob May预测,未来只有约25%的AI推理需要前沿大模型,而75%的推理将运行在开源模型和小型专用模型上。他的团队甚至训练出一个40亿参数的模型,在特定CRM任务上击败了前沿大模型,而其运行成本几乎可以忽略不计。
### 未来五年:模型与系统的价值共生
当被问及未来五年大模型厂商与系统层企业的价值分配时,Rob May给出了一个平衡的答案:AI推理市场将成为人类历史上最大的市场之一,大模型厂商会取得巨大成功,但围绕他们构建的系统层企业也将拥有海量机会。在万亿美元级别的市场中,即使解决一个微小的边缘问题,也可能成长为价值数十亿美元的公司。
在Rob May的蓝图中,AI的未来不是“模型 vs 系统”的二元对立,而是两者的共生与协同。大模型提供基础能力,系统层则将这些能力转化为真正的业务价值。对于企业而言,这场转型的核心,是学会将AI从一个“技术项目”转变为一个“业务系统”——一个能够随业务进化、随技术迭代、持续创造价值的动态系统。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/cong-mo-xing-dao-xi-tong-ai-gui-mo-hua-luo-di-de-he-xin-luo