三星推出微型 AI 模型 TRM:以 700 万参数突破复杂推理,颠覆大模型 “规模至上” 范式

三星推出微型 AI 模型 TRM:以 700 万参数突破复杂推理,颠覆大模型 “规模至上” 范式

2025 年 10 月 8 日,三星 AI 研究员 Alexia Jolicoeur-Martineau 发布的新研究显示,一款名为 “微型递归模型(Tiny Recursive Model, TRM)” 的小参数 AI 模型,在复杂推理任务中击败了参数规模远超自身的大型语言模型(LLMs)。这款仅含 700 万参数的模型(不足主流 LLMs 参数规模的 0.01%),不仅在数独、迷宫导航等经典推理基准测试中刷新最佳成绩,更在衡量 AI “流体智力” 的 ARC-AGI 测试中超越 Gemini 2.5 Pro 等顶尖大模型,彻底挑战了行业内 “参数越大、性能越强” 的传统认知,为 AI 推理提供了更高效、更可持续的技术路径。

TRM 的核心突破在于 “递归自修正架构”,这一设计从根本上解决了传统 LLMs 在多步推理中的固有缺陷。传统 LLMs 采用逐 token 生成答案的模式,一旦早期推理出现错误,后续步骤会持续 “跑偏”,最终导致答案失效;即便借助 “思维链(Chain-of-Thought)” 技术拆解问题,也需消耗大量计算资源,且依赖高质量推理数据,仍难以避免逻辑漏洞。而 TRM 通过 “单网络递归迭代” 机制,让模型具备自我修正能力:它先接收问题、初始猜测答案与潜在推理特征,通过多轮循环(最多 16 次)优化内部推理逻辑 —— 首先基于三者输入反复精炼 “潜在推理特征”,再用优化后的推理更新答案,逐步修正错误。例如在解 Sudoku-Extreme 数独时,TRM 会先生成初步填数方案,再通过多轮自查,修正行、列、宫格的数字冲突,最终将准确率提升至 87.4%,远超分层推理模型(HRM)的 55%。

值得注意的是,TRM 在架构设计上做了两处关键简化,既提升效率又避免过拟合。其一,它摒弃了 HRM 的双网络结构(低层高频调用模块 + 高层低频调用模块),改用单一网络同时承担推理与答案更新任务,参数规模直接缩减至 HRM 的 1/4(HRM 含 2700 万参数);其二,研究发现 “少层数更优”—— 仅含 2 层的网络比 4 层网络泛化能力更强,原因是层数减少能避免模型在小规模训练数据(如 Sudoku-Extreme 仅 1000 个训练样本)上过度拟合,确保在新任务中保持灵活性。此外,TRM 还去除了 HRM 依赖的复杂数学假设(如不动点定理),通过 “全递归反向传播” 直接优化整个推理过程,仅这一调整就使 Sudoku-Extreme 测试准确率从 56.5% 提升至 87.4%,大幅降低了技术落地的理论门槛。

在性能测试中,TRM 以极小的参数规模展现出碾压性优势。在 Maze-Hard 任务(30×30 迷宫寻路)中,它的准确率达 85.3%,超过 HRM 的 74.5%;在最具挑战性的 ARC-AGI 测试(衡量 AI 抽象推理能力)中,TRM 在 ARC-AGI-1 上准确率 44.6%,ARC-AGI-2 上达 7.8%—— 这一成绩不仅超越 2700 万参数的 HRM(ARC-AGI-2 准确率 5.0%),更超过参数规模是其 10000 倍的 Gemini 2.5 Pro(ARC-AGI-2 准确率仅 4.9%)。训练效率上,TRM 通过简化 “自适应停止机制(ACT)”,省去训练中每次迭代的二次前向传播,在不影响泛化能力的前提下,进一步降低计算成本,使其能在普通硬件上快速训练,打破了大模型对高端算力的依赖。

TRM 的研发背景,源于行业对 “大模型规模竞赛” 的反思。此前,科技巨头为追求 AI 性能,持续投入数十亿资金扩大模型参数(如 DeepSeek R1 达 6710 亿参数),但这种模式不仅成本高昂、能耗巨大,还面临 “性能边际效益递减” 问题 —— 参数增长带来的推理能力提升越来越有限,且难以避免 “推理黑箱” 与 “错误累积”。三星的研究证明,通过优化推理架构(而非单纯扩大规模),小模型也能实现复杂任务的高效解决。这种 “参数高效型 AI” 路径,不仅符合低碳环保的行业趋势,还能让 AI 技术更易普及到算力有限的场景(如边缘设备、中小企业应用),为 AI 推理的轻量化发展提供了重要参考。

未来,TRM 的技术思路有望进一步拓展。研究团队计划探索将递归架构与多模态能力结合,提升模型在图像推理、跨语言逻辑分析等任务中的表现;同时,针对医疗诊断、工业质检等高精度推理场景,优化模型的逻辑严谨性与结果可解释性。正如研究员 Alexia Jolicoeur-Martineau 所言:“TRM 证明‘少即是多’—— 通过让小模型学会‘反复思考’,我们能在控制成本的同时,解锁 AI 推理的新可能。” 这一研究不仅为 AI 架构创新提供了新方向,更推动行业从 “规模竞争” 转向 “效率竞争”,为可持续的 AI 发展奠定了技术基础。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/san-xing-tui-chu-wei-xing-ai-mo-xing-trm-yi-700-wan-can-shu

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月10日
Next 2025年10月10日

相关推荐

发表回复

Please Login to Comment