Thinking Machines 挑战 OpenAI 的 AI 规模化策略:首个人工超级智能将是 “超级学习者”

Thinking Machines 挑战 OpenAI 的 AI 规模化策略:首个人工超级智能将是 “超级学习者”

2025 年 10 月 24 日,人工智能初创公司 Thinking Machines Lab 的强化学习研究员拉斐尔・拉法伊洛夫(Rafael Rafailov)在旧金山 TED AI 大会上发表颠覆性观点,直指当前 AI 行业依赖 “扩大模型规模、数据量与算力” 的主流路径存在根本性缺陷,提出 “首个人工超级智能(ASI)将是具备超强学习能力的‘超级学习者’,而非单纯依靠规模堆砌的推理机器”。这一观点不仅挑战了 OpenAI、Anthropic、谷歌 DeepMind 等头部企业的技术战略,也揭示了这家由 OpenAI 前首席技术官米拉・穆拉蒂(Mira Murati)于 2025 年 2 月创立、估值达 120 亿美元(种子轮融资 20 亿美元)的神秘初创公司的核心研发方向。

拉法伊洛夫指出,当前顶尖 AI 系统(如代码助手、研究助手)的核心痛点在于 “无法从经验中学习”—— 即便能完成复杂任务(如理解代码、实现功能),也无法内化知识,次日面对相似任务时仍需重复相同流程,如同 “每天都是第一天上班”。以 AI 编码助手为例,其常通过 “try/except 代码块” 规避潜在错误,这种类似 “用胶带修补漏洞” 的做法,本质是为快速完成当前任务而回避问题根源,反映出当前训练体系 “仅优化即时任务完成率,忽视长期学习与知识积累” 的局限。拉法伊洛夫强调,“学习是智能体主动获取知识的过程,而训练只是外部施加的输入,两者的区别正是当前 AI 与真正智能的鸿沟”。

在他看来,行业普遍认为 “持续扩大规模就能实现通用人工智能(AGI)” 的认知存在严重偏差。尽管扩大模型参数、增加算力能提升 AI 的特定任务能力(如代码生成、网页浏览),未来 1-2 年这类能力还将进一步增强,但 “通用智能体”(能自主交互、执行多步骤任务)不等于 “通用智能”(具备自主学习、自我改进能力)。拉法伊洛夫明确表示:“无论当前范式下如何扩大规模、增加环境训练或强化学习(RL)迭代,都无法实现 AGI 或 ASI,因为这些模型始终缺乏‘主动学习’这一核心能力。”

为突破这一困境,拉法伊洛夫提出 “教科书式元学习” 方案,核心是让 AI 像人类学生一样通过系统性学习积累知识,而非孤立解决单个问题。具体而言,不再让模型针对孤立的难题(如一道复杂数学题)进行训练并在任务结束后丢弃所学,而是提供类似 “研究生级专业教科书” 的结构化学习材料,让 AI 按章节顺序学习、完成习题、逐步进阶,例如先掌握基础数学概念,再攻克复杂定理,过程中不仅奖励任务完成度,更奖励 “知识吸收效率” 与 “学习进步速度”。这种 “学习如何学习” 的元学习思路,在 DeepMind 的 AlphaGo 等游戏 AI 中已有小规模验证(通过自我对弈快速掌握策略),拉法伊洛夫认为需将其适配到基础模型规模,让 AI 学会 “自主构建知识体系”。

他进一步指出,实现这一目标无需彻底重构模型架构,现有核心技术框架已具备基础,关键在于 “重构训练数据与目标函数”:一方面需提供结构化、体系化的学习数据(如学科教科书、科研文献),而非零散的任务样本;另一方面需将训练目标从 “完成单个任务” 转向 “提升长期学习能力”,例如奖励 AI 发现通用规律、构建抽象概念(如数学家发展拓扑学以拓展几何体系,而非仅解决特定几何问题)。拉法伊洛夫坚信,“学习本身是一种可被学习的算法,若 AI 能掌握通用学习算法,就能在不同领域高效获取知识,这才是通往 ASI 的关键”。

这种思路下,首个人工超级智能的形态将与科幻作品中 “全能推理机器” 的想象截然不同。拉法伊洛夫描绘的 ASI 是 “超级学习者”—— 具备自主提出理论、设计实验、验证假设、迭代知识的能力,能通过与环境交互(如使用计算机、开展科研、操控机器人)持续自我改进,而非仅擅长解决特定领域难题。他举例说明:“这种智能体不会一开始就精通所有领域,但能快速学习并掌握新技能,如同一个能自主攻读任意学科的顶尖学者,最终凭借学习效率超越人类。”

值得关注的是,拉法伊洛夫的观点发布之际,Thinking Machines Lab 正面临人才挑战。2025 年 10 月初,公司联合创始人、机器学习专家安德鲁・塔洛克(Andrew Tulloch)因 Meta 的高薪挖角(据传薪酬方案最高达 15 亿美元 / 多年)离职,Meta 同时还接触了公司十余名员工,反映出行业对 “非规模化 AI 研发方向” 核心人才的争夺。尽管如此,Thinking Machines Lab 仍在推进相关落地 ——10 月推出首款产品 Tinker(一款用于微调开源语言模型的 API),而拉法伊洛夫的演讲暗示,该产品仅是公司 “元学习与自我改进 AI” 长期研发计划的基础。

拉法伊洛夫承认,实现 “超级学习者” 面临记忆机制、工程优化、数据构建等多重技术突破,且需要大量算力支持,但他强调 “这在理论上完全可行”。与行业高管常对 AGI 落地时间给出明确预测不同,他未提及具体时间表,仅强调 “需行业放弃对‘规模万能论’的依赖,转向对‘主动学习’的深耕”。这种谨慎态度既体现了科学严谨性,也暗示 Thinking Machines Lab 正走一条比 “规模化” 更漫长、更具挑战性的技术路径。

总体而言,拉法伊洛夫的观点不仅是对 OpenAI 等企业规模化战略的公开挑战,更为 AI 行业提供了 “从‘工具型智能’向‘自主型智能’转型” 的新方向。其核心价值在于指出:AI 的终极突破不在于 “能做更多事”,而在于 “能更快学会做新事”,这一认知或将重新定义未来 AI 研发的优先级,推动行业从 “规模竞赛” 转向 “学习能力竞赛”。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/thinking-machines-tiao-zhan-openai-de-ai-gui-mo-hua-ce-lyue

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月27日
Next 2025年10月28日

相关推荐

发表回复

Please Login to Comment