Counterintuitive 推出新型芯片,旨在突破 AI “双重陷阱”

Counterintuitive 推出新型芯片,旨在突破 AI “双重陷阱”

2025 年 10 月 29 日,David Thomas 发表深度分析指出,AI 初创企业 Counterintuitive 正以 “推理原生计算(reasoning-native computing)” 技术为核心,开启一场旨在改变 AI 本质的探索 —— 其目标不再是让机器单纯模仿人类行为,而是赋予机器真正理解事物逻辑的能力,推动 AI 从依赖数据模式识别的传统形态,向具备真实认知与决策能力的 “类人化” 方向跨越。该公司董事长杰拉德・雷戈(Gerard Rego)在公开表述中提出,当前全球 AI 行业正普遍受困于 “双重陷阱(twin trap)”,即便算力最强、参数规模最大的 AI 系统,也因这两大核心瓶颈难以实现稳定运行、高效输出与真正意义上的智能,而 Counterintuitive 成立后的首要战略任务,便是集中技术力量攻克这两个限制 AI 发展的关键难题。

当前 AI 面临的第一重陷阱,源于其不可靠、缺乏可复现性的数值计算基础。如今主流 AI 系统所依赖的数学运算框架,大多建立在数十年前为游戏渲染、图形处理等场景设计的浮点运算(floating-point arithmetic)技术之上,这类技术的核心目标是追求运算速度,而非精度与一致性,这就导致 AI 在处理复杂任务时,从底层数学逻辑上就存在先天缺陷。在具体的数值运算过程中,每一次加减乘除、矩阵运算等操作,都会产生微小的舍入误差,这些误差看似微不足道,但随着运算步骤的累积与模型复杂度的提升,会像滚雪球一样不断放大,最终引发 “非确定性” 问题 —— 即便是同一套 AI 模型,在输入完全相同的数据后,两次运行可能得出截然不同的结果。这种不稳定性在普通消费级 AI 应用中或许影响有限,但在法律、金融、医疗等对准确性与可追溯性要求极高的领域,却可能引发严重后果:AI 给出的决策无法被验证真伪、无法复现运算过程,更难以通过审计流程。当 AI 输出的结果无法清晰解释其背后的逻辑与依据时,这些结果便会沦为行业内所称的 “幻觉(hallucinations)”,本质上就是因 “缺乏数学层面的可证明性” 而失去实际参考价值。

这种 “有精度却无真实性” 的数值缺陷,已成为横亘在 AI 发展道路上的 “无形壁垒”。它不仅直接制约 AI 系统的整体性能,让模型即便参数规模不断扩大,也难以突破精度瓶颈;还大幅增加了企业的运营成本 —— 为了修正这些因数值误差产生的 “计算噪声”,企业需要投入更多的算力资源与时间,甚至不得不构建更庞大的硬件集群,这既造成了能源的巨大浪费,也让 AI 技术的应用门槛居高不下。更关键的是,这种缺陷并非通过优化算法、增加数据量就能解决,而是由底层数学运算框架的局限性导致的刚性限制,这也使得传统 AI 在追求更高智能的过程中,始终难以摆脱 “差之毫厘,谬以千里” 的困境。

AI 面临的第二重陷阱,则体现在其架构设计上的 “无记忆” 短板。当前主流的 AI 模型,无论是生成式大模型还是专用任务模型,核心工作逻辑都是 “预测下一个输出单元”—— 在语言模型中是预测下一个令牌(token),在图像模型中是预测下一个像素帧,却完全无法保留得出该预测结果的推理过程。Counterintuitive 的技术团队将这种工作模式形象地类比为 “增强版的预测文本功能”:就像手机输入法会根据上下文推荐下一个词,但不会记得为什么推荐这个词一样,AI 模型在输出结果后,会彻底遗忘其决策依据,既无法回溯自己刚才的推理逻辑,也不能在此基础上进一步深化思考、构建更复杂的逻辑链。表面上看,部分 AI 模型通过对海量数据的学习,能够呈现出 “似乎具备推理能力” 的假象,例如能回答 “为什么某笔支出属于办公费用”,但实际上,它只是通过匹配数据中的模式模仿出了 “有逻辑的回答”,并未真正理解 “办公费用的定义”“该笔支出与办公场景的关联” 等核心逻辑,更无法基于这个分类进一步分析后续的税务处理、预算规划等延伸问题。这种 “一次性推理” 的架构设计,让 AI 始终停留在 “被动响应” 的层面,无法实现主动思考与递进式分析,严重限制了其在复杂任务中的应用潜力。

为攻克这 “双重陷阱”,Counterintuitive 组建了一支横跨多学科的顶尖技术团队,成员均来自全球领先的科研实验室(如 MIT、斯坦福大学人工智能实验室)与科技企业(如英伟达、谷歌 DeepMind),涵盖数学家、计算机科学家、物理学家及硬件工程师等多个领域,且目前已申请超过 80 项核心专利,专利覆盖范围包括确定性推理硬件设计、因果记忆系统架构、推理型软件框架开发等关键技术环节。雷戈在接受采访时表示,这支团队的核心使命,就是从底层重构 AI 的计算逻辑,打造 “以推理为核心而非模仿” 的下一代计算范式,彻底摆脱传统 AI 的技术局限。

该公司的核心技术突破,集中体现在其研发的 “人工推理单元(ARU,artificial reasoning unit)” 上。与传统的 GPU(图形处理器)、CPU(中央处理器)不同,ARU 并非单纯的运算芯片,而是一种全新的计算单元 —— 它以 “内存驱动推理” 为核心设计理念,能够在硬件层面直接执行因果逻辑运算,而非像 GPU 那样专注于并行数据处理。Counterintuitive 联合创始人赛姆・阿帕拉(Syam Appala)解释道,ARU 技术栈的意义远不止是创造一个新的芯片品类,更是对传统 “概率性计算” 模式的 “彻底颠覆”:通过将内存驱动的因果逻辑深度整合到硬件电路与软件算法中,ARU 能让 AI 系统在运行过程中,实时记录每一步推理的逻辑链条与数据依据,既从架构上解决了传统 AI “无记忆” 的问题,又通过硬件级的确定性推理,消除了数值误差累积带来的非确定性风险。

从具体的技术规划来看,Counterintuitive 计划分阶段推出首款 “推理芯片” 与配套的 “软件推理栈”,形成一套完整的 “推理原生计算” 解决方案。其中,硬件层面的推理芯片将通过全新的电路设计,实现高精度、无误差累积的数值运算,确保 AI 模型的每一次输出都具备数学层面的可复现性与可审计性;软件层面的推理栈则会构建一套支持因果逻辑记录与调用的框架,让 AI 能够像人类一样,在得出结论后仍能回溯推理过程,甚至基于过往的推理结果开展新的分析任务,实现 “递进式思考”。

若这一技术能够成功落地,将为 AI 行业带来三大革命性变革。首先是大幅提升 AI 系统的可靠性与透明度,通过硬件级的确定性推理与因果记忆功能,AI 决策将彻底摆脱 “黑箱” 属性。在金融风控场景中,AI 不仅能判断某笔贷款申请是否存在风险,还能清晰展示 “基于哪些财务数据、通过哪些风险模型、依据哪些政策规则得出该结论”;在医疗诊断辅助场景中,AI 给出的病情分析建议,会附带完整的医学数据引用与逻辑推导过程,医生能够快速验证其合理性,这将极大提升用户对 AI 的信任度。其次是显著降低 AI 的运营成本与能源消耗,传统 AI 为修正数值误差、弥补架构缺陷,往往需要投入远超实际需求的算力资源,而 ARU 通过优化底层计算逻辑,可减少约 40% 以上的能源消耗,同时降低对大规模数据中心的依赖,让中小企业也能更轻松地应用高端 AI 技术。

最后,这一技术将推动 AI 从 “模仿式智能” 向 “理解式智能” 跨越,打破当前 AI 只能处理模式匹配类任务的局限。例如在药物研发领域,基于 ARU 的 AI 不仅能从海量分子数据中筛选出潜在的药物靶点,还能详细记录 “为什么选择该靶点” 的推理过程 —— 包括该靶点与疾病机制的关联、分子结构的稳定性分析、过往临床试验数据的参考等,科研人员可以在此基础上进一步优化实验方案,而非单纯依赖 AI 的 “黑箱推荐”。这种 “理解式智能” 将让 AI 真正成为人类的协作伙伴,而非简单的工具。

雷戈强调,Counterintuitive 的技术探索并非对现有 AI 架构的修补与改良,而是通过软硬件协同设计,为 AI 打造 “后 GPU 时代” 的全新技术基础。未来,依托这套 “推理原生计算” 解决方案,AI 系统无需再依赖动辄数十亿、数百亿参数的庞大模型,也无需构建耗资巨大的硬件集群,就能在医疗、金融、先进制造等经济关键领域,实现高效、可靠、可解释的智能应用,这将推动 AI 技术从 “高投入、高门槛” 的精英化形态,向 “普惠化、实用化” 的方向发展,真正释放 AI 对社会经济的推动价值。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/counterintuitive-tui-chu-xin-xing-xin-pian-zhi-zai-tu-po-ai

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月31日
Next 2025年11月1日

相关推荐

发表回复

Please Login to Comment