AMD 与美国能源部(DOE)合作对企业 AI 战略的重要意义

AMD 与美国能源部(DOE)合作对企业 AI 战略的重要意义

2025 年 10 月 28 日,Muhammad Zulhusni 发表分析指出,AMD 与美国能源部(DOE)的合作 —— 在橡树岭国家实验室(ORNL)共建两台 AI 超级计算机Lux AIDiscovery),不仅是美国推进科学研究、能源创新与国家安全的关键举措,更通过技术突破、架构创新与生态协同,为企业 AI 战略提供了 “高性能、高安全、高性价比” 的参考范式,重塑了企业对 AI 算力基础设施的认知与布局逻辑。此次合作涉及约 10 亿美元公私投资,建成后将纳入美国安全国家计算网络,依托美国本土标准基础设施支持 AI 研发,其背后的技术路径与协作模式,为企业应对 AI 算力瓶颈、平衡性能与成本、保障数据安全提供了重要借鉴。

从项目核心内容来看,两台超级计算机定位各有侧重,分别针对短期实用与长期突破需求。将于 2026 年初投入使用的 Lux AI,是美国首个 “AI 工厂”,由 AMD 联合 ORNL、甲骨文云基础设施(Oracle Cloud Infrastructure)、慧与(Hewlett Packard Enterprise,HPE)共同研发,核心硬件采用 AMD Instinct MI355X GPU、EPYC CPU 及 Pensando 网络芯片,专门承接数据密集型 AI 任务,重点加速能源系统、新材料研发、精准医疗等领域的研究进程。其独特价值在于 “多团队安全协作架构”—— 支持多个科研团队同时使用系统,在确保数据安全隔离的同时实现资源共享,这一设计完美贴合企业中 “多部门共用 AI 算力但需保障数据隐私” 的场景,例如金融企业的风控部门与营销部门可共用算力集群,却无法越权访问彼此数据。据 ORNL 主任 Stephen Streiffer 透露,Lux AI 的 AI 算力约为当前主流超级计算机的三倍,且部署速度创下同规模设备纪录,AMD 首席执行官苏姿丰(Lisa Su)强调,这种 “快速落地 + 灵活适配” 的特性,正是企业应对 AI 需求快速变化的核心诉求。

计划于 2028 年交付的 Discovery,则是 DOE 下一代旗舰超级计算机,将采用 AMD 新一代 “Venice” EPYC 处理器与 MI430X GPU(专为 AI 与科学计算设计的 MI400 系列变体),其核心创新是 “Bandwidth Everywhere” 架构 —— 在不增加能耗的前提下,大幅提升内存与网络性能,解决了企业数据中心 “算力提升伴随能源成本激增” 的普遍痛点。Discovery 还继承了全球首台百亿亿次计算机 Frontier 的技术经验,确保现有应用可无缝迁移至新平台,降低企业升级算力时的适配成本。美国能源部长 Chris Wright 指出,该系统将为 “下一代电池研发、核反应堆设计、半导体材料创新” 提供算力支撑,而这些领域的技术突破(如更高效的储能电池、更低功耗的芯片材料),将直接降低企业 AI 基础设施的运营成本,推动 AI 从 “高投入技术” 向 “普惠化工具” 转型。

从技术与战略层面看,此次合作对企业 AI 战略的启示集中在三个核心维度。首先是 “算力与安全的协同设计”。Lux 与 Discovery 均采用 “硬件级安全隔离 + 细粒度权限控制”,例如 Lux AI 中 AI 任务以 “非特权身份” 运行,仅拥有用户授权范围内的访问权限,这与企业对 AI 数据安全的需求高度契合 —— 企业可借鉴这种模式,在搭建 AI 算力集群时,通过硬件层面的权限划分(如 AMD EPYC CPU 的安全加密功能)与软件层面的访问控制,避免 AI 越权获取敏感数据,尤其适合金融、医疗等强监管行业。其次是 “性能与能效的平衡”。Discovery 的 “低能耗高带宽” 架构,通过优化内存与网络传输效率,实现 “算力提升不增能耗”,这为企业应对 “AI 算力扩张导致的能源成本压力” 提供了技术参考 —— 例如,企业可采用 AMD Instinct 系列 GPU 与 EPYC CPU 的组合,在提升 AI 训练 / 推理速度的同时,降低数据中心的电力消耗与碳排放量,符合全球 “绿色 AI” 的发展趋势。

最后是 “生态协同的价值放大”。此次合作并非 AMD 单一参与,而是联合 HPE(负责硬件集成)、甲骨文(提供云基础设施支持)、ORNL(提供科研场景需求)形成 “需求 – 技术 – 落地” 的闭环,这种 “跨领域协作” 模式对企业极具借鉴意义。企业在制定 AI 战略时,无需依赖单一供应商,而是可联合硬件厂商(如 AMD)、云服务商(如甲骨文)、行业解决方案提供商(如 HPE),根据自身业务需求定制算力方案 —— 例如,零售企业可联合 AMD 搭建本地化 AI 算力节点,结合甲骨文云的弹性资源,实现 “日常推理本地化(低延迟)+ 峰值训练云端化(低成本)” 的混合部署,平衡性能与成本。

从行业影响来看,AMD 与 DOE 的合作进一步巩固了其在 AI 算力领域的竞争力,也为企业提供了 “非英伟达依赖” 的新选择。此前,AMD 已通过 ROCm 开源软件栈(被 OpenAI、Meta 等采用)、Instinct 系列 GPU(在生成式 AI 推理中性能较竞品高 1.3 倍)构建了企业级 AI 生态,此次超级计算机项目的技术积累,将进一步反哺其商用产品线 —— 例如,MI430X GPU 的 “科学计算 + AI 融合” 能力,未来可能下沉至企业级市场,为需要同时处理科学模拟与 AI 分析的企业(如制药、航空航天)提供专属解决方案。同时,合作中形成的 “美国本土供应链 + 标准基础设施” 模式,也为跨国企业应对 “地缘政治导致的算力供应链风险” 提供了思路,企业可通过 “本地化算力节点 + 标准化硬件”,降低对单一地区算力资源的依赖。

美国能源部与 AMD 的合作,本质上是 “国家战略需求与企业技术能力” 的深度绑定,但其产出的技术成果、架构设计与协作模式,已超越单纯的科研范畴,成为企业 AI 战略的 “风向标”。对于企业而言,此次合作释放的核心信号是:未来的 AI 算力基础设施,需同时满足 “高性能计算需求、严格安全标准、可持续成本控制” 三大要求,而通过 “硬件创新 + 生态协同 + 安全设计” 的组合,完全可实现这一目标。正如苏姿丰所言,此次合作展现的 “速度与灵活性”,正是企业在 AI 竞争中脱颖而出的关键 —— 企业需借鉴这种 “以需求为导向、以技术为支撑、以协作为纽带” 的思路,构建适配自身业务的 AI 算力体系,才能在 AI 规模化落地中占据主动。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/amd-yu-mei-guo-neng-yuan-bu-doe-he-zuo-dui-qi-ye-ai-zhan

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月29日
Next 2025年10月29日

相关推荐

发表回复

Please Login to Comment