思科推出全新 AI 数据中心路由器:直击跨数据中心互联瓶颈,开启 “Scale-Across” 竞争新格局

思科推出全新 AI 数据中心路由器:直击跨数据中心互联瓶颈,开启 “Scale-Across” 竞争新格局

2025 年 10 月 8 日,网络技术巨头思科(Cisco)正式发布专为 AI 数据中心设计的 8223 路由系统,旨在解决当前 AI 基础设施 “单数据中心容量不足” 的核心痛点,通过高效连接分布式数据中心,突破 AI 算力扩张的物理与资源限制。这款搭载全新 Silicon One P200 芯片的路由系统,不仅以 51.2 太比特 / 秒(Tb/sec)的带宽与深度缓冲能力刷新行业标准,更标志着 AI 数据中心互联(DCI)领域进入思科、博通(Broadcom)、英伟达(Nvidia)三足鼎立的竞争阶段,共同角逐 “Scale-Across”(跨域扩展)技术主导权。

当前 AI 基础设施的规模化需求,正推动数据中心从 “单机柜 / 单建筑扩容” 转向 “跨地域分布式部署”。训练大型语言模型(LLMs)或运行复杂 AI 系统,需数千台高性能处理器协同工作,随之产生的巨额能耗与散热压力,让单个数据中心面临物理空间、供电容量与冷却效率的三重极限 —— 即便最大型的数据中心,也难以承载超大规模 AI workload 的持续运行。思科通用硬件集团执行副总裁马丁・伦德(Martin Lund)指出:“AI 算力已超出单数据中心的承载能力,必须建立数百英里外数据中心间可靠、安全的连接。” 此前行业常用的 “Scale-Up(纵向扩容,提升单系统性能)” 与 “Scale-Out(横向扩容,连接同场地多系统)” 策略均已触顶,“Scale-Across” 成为唯一可行路径,但这一转型也带来新挑战:数据中心间的连接链路成为关键瓶颈,传统路由设备根本无法适配 AI 流量的特殊需求。

传统路由器的短板在 AI 场景中被无限放大。AI workload 产生的流量具有 “爆发式、高波动” 特征 —— 训练过程中会出现短时海量数据传输高峰,随后进入相对平静期,若网络无法吸收这种流量冲击,将导致昂贵的 GPU 集群因等待数据而闲置,造成算力资源浪费与项目延期。更核心的问题在于,传统路由设备往往只能在 “高速度”“智能流量管理”“低功耗” 三者中择二,而 AI 数据中心互联需要三者兼备:既要满足大带宽传输需求,又要通过缓冲机制避免拥堵,同时还需控制能耗以适配数据中心紧张的供电预算。例如,部分老旧路由器虽能达到高带宽,但缺乏深度缓冲,流量高峰时易丢包;而某些具备流量管理功能的设备,又因架构冗余导致功耗过高,难以大规模部署。

思科 8223 路由系统通过架构创新,针对性解决了上述痛点。该系统采用紧凑的 3 机架单元(3RU)机箱设计,集成 64 个 800 千兆(Gigabit)端口,是当前固定路由系统中端口密度最高的产品,每秒可处理超 200 亿个数据包,互联带宽最高可扩展至 3 艾字节 / 秒(Exabytes/sec),完全覆盖跨城市数据中心的传输需求。其最核心的突破是由 P200 芯片赋能的 “深度缓冲能力”—— 缓冲空间如同 “数据水库”,能在流量高峰时临时存储数据,避免网络拥堵,确保 GPU 集群持续获取数据,大幅提升算力利用率。同时,3RU 的紧凑设计让 8223 实现了 “交换机级的能效”,在保持路由功能的同时,将单位带宽能耗降至行业新低,缓解数据中心的供电压力。此外,系统支持 800G 相干光模块,可实现最远 1000 公里的跨地域连接,为 AI 基础设施的地理分布式部署提供关键技术支撑。

在行业竞争格局中,思科 8223 的推出,使 “Scale-Across” 领域形成三强争霸态势。早在 2025 年 8 月中旬,博通便率先发布 “Jericho 4” StrataDNX 交换 / 路由芯片,同样具备 51.2 Tb/sec 带宽,并搭载高带宽内存(HBM)用于深度数据包缓冲;两周后,英伟达推出 Spectrum-XGS 跨域扩展网络,虽未公布太多技术细节,但已锁定 CoreWeave 作为核心客户。与竞争对手相比,思科的优势在于 “生态成熟度” 与 “技术灵活性”:其一,思科自 2019 年便推出 Silicon One 芯片系列,拥有多年企业级与服务提供商网络部署经验,微软、阿里云等 hyperscaler 已基于该芯片架构构建基础设施 —— 微软 Azure 网络技术院士兼副总裁戴夫・马尔茨(Dave Maltz)表示,Silicon One 的统一 ASIC 架构让微软能轻松将应用场景从数据中心扩展至广域网与 AI/ML 环境;其二,8223 支持开源 SONiC 操作系统,未来还将兼容 IOS XR 系统,P200 芯片也将覆盖模块化设备与 Nexus 产品组合,能适配不同企业的现有 IT 架构,避免厂商锁定风险,这一点对正大规模建设分布式 AI 基础设施的企业尤为重要。

从实际落地情况看,头部企业已开始部署思科 8223 系统。微软作为 Silicon One 的早期用户,正将其应用于多场景网络连接;阿里云计划以 P200 芯片为基础扩展 eCore 架构,用 P200 驱动的设备集群替代传统机架式路由器;电信运营商 Lumen 也在探索该技术如何提升网络性能与客户服务质量。此外,P200 芯片的 “可编程性” 为未来升级预留了空间 ——AI 网络协议与标准仍在快速迭代,传统硬件需更换设备才能支持新功能,而 P200 可通过软件更新适配新兴协议,大幅延长设备生命周期,降低企业长期投资成本。在安全层面,8223 还集成了基于后量子抗性算法的线速加密功能,能抵御未来量子计算带来的安全威胁,并与思科可观测性平台联动,实现网络状态的实时监控与问题快速定位。

尽管竞争激烈,思科仍具备差异化优势:相较于博通侧重芯片级解决方案、英伟达依赖自身 GPU 生态,思科拥有覆盖 “芯片 – 设备 – 软件 – 服务” 的完整生态,且与全球主流 hyperscaler 及企业客户建立了长期合作关系,这种端到端能力让其在 “Scale-Across” 落地中更具说服力。不过,最终能否成为行业标准,不仅取决于技术参数,更要看谁能构建更完整的软件生态、提供更全面的支持服务,以及实现与客户现有系统的无缝集成。正如行业分析所言,随着 AI 系统持续突破单数据中心限制,数据中心互联的重要性将愈发凸显,而思科、博通、英伟达的这场竞争,最终将推动整个行业的技术升级,为超大规模 AI 应用的落地扫清关键障碍。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/si-ke-tui-chu-quan-xin-ai-shu-ju-zhong-xin-lu-you-qi-zhi-ji

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月10日
Next 2025年10月11日

相关推荐

发表回复

Please Login to Comment