近日,思科公司发布了一款新型路由器 ASIC,旨在帮助数据中心运营商克服电力和容量限制,将现有的数据中心连接成一个统一的计算集群。这款名为 Cisco8223的路由器具备51.2Tbps 的传输速度,采用了思科自主研发的 Silicon One P200ASIC。结合800Gbps 的相干光学技术,思科表示,该平台可以支持最远达1,000公里的连接。

图源备注:图片由AI生成,图片授权服务商Midjourney

通过连接足够数量的路由器,思科称该架构在理论上可以实现超过三艾字节每秒的总带宽,足以连接当前最大的 AI 训练集群。这样一个网络甚至可以支持包含数百万个 GPU 的多站点部署,但要实现这种级别的带宽,成本将相当高昂,需使用数千个路由器。

对于那些不需要如此高速度的客户,思科表示,这些路由器可以在较小的双层网络中支持高达13Tbps 的带宽。这种高速度的跨数据中心网络已引起多个大型云服务提供商的关注,包括微软和阿里巴巴。思科告诉我们,这些公司正在评估这些芯片的潜在部署。

阿里巴巴云网络基础设施负责人蔡登思表示:“这款新的路由芯片将使我们能够扩展到核心网络,取代传统的机架式路由器,使用一组 P200驱动的设备。这一转变将显著增强我们数据中心互联网络的稳定性、可靠性和可扩展性。”

思科并不是唯一一家加入分布式数据中心行列的网络供应商。今年早些时候,Nvidia 和 Broadcom 也推出了自己的跨数据中心网络 ASIC。与 P200相似,Broadcom 的 Jericho4是一款51.2Tbps 的交换芯片,主要设计用于高速数据中心间的网络架构。Broadcom 表示,这款芯片可以在超过100公里的距离内以超过100Tbps 的速度连接数据中心。

尽管这些交换和路由 ASIC 能够帮助数据中心运营商克服电力和容量的限制,但延迟仍然是一个持续的挑战。我们常常认为光速是瞬时的,但其实并非如此。两座位于1,000公里外的数据中心之间传输的数据包,单程大约需要五毫秒才能到达目的地,这还未考虑到传输信号过程中所需的额外延迟。

尽管如此,谷歌 DeepMind 团队在今年早些时候发表的研究表明,通过在训练过程中对模型进行压缩,并在两个数据中心之间进行战略性通信调度,许多延迟问题是可以克服的。

划重点:

🌐 新型 Cisco8223路由器具备51.2Tbps 传输速度,连接数据中心形成统一计算集群。  

💡 可支持多达三艾字节每秒的带宽,适合大型 AI 训练需求。  

🚀 阿里巴巴等大型云服务提供商正在考虑采用该技术,以提升网络稳定性和可靠性。