光纤为何是AI就绪型数据中心的基石?

随着人工智能(AI)在各行各业加速落地应用,企业领导者也开始从根本上重新思考数据中心的建设和运营方式。同样,AI在中国市场势头正猛,各行业正从“互联网+”“5G+”向“人工智能+”加速转变。根据《中国智算中心产业发展白皮书(2024年)》显示,截至2024年11月,全国已投运的智算中心项目近150个,在建及规划建设的智算中心项目近400个。此外,据中国移动董事长杨杰预计,未来3年中国市场智能算力规模增长将超2.5倍,年均复合增速近40%。

要满足AI快速增长趋势下的需求,仅仅增加容量是不够的,关键在于解决该技术在现实应用中会带来的独特问题。

在如今的新时代,数据中心必须支持强大的算力、更快的构建速度和更高密度的环境——这一切都需要能够跟上AI发展步伐的基础设施来支撑。而光纤正是这种关键基础设施的核心。

数据中心面临的AI挑战

AI的发展步伐与互联网早期足迹如出一辙,但发展速度却快得多。过去网络规模的应用需要数十年才能建立,而AI如今仅需短短几年便能实现。这就对数据中心基础设施提出了前所未有的要求。

为了跟上这一发展步伐,数据中心的设计也在迅速演进。高性能图形处理器(GPU)对AI工作负载至关重要,其对服务器之间的连接需求也是前所未有地迫切。与此同时,在基于中央处理器(CPU)的传统数据中心设计中,电源和冷却方面的限制往往意味着机柜中可容纳的服务器或GPU节点更少,这因而导致连接所有设备所需的布线量急剧增加,远超传统数据中心。每台服务器都需要高速连接到交换机、存储系统和管理工具,对网络造成了巨大的压力。

以NVIDIA的DGX SuperPOD为例,作为AI基础设施的典范,它包含32台GPU服务器,单排连接18台交换机。仅这一配置就需要384条400GE光纤链路来处理整个集群的数据传输,这还不包括用于存储和管理的额外连接。数据中心机房内部所需的光纤布线量显著增加,这也直观地反映出传统网络设计已不再适用的原因。

密度的增加就要求采用新的能源管理和冷却方法,以处理更高的功耗和热量输出,同时支持高度互联系统中持续、大量的内部数据流量。

与此同时,大规模数据中心建设和日常运营中都存在劳动力短缺问题,这也会减缓数据中心的部署速度,并增加维护这些日益复杂的环境的难度。

在这些压力的共同作用下,数据中心无法再依赖传统的设计或渐进式的升级。要想有效地扩展AI应用,就必须彻底重新思考数据传输、电力供应和热量管理的方式,同时确保速度、可靠性和可扩展性。

而网络在其中扮演了至关重要的角色。网络的核心是光纤创新,它为AI就绪型数据中心奠定了重要基石。

利用光纤让数据中心为AI就绪

对于数据中心运营商而言,AI正在彻底重塑其设施的基石。仅仅关注算力的传统思维已不再足够。成功的关键在于连接一切的网络,它必须确保海量数据能够快速、可靠且不间断地传输。

正因如此,我们需要将光纤视为AI就绪型数据中心运营的基石。AI工作负载依赖于GPU之间的高速、低延迟连接,让它们协同工作并且需要通过网络进行扩展,将成千上万的GPU整合到快速兴起的AI工厂中。如果没有完善的基础设施设计就会出现瓶颈,进而导致性能下降、成本上升和可扩展性停滞。

为了满足这些需求,光纤网络必须不断演进。如今的数据中心需要更密集、容量更大的光纤,既能处理海量数据流,又能在同样大小的物理空间内部署。同时,随着熟练劳动力的短缺和加速部署的压力,光纤安装也必须更快且更简单。这推动了向预端接光纤解决方案的转变:即插即用的系统能够简化数据中心的建设并减少停机时间。

保持领先意味着要洞察市场趋势。越来越多部署大型AI集群的数据中心运营商正在从点对点布线转向更具可扩展性的结构化布线系统。单模光纤和多模光纤的选择依然关键,具体取决于设施的规模和设计,而InfiniBand和以太网在管理不同类型的AI流量方面持续发挥着至关重要的作用。

与此同时,业界正在朝更高速度和更大容量的方向迈进,以支持下一代性能的提升,从400 Gb/s迈向800 Gb/s、1.6 Tb/s、甚至更高的速度,并通过8芯和12芯光纤连接实现这一目标。未来,随着对更高传输速度的需求不断增加,16芯光纤连接有望成为行业发展的新趋势。

展望未来,光纤的角色不仅是解决方案的一部分,更是未来发展的基石。在AI时代,能够占据领先地位的数据中心将是那些能够以更高的速度传输更多数据、实现最大化利用并无缝扩展以支持未来AI技术和架构的数据中心。

随着AI不断重新定义各行各业,高性能光纤基础设施将成为确保数据中心不仅能满足当下需求,更能适应未来AI驱动型创新的关键所在。

【本文作者刘伟岗,康普数据中心业务部大中国区销售总监】

点赞

发表评论

邮箱地址不会被公开。 必填项已用*标注