2024年至2025年,全球数据中心产业正经历一场静默而深刻的物理层革命。当NVIDIA GB200 NVL72机柜以140kW的功率密度刷新行业认知,当Meta的RSC-2024集群使用262,144根光纤连接24,576个GPU时,传统数据中心"地板下送风+地板下布线"的设计范式正在迅速崩塌。这场变革的核心驱动力并非来自布线技术本身,而是人工智能工作负载对散热、供电和空间效率的极致要求,迫使行业重新审视数据中心三维空间的价值分配。
根据AFCOM发布的第十次年度数据中心状态报告,2025年数据中心平均机架密度已达到27kW,较2024年的16kW增长69%,创下该报告十年历史中的最大同比增幅。更为惊人的是,NVIDIA预计2027年推出的Rubin Ultra NVL576机架功耗将超过600kW,下一代AI机架设计功率需求将突破1MW大关。在这一背景下,架空布线(Overhead Cabling)正从传统的"可选项"转变为AI数据中心的"必选项",而地板下布线(Underfloor Cabling)则因与液冷系统的结构性冲突而逐渐退出历史舞台。

功率密度跃升——布线架构变革的物理根源
从千瓦级到兆瓦级的密度跨越
AI工作负载对数据中心物理形态的重塑始于芯片功耗的指数级增长。以NVIDIA GPU演进为例:A100的TDP为400W,H100/H200升至700W,B200达到1000W,而B300将飙升至1400W。这种增长不仅体现在单芯片层面,更体现在机柜级聚合——8卡GPU服务器已从15-20kW演进至50-60kW,整机柜方案如GB200 NVL72直接触及120-140kW量级。
传统数据中心的设计基准正被彻底颠覆。空气作为冷却介质,其热容量存在物理极限。当机柜功率超过30kW时,风冷系统需要极端的气流组织、巨大的风机功耗及精密空调支持,PUE(电能使用效率)通常高达1.5-1.8。而液冷技术凭借液体数百倍于空气的比热容,可将PUE降至1.1-1.2,节能30%以上,并支持100-300kW/机柜的超高密度。
这一物理现实彻底改变了数据中心的空间逻辑。传统风冷数据中心依赖地板下空间作为冷风通道,电缆与冷风的"空间共享"曾是高效设计。但当液冷系统取代风冷,冷却液管道需要占据地板下或架空层空间时,电缆与管道的"空间竞争"便成为了不可调和的矛盾。
液冷系统的空间侵占效应
液冷技术的普及正在重塑数据中心建设的全产业链。从冷却液分配单元(CDU)到管道网络,从专用歧管到机架级集成,液冷基础设施的复杂度远超传统风冷系统。建设高密液冷数据中心需要至少2-3倍于传统系统的管道长度,带来更高的材料成本、更专业的劳动力需求,以及更复杂的焊接、测试和调试流程。
STT GDC的技术分析指出,液冷系统的管道布局面临关键抉择:管道可以架空或地板下铺设,但每种选择都对天花板高度、净空、电缆通道和维护访问产生深远影响。架空管道需要更强的天花板支撑和更高的层高,而地板下管道则迫使运营商重新审视正在被淘汰的架空地板设计。更为棘手的是,现代AI服务器已原生集成液冷接口,电力与散热系统必须协同设计,而非孤立改造。
这一结构性冲突在华为发布的《AIDC机房参考设计白皮书》中得到明确回应:白皮书建议机房层高不低于7米,承重能力达到12kN/㎡,以适应未来AI服务器重量增加的需求;在网络布线方案上明确提出"光纤预埋+动态扩展"模式,通过主干光缆冗余设计与端口预留,确保超大规模集群的带宽与时延指标。这些建议隐含了对架空布线的强烈偏好——唯有架空层才能同时为液冷管道和高密度光纤提供足够的物理空间。
技术经济学——架空布线的效率优势
空间效率的重新定价
架空布线系统的核心优势在于对数据中心三维空间价值的重新分配。Data AirFlow的分析指出,传统地板下系统需要架空地板来容纳电缆和管道,往往增加建筑高度并限制可用空间。通过将电力基础设施移至架空层,数据中心可以消除或显著减少对这些架空地板的需求,从而回收宝贵的地面空间用于额外的IT设备。
这种空间效率的提升在AI数据中心具有乘数效应。首先,液冷系统本身已消除了对地板下冷风通道的依赖,架空地板的原始功能已不复存在。其次,AI机柜的重量和功率密度要求更高的结构承重,简化地板结构可直接降低建筑成本。第三,架空布线允许更灵活的机柜布局,使数据中心管理者能够优化气流组织(尽管风冷已非主流,但热风管理仍需考虑)、电缆管理和运维效率,而不受地板下电源馈送和冷却基础设施位置的约束。
CUDO Compute的技术指南进一步强调,现代数据中心设计应采用"架空电缆桥架、地板下或沟槽空间用于电力分配"的混合策略,保持主要通道畅通以便液体管道通行,并允许任何泄漏的重力排水远离电气系统。这种"电缆上走、液体下走"或"电缆与液体共架"的架构,本质上是对地板下空间价值的重新评估——在液冷时代,地板下空间更适合承载不可压缩的液体管道,而非可灵活布线的电缆系统。
运维效率的范式转移
从运维角度看,架空布线系统提供了不可替代的可访问性优势。PowerWhips的比较分析指出,地板下系统的初始安装复杂且耗时,需要专业工具和专业知识;而修改布线基础设施可能更加困难,因为需要抬起地板瓷砖。相比之下,架空系统使用从天花板悬挂的桥架、梯架和导管,提供直接的安装路径,但可能使未来的变更复杂化——这一传统认知在AI数据中心语境下需要重新审视。
实际上,AI工作负载的"高动态性"特征——训练任务的突发性、集群规模的弹性扩展、网络拓扑的频繁重构——要求布线系统具备前所未有的可维护性。当Meta需要调整RSC集群的262,144根光纤连接时,当NVIDIA的GB200机柜需要更换故障光模块时,地板下作业的时间成本和风险成本变得不可接受。架空布线允许技术人员在不干扰地板下液冷管道的情况下快速访问电缆,这一优势在高密度环境中被放大。
更关键的是,AI数据中心的生命周期正在缩短。传统数据中心设计寿命为15-20年,而AI基础设施的技术迭代周期已压缩至3-5年。架空布线的"即插即用"特性——通过预端接光纤系统(MPO/MTP)和模块化配线架——支持未来向1.6T甚至3.2T的平滑演进,而地板下布线的改造则涉及对液冷系统的干扰,技术风险和经济成本均显著更高。
网络架构重构——东西向流量与布线密度
AI集群的网络拓扑革命
AI工作负载对网络架构提出了截然不同的要求。大模型训练需要海量参数同步,产生密集的"东西向"(服务器间)流量,要求网络具备超低延迟(微秒级)、高带宽(400G/800G)及无损传输能力。传统数据中心以"南北向"(客户端-服务器)流量为主,网络架构多为三层树形结构,难以满足AI集群的all-reduce通信模式。
这一流量特征的直接后果是布线密度的指数级增长。Meta的RSC-2024集群使用262,144根光纤连接24,576个GPU,总重量达28吨。这种规模的光纤基础设施无法容纳在传统的地板下空间——即便物理空间足够,光纤的弯曲半径管理(≥10倍电缆直径)、信号完整性维护和热环境适应性(地板下可能因液冷泄漏而存在湿度风险)都指向架空部署。
行业正在从传统的三层架构(接入-汇聚-核心)向叶脊架构(Leaf-Spine)全面转型,实现任意两点间的等价多路径(ECMP)转发,消除网络瓶颈。对于存量机房,可通过增加Spine层交换机、重构光纤布线系统实现过渡。英伟达的Spectrum-X与BlueField-3 DPU方案,为以太网环境下的AI网络提供了InfiniBand级别的性能。这些网络变革的物理层体现,正是架空布线系统对高密度、高灵活性光纤管理的支持。
光纤与液冷的共存工程
AI数据中心的特殊挑战在于电缆与冷却管道的物理共存。直接液体冷却(DLC)和浸没式冷却正在革新机架设计,但要求电缆和冷却管在有限空间内无干扰共存。非导电冷却液(如3M的Novec或工程介电液)的使用允许管道和光纤电缆共享紧凑空间,NVIDIA的GB200 NVL72机架采用DLC与氟化液,使电缆和冷却管可在架空托盘中并排布线。
华为FusionModule2000-S等模块化设计采用柔性聚合物管,可在30mm半径下弯曲,与光纤 optic弯曲极限匹配以避免扭结。这种"电缆与冷却共架"的架空布线策略,在地板下环境中几乎不可能实现——地板下空间的封闭性、潮湿风险和访问限制,使其不适合同时容纳高压液体管道和精密光纤系统。
产业链响应——从设备供应商到设计规范
基础设施供应商的战略转向
主要基础设施供应商正加速布局支持架空布线的液冷解决方案。2025年2月,Vertiv推出全球液冷服务产品组合,旨在支持AI和高密度计算,提供从集成、部署、安装到维护的端到端解决方案。2025年3月,CoolIT Systems推出原型单相液冷冷板,可处理约4,000瓦功率,冷却能力是当前NVIDIA GPU的三倍。2024年12月,施耐德电气与NVIDIA合作开发液冷架构,支持GB200 NVL72芯片,机架密度超过132kW。
施耐德电气2025年6月发布的EcoStruxure Pod数据中心解决方案更具标志性意义:该方案集成液冷、高功率母线槽及高密度NetShelter机架等基础设施,其中"高功率母线槽"的部署方式明确指向架空供电架构。母线槽(Busway)系统相对于传统电缆的优越性在于:更高的功率密度、更灵活的配电路径、更小的空间占用——这些优势唯有在架空环境中才能充分发挥。
设计规范的适应性演进
行业设计规范正在响应这一范式转移。TIA-942标准对数据中心 cabling 的最佳实践建议已显著向架空布线倾斜:对于光纤和AOC(有源光缆),架空布线是理想选择,因为它避免了地板下冷却系统的热量积聚;对于短距离铜缆DAC(直连电缆),地板下布线虽可行,但需要≥6英寸的间隙以防止气流阻塞——这一建议在液冷数据中心中已失去相关性,因为气流管理不再是主要考量。
新加坡数据中心冷却市场的分析报告显示,非架空地板设计正在获得市场份额,估计占35%的份额。这些站点通常将平板地板与架空空气和液体系统配对。高密度AI区域越来越倾向于非架空地板以确保结构坚固性。这一趋势与架空布线的普及形成镜像:当地板被简化或取消,电缆自然向架空层迁移。
未来展望——兆瓦级机架与全架空架构
技术演进的临界点
展望未来,数据中心设计将继续向更高密度、更大规模、更智能化方向演进。NVIDIA预计2027年推出的Rubin Ultra NVL576机架将采用液冷技术,提供超过15 exaflops的FP4推理性能,功耗超过600kW。下一代AI机架设计功率需求将突破1MW。在这一功率密度下,地板下空间将完全让位于液冷基础设施,架空布线将成为唯一可行的电缆管理方案。
固态变压器(SST)技术、氮化镓功率器件、相变储能等前沿技术将加速商用,为兆瓦级机架时代提供技术支撑。这些技术的共同特征是对配电路径的更高要求——架空母线槽系统相对于传统电缆的优越性将随着功率密度的增长而放大。数据中心与电网的互动将更加深入,通过虚拟电厂、需求响应等机制,数据中心将从单纯的电力消费者转变为电网的主动参与者和平衡者,这一角色转变要求配电系统具备更高的可视性和可调度性,架空布线的可访问性优势再次凸显。
风险与挑战的再平衡
尽管架空布线在AI数据中心中呈现压倒性优势,行业仍需审慎应对其固有挑战。架空系统的视觉混乱、与照明或消防系统的潜在干扰、以及可能更高的初始安装成本,仍需通过精细化设计加以管理。此外,架空液冷管道与电缆的物理接近引入了新的风险维度——尽管非导电冷却液降低了短路风险,但泄漏检测、快速断开(QD)连接器的可靠性、以及维护人员的安全培训,都需要纳入整体设计考量。
Uptime Institute的预测指出,到2025年超过30%的新建数据中心将采用某种形式的液冷。随着这一比例在2026-2027年进一步攀升,架空布线将从"最佳实践"转变为"标准配置"。对于存量数据中心的改造,"风液融合"架构提供了过渡路径——通过利用风冷和液冷的特点,实现制冷量动态分配,根据服务器功率密度和业务特点灵活选择。在这一过渡期内,混合布线策略(关键AI集群采用架空布线,通用计算保留地板下布线)将成为务实的选择。
结语:空间政治学的重构
AI数据中心从地板下布线向架空布线的转型,本质上是一场关于三维空间价值重估的"空间政治学"革命。在风冷时代,地板下空间是冷风通道,是电缆的庇护所,是数据中心热管理的战略要地。在液冷时代,这一空间被冷却液管道重新占领,电缆被迫向上迁移,却在架空层发现了更广阔的灵活性、可维护性和未来扩展性。
这一转型绝非简单的物理位移,而是数据中心设计哲学的根本转变:从"为通用计算设计"转向"为AI原生设计",从"静态基础设施"转向"动态可重构资源",从"能耗成本中心"转向"算力价值中心"。当电缆从地板下升起,它们不仅获得了更好的视野,更获得了适应AI时代快速迭代的生命线。
根据24ChemicalResearch的市场预测,下一代(400G及以上)数据中心电缆是发展最快、技术最先进的细分市场,代表着数据中心电缆基础设施的前沿。向400G、800G乃至1.6T速度的迁移对于支持AI、机器学习工作负载和高性能计算等带宽密集型应用至关重要。在这一带宽竞赛中,架空布线系统凭借其空间效率、运维便利性和未来扩展性,已成为AI数据中心不可或缺的基础设施层。
从地板到天花板,这短短几米的垂直距离,丈量的是数据中心产业从云计算时代向AI时代的跨越深度。当未来的历史学家回顾2024-2025年的基础设施变革时,他们或许会注意到:正是电缆的这一"上升运动",为人类AI算力的下一次跃升铺平了物理道路。






参与评论 (0)