互联势在必行:AI 如何迫使企业重新思考“云优先”策略

过去几年,企业IT领域的主流观点一直非常明确:云优先,云至上。2020年至2024年间,AWS和Azure等公有云提供商占据主导地位,受益于快速数字化转型世界对可扩展性的迫切需求。
 
但随着2026年的到来,形势正在迅速转变。随着人工智能在企业战略中扮演越来越重要的角色,许多组织也开始重新关注本地计算和私有互联。
 
这种转变并非是对公有云的摒弃,而是标志着企业内部 IT 战略的重新平衡。企业领导者逐渐意识到,单一的、纯云架构无法满足现代 AI 工作负载的独特需求,因此他们正迅速调整网络规划,优先考虑灵活性和低延迟访问,而非以往对超大规模云服务的过度依赖。
 
AI 对速度的需求与 GPU 云的兴起

 
这种架构转变背后的原因在于 AI 工作负载的特性。与能够高效地跨 CPU 内核扩展的传统企业应用不同,AI 模型依赖于专用的高密度计算资源(例如 GPU 和 AI 加速器)来支持并行、资源密集型操作。
 
这正是 GPU 云的用武之地。Groq、CoreWeave 和 SambaNova 等供应商正看到企业对 GPU 云的需求不断增长,这些企业开始意识到训练和推理的不同之处,以及它们各自对网络的不同需求。训练需要高吞吐量,需要在计算集群之间长时间传输海量数据集。推理过程越来越靠近用户,并且越来越接近实时。语音交互以及诸如用于广告或内容创作的实时视频生成等新兴用例对延迟和抖动高度敏感。这些工作负载需要确定性的高带宽连接,以最大限度地减少距离和延迟。
 
2025 年云网络报告的数据反映了这一演变:本地私有连接的带宽水平正逐渐接近公有云。这表明架构正在发生更广泛的转变,朝着更近距离、更可控和更可预测的性能方向发展。
 
与此同时,自主人工智能正成为一项优先事项,尤其是在美国以外的地区,因为企业要求了解模型托管位置和数据处理方式的透明度。这推动了企业与人工智能基础设施提供商之间私有、直接互连的投资增加。能够实现企业与人工智能基础设施之间低延迟、高性能连接的举措正在帮助组织在任何需要的地方运行人工智能工作负载。
 
保持多云自由
 
除了技术性能之外,推动这一转变的第二个最关键因素是避免供应商锁定这一业务需求。随着人工智能在企业战略中扮演越来越重要的角色,模型的存储、训练和运行地点的选择至关重要,不应再受制于单一供应商的产品路线图、定价结构或功能集。企业已经意识到供应商锁定对创新的影响,因此正在投资于灵活的私有互连和本地计算,以获得保持竞争力所需的架构自由。
 
这种灵活性使企业能够采用真正的多云战略,根据特定服务选择性地连接到不同的超大规模云服务提供商,同时将核心人工智能模型和知识产权保留在自身的私有基础设施上。这种方法不仅增强了企业的议价能力,还降低了在不同公有云之间迁移大型人工智能数据集时产生的高昂且耗时的数据出站费用风险。
 
混合未来以互联互通为基石
 
分布式计算架构的兴起远非简单地回归传统的企业服务器机房;它是向复杂混合云模式演进的进程,而互联互通正是其战略基础。企业 IT 的未来无疑是混合的,而实现这一成功混合模式的关键组件正是私有互联。随着我们迈入企业 IT 的新时代,网络规划不再是次要因素,而是人工智能竞争中的主要差异化因素。
 
对于首席信息官 (CIO) 和网络架构师而言,指导原则正迅速从“云优先”转变为“互联优先”。通过优先部署灵活、高带宽的私有网络链路,企业可以确保将性能至关重要的专有 AI 资产保留在附近,同时还能充分利用公有云提供商提供的无限潜力和丰富服务。这种互联互通的方法使企业能够同时实现最佳性能和业务敏捷性,确保网络成为人工智能时代的推动者,而非瓶颈。
 
归根结底,人工智能的普及并非削弱云计算,而是推动云计算市场走向成熟。人工智能需要更精细化的方案,其中可靠、可扩展且低延迟的互连层将成为现代企业的中枢神经系统。企业IT的未来并非取决于公有云和私有云之间的竞争,而是取决于连接两者的专用网络连接的效率和战略部署。