11月3日,2022云栖大会上,阿里巴巴集团副总裁、阿里云基础设施负责人周明表示,阿里云将服务器、网络、数据中心进行了一体化架构升级,打造成“一台超高速运转的计算机”,并为这台发动机研发了一套超高性能的网络——磐久PredFabric,长尾时延显著降低90%,低至2微秒。

磐久超高性能网络 解决AI算力难题


【资料图】

近几年人工智能、机器学习相关需求井喷,AI算力需求每3.5个月翻一倍,过去六年已增长了30万倍,面对这种爆发式的算力需求,简单粗暴的硬件堆砌不可持续。虽然市面上许多AI硬件(包括GPU、FPGA等)的计算能力很强大,但它们的内存资源非常稀缺,当内存资源不足时,要么运算停滞,要么会增加数据的无效传输,带来很大的运行开销,增加了时间成本。

周明透露,阿里云工程师为此打造了一套“磐久超高性能网络”,采用自研的Solar-RDMA高速网络协议,使处理器可以通过load/store指令访问其他任意服务器的内存,非常适合深度学习模型内神经网络的交互形态,相比传统模式可降低长尾时延90%以上,最低可至2微秒。

同时,阿里云将云服务器的接入带宽提升了一倍,可达1.6Tbps,再配合上层的融合通信库ACCL,实现了在AI场景下的通信效率倍增,保障集群算力的线性输出,确保在大流量突发场景甚至部件异常的情况下,整个数据中心仍能保持稳定、高效的运转。

“灵骏”智算助力人工智能 释放高效算力

基于这套超高性能网络技术及软硬一体化能力,今年6月阿里云推出了新一代智能计算产品——灵骏,可最小化所有非计算开销,实现5倍的通信性能提升,千卡并行计算效率高达90%。

目前,“灵骏”不仅在阿里巴巴集团内大规模部署,也为广大企业提供算力服务。今年8月,小鹏汽车就基于“灵骏”建成了中国最大的自动驾驶智算中心“扶摇”,用于自动驾驶模型训练,训练速度相比传统模式下提升了近170倍。

通过与阿里云合作,“扶摇”以更低成本实现了更强算力,将GPU资源虚拟化利用率提高3倍,端对端通信延迟降低90%至2微秒。整体计算效率上,实现了算力的线性扩展。存储吞吐比业界20GB/s的普遍水准提升了40倍,数据传输能力相当于从送快递的微型面包车,换成了20多米长的40吨集装箱重卡。

更绿色低碳的全球云计算基础设施

目前,阿里云基础设施层已形成了服务器、网络、数据中心一体化架构设计,具备计算异构、资源池化和加速引擎三大能力,支撑上层云计算产品和应用平台的算力释放最大化,从而实现数据中心利用率的全局最优。

同时,阿里云还积极推动数据中心低碳转型,自主研发了单相浸没液冷技术,PUE低至1.09,大幅降低数据中心散热能耗。在清洁能源使用方面,2022年1-9月,阿里云五大数据中心清洁能源使用占比超过50%,累计减排二氧化碳77.4万吨,位列国内科技公司榜首。

“绿色是检验数据中心的黄金标准,我们将持续加强绿色自研技术创新投入,积极开展清洁能源电力交易,推动数据中心减碳增效。”周明表示。

推荐内容