浪潮信息采用3台AS13000G7服务器搭建分布式存储集群,搭载ICFS自研分布式文件系统,在3D-UNet和CosmoFlow两大评测任务中 共获得五项*佳成绩。其中,在图像分割3D-UNet多客户端2评测任务中,服务于10个客户端264个加速器,集群聚合带宽达到360GB/s,单个存储节点的带宽高达120GB/s;在宇宙学分析CosmoFlow单客户端2和多客户端2评测任务中,分别提供了18 GB/s和52 GB/s的带宽*佳成绩。
本次测试,浪潮信息采用3台AS13000G7服务器搭建分布式存储集群,搭载ICFS自研分布式文件系统,在3D-UNet和CosmoFlow两大评测任务中 共获得五项*佳成绩。其中,在图像分割3D-UNet多客户端2评测任务中,服务于10个客户端264个加速器,集群聚合带宽达到360GB/s,单个存储节点的带宽高达120GB/s;在宇宙学分析CosmoFlow单客户端2和多客户端2评测任务中,分别提供了18 GB/s和52 GB/s的带宽*佳成绩。
近年来,浪潮信息基于存算协同的理念,持续加大存储研发投入,从整体架构到各技术栈持续创新,优化升级存力,提升了GPU算力整体性能表现,实现了模型训练数据处理的即时性,消除了GPU资源闲置(即“饥饿GPU”现象),提升大模型训练效率。
架构层面,采用新数控分离架构。数据面和控制面完全解耦,控制面实现数据管理和访问,数据面读写操作直通到盘,达到120 GB/s的单存储节点的高性能,单存储节点支撑5台8卡计算节点规模,同时计算集群GPU利用率90%以上;
软件层面,通过多路并发透传技术,减少I/O操作中频繁的上下文切换,降低单次I/O时延50%,同时达到高并发下时延稳定性。本次测试中1430个高并发读线程支撑下,保证每个线程单次I/O的时延均在0.005秒,AI端到端训练中I/O占比低于10%。此外,通过元数据VRANK技术,达到单个元数据进程多单元并发处理,提供高性能元数据服务;
软硬协同层面,通过内核亲和力调度,I/O请求动态调整,增强文件系统与计算节点亲和性,确保负载均衡,将数据移动与多核CPU之间的访问效率提升400%。