开放数据中心大会丨新华三打造新一代智算网络 , 助力 AIGC 时代算力释放
【慧聪通信网】9 月 13-14 日,2023 开放数据中心大会在北京国际会议中心顺利召开,本届大会以 " 算力使能 开放无限 " 为主题,围绕算力行业技术趋势、数据中心产业生态建设等议题展开研讨。新华三集团交换机产品线产品管理部部长陈伯超受邀出席网络论坛并发表主题演讲,分享了 AIGC 时代下,新华三如何以智算网络支撑数据中心大规模复杂计算需求的同时,实现速度与效率双重突破的前瞻思考与实践。
当前,AIGC 应用正以惊人的速度发展,数据显示,2018 至 2022 年,大模型参数量从 1 亿飙升至 5400 亿,算力需求也随之爆发式增长。但由于摩尔定律、胖树架构规模以及并行通信效率的限制,网络数据传输成为算力提升的瓶颈。为打破算力进化的网络桎梏,助力百行百业享受 AIGC 技术红利,新华三集团推出新一代智算网络解决方案,聚焦超宽网络、极低时延、端网存一体化、低碳节能四大关键方向,全面满足智算时代对网络的关键技术需求和应用体验需求。
超宽网络:加速高性能网络技术落地
AI 集群中,高性能 GPU、万亿参数训练规模以及高速并行计算需求,需要更高的网络带宽支撑计算节点间的高效通信。作为网络先进技术的领导者,新华三集团持续引领高速网络技术产品化进程,从 2017 年完成业界首个单框 768*100G 性能测试,到 2023 年业界首发 800G CPO 硅光数据中心交换机,并通过专业机构实测验证,新华三打造了全系列智算交换机产品及解决方案,引领智算网络超宽进化。
在高速网络基础上,为保障带宽收益最大化,新华三集团在产品中集成智能无损网络特性,解决以太网丢包导致的集群性能损失问题。其中,全局负载均衡技术可根据整网交换机节点流拥塞状态和全网拓扑识别出最优路径,提升整网吞吐至 90%,大大缩短 AI 训练周期;SprayLink 和 AgileBuffer 功能为 AIGC 场景的大象流、老鼠流特征带来解决方案,可提高 95% 链路带宽利用率,实现高优先级业务零丢包。
极低时延:优化智算网络运行效率
大规模算力环境下,时延抖动也会影响 AI 训练效率,如何降低计算通信时延,是智算中心充分释放算力的又一核心问题。新华三集团以领先设计降低设备传输时延,H3C S9827 系列融合 CPO、LPO 硅光技术,时延较传统设计最高可减少 25%。此外,为提升智算网络整体可用性,新华三推出基于 DDC 超低时延架构的 H3C S12500AI 系列,有效降低端到端时延和抖动。
陈伯超表示,在传统胖树架构下,大规模算力需采用三层网络架构,转发时延大,易造成无谓的多跳转发,也缺少针对多路径的负载均衡优化技术。为进一步优化智算网络运行效率,新华三集团基于超宽产品实现 Spine-Leaf 二层架构,优化全流程传输效率,整网带宽利用率提升 20%,端到端时延减少 15%。
端网存一体化:提供算力建设全栈产品
与此同时,随着 AI 集群规模的增长,计算、存储、网络等基础设施的部署难度也随之提升。新华三集团整合 " 云 - 网 - 算 - 存 - 端 " 全产业链优势,建立起围绕 AI 大模型的 " 端网存一体化 " 能力,结合强大的 AI 服务器、无损网络解决方案、高性能存储全系列产品,从模型到基础设施一站式应用部署,形成端到端的智算解决方案,满足 AI 算力建设的全方位需求。
低碳节能:多维度突破功耗困局
高算力往往也伴随着高能耗,如何构建高效、节能的绿色数据中心,是关乎 AIGC 可持续发展的重要命题。新华三集团从多维度突破数据中心功耗困局,通过加大光技术的研究,提高网络速率的同时降低功耗和发热;通过深挖设备节能潜力,打造高效供电方案、低功耗风扇等提升能效比;通过发展液冷技术,打造冷板式、浸没式液冷等全栈产品,从底层着手打造绿色数字基础设施。
随着智算产业的蓬勃发展,网络技术必将迎来更多重大革新,新华三集团基于对行业需求和技术演进方向的深刻洞察提出四大网络技术发展趋势,包括超大带宽产品的加速上市、面向 Al 的以太新协议框架将竞相涌现、以 CXL 为代表的异构计算资源交换技术将持续渗透、嵌入式网络运维大模型将逐步普及,这四个方向也将是新华三的重点研发投入和技术攻坚方向。
作为网络领域的领军企业,面向未来,新华三集团将以行业趋势为导向,秉持 " 精耕务实,为时代赋智慧 " 的理念,持续推动 AIGC 场景下网络技术的探索和实践,不断精进网络产品和解决方案,推动百行百业向全面智能化加速迈进。