《算力中心冷板式液冷发展研究报告(2024年).docx》由会员分享,可在线阅读,更多相关《算力中心冷板式液冷发展研究报告(2024年).docx(29页珍藏版)》请在优知文库上搜索。
1、目录一、算力中心冷板式液冷发展必然性1(一)政策背景:绿色发展备受关注,能耗要求日趋严格1(二)发展环境:单机功率密度提升,散热问题愈发显著2(三)标准走势:标准制定不断完善,行业发展持续规范4(四)产业现状:系统节能潜力显著,技术迭代创新发展5二、算力中心冷板式液冷技术分析6(一)冷板式液冷解决方案6(二)冷板式液冷关键技术要素10(三)冷板式液冷技术优势16三、算力中心冷板式液冷典型应用案例25(一)基于英特尔架构的超聚变冷板式液冷解决方案25(二)基于英特尔架构的京东云绿色算力中心高密度算力方案27四、趋势与展望29图目录图1冷板式液冷整体链路图7图2一次侧冷却水余热回收示意图11图3一
2、次侧冷冻水并联余热回收示意图11图4一次侧冷冻水串联余热回收示意图12图5二次侧并联余热回收示意图13图6冷却液分类图15图72019-2023年我国算力中心耗电量(亿千瓦时)20图8某大型冷板式液冷算力中心项目效果图26图9液冷服务器部署示意图28图10液冷服务器实际部署图29一、算力中心冷板式液冷发展必然性当前.,人工智能、大数据等新一代信息技术迎来创新发展,数字经济已成为当前主要经济形态,数字化转型持续驱动生产方式、生活方式和治理方式发生深刻变革。算力中心作为数据传输、产生、汇聚、融合的重要场所,是各个行业信息系统运行的物理载体,在“新基建等利好政策的加持下,产业始终保持着良好增长态势。
3、随着“东数西算”工程的纵深推进以及数字中国建设整体布局规划中数字中国建设目标的不断升级,我国算力中心产业发展步入新阶段,催生出新一轮算力中心建设高潮。尤其是“双碳”目标发布后,为进一步推动算力中心整体低碳化发展,促进算力中心机房的快速、高效散热,满足国家对算力中心绿色、节能等建设需求,液冷技术成为未来算力中心建设的重要选择。(一)政策背景:绿色发展备受关注,能耗要求日趋严格算力中心行业的高耗能和碳排放问题引起诸多关注。近年来,我国算力中心在实现规模化、集约化的同时,算力中心耗电量也在不断攀升,设备部署呈现出“高密度、高耗能、异构化”等发展特点。在“双碳”战略目标和全球能源治理改革的宏观形式下,
4、加快推动算力中心的绿色可持续发展势在必行。2021年10月,关于严格能效约束推动重点领域节能降碳的若干意见首次提到将数据中心行业纳入重点推进节能降碳领域。此外,为助力绿色低碳转型,国家和各地政府多次出台倡导节能减排的相关政策文件,在能耗总量限制的基础上推进绿色节能的算力中心建设。算力中心绿色低碳发展持续深化,主管部门对电能利用效率(PUE)提出明确要求。PUE是算力中心最常见的评价性能指标,也是行业评价算力中心绿色性能的主要衡量指标,PUE值越接近于1,则代表算力中心的绿色化程度越高。近年来,各级主管部门对算力中心PUE要求持续提升。2021年7月,工信部印发新型数据中心发展三年行动计划(20
5、21-2023年)明确提出,到2023年底,新建大型及以上数据中心PUE降到1.3以下。2022年1月,国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下。2023年4月,财政部、生态环境部、工信部联合印发绿色数据中心政府采购需求标准(试行)中提出,自2023年6月起数据中心电能比不高于1.4,2025年起数据中心电能比不高于1.3。北京、上海、深圳等其他地方政府也相继对算力中心PUE提出了一定的限制要求。与此同时,国家持续鼓励算力中心在研发、测试和应用中,采用液冷相关技术,加大算力中心行业节能技术创新力度
6、,提升能源利用效率。(二)发展环境:单机功率密度提升,散热问题愈发显著我国算力中心规模保持高速增长,建设大型及以上算力中心成为主流模式。随着各行业数字化转型升级进度加快,全社会数据总量呈爆发式增长,人工智能、大数据、5G、IoT.AIGC等技术催生海量多样数据,极大的推动了数据存储、计算、传输、应用需求,促进我国算力中心建设规模高速增长。截至2023年,我国提供算力服务的在用机架数达到810万标准机架,算力规模达至J230EF1.OPS0大型以上算力中心机架数量占算力中心总机架规模比重逐年上涨。由此可见,高功耗、高密度的大型、超大型算力中心仍然作为未来建设的重点。高算力需求进一步推动算力中心单
7、机功率密度提升,大型算力中心的单机架功率密度已接近8kW,少数超大型算力中心的单机架功率密度已达20kW。当下,我国大型算力中心的建设加速及以ChatGPT为代表的新人工智能时代的到来,人工智能的应用需求日益凸显,处理大规模数据和复杂计算任务的高算力需求也不断增加。一方面,为了满足这些需求,算力中心需要提高单机架的计算能力,而通过增加处理器核数、内存容量和存储空间等方式提升单机功率密度是实现高算力需求的一种常用的策略。另一方面,受限于算力中心建设面积、环境保护规定和算力中心服务器承载能力等因素,提升算力中心单机柜功率密度成为有效疏解不断上涨的高算力需求的关键途径。算力中心正在面临散热的挑战,液
8、冷技术成为新型制冷解决方案。高功率的服务器和IT设备产生的热量不断增加,而算力中心的散热能力有限。因此,算力中心需要采用先进的散热技术,解决机柜间空气流动限制、散热设备容量不足、空间和布线限制等散热难来源:中国信息通信研究院题,以确保服务器和IT设备的正常运行。当前,液冷技术通过冷却液体替代传统空气散热,降低服务器等设备温度实现自然散热,提升散热效果,已逐步成为一种新型制冷解决方案。液冷技术主要分为冷板式液冷、浸没式液冷和喷淋式液冷技术等技术类型,其中冷板式液冷技术作为成熟度最高、应用最广泛的液冷散热方案,更适用于高性能计算、高密度的算力中心领域,有利于促进算力中心绿色低碳发展、降低算力中心P
9、UE。(三)标准走势:标准制定不断完善,行业发展持续规范政策引导算力中心液冷技术落地提速。近年来,发改委、工信部等全国一体化大数据中心协同创新体系算力枢纽实施方案、工信部新型数据中心发展三年行动计划(2021-2023年)、发改委贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案等相关政策明确提出推进算力中心液冷技术研发、采用液冷等节能技术模式。在国家、地方政府及行业政策引领下,算力中心应用液冷技术进入大规模的普及和建设阶段。算力中心冷板式液冷技术标准制定步入“新常态”,行业朝向规范化发展。算力中心液冷技术作为一项新的“革命”技术,当前我国针对液冷技术的研究仍处
10、于起步阶段,其液冷服务器的设计、运维、安防等方面的行业标准较为空缺,业界尚未形成统一的技术标准,增高了产业发展壁垒。得益于政策的支持与引导,液冷产业标准规范化迎来了快速发展,算力中心冷板式、浸没式、喷淋式液冷服务器系统技术、冷却液技术和测试方法等行业标准如雨后春笋般出台。特别是冷板式液冷技术标准制定逐步朝向常态化、规范化迈进。中国信息通信研究院云计算与大数据研究所依托ODCC(开放数据中心委员会)“冰河”项目组,与业界联合起草发布的数据中心冷板式液冷服务器系统技术要求和测试方法行业标准,规定了算力中心冷板式液冷服务器系统的服务器、CDU和其他相关技术要求和测试方法,并适用于服务器的设施、部署、
11、运维、测试等环节技术指导,为进一步推进冷板式液冷方案的可靠、高效和便捷夯实了坚实的基础。(四)产业现状:系统节能潜力显著,技术迭代创新发展国外在算力中心液冷技术和产品方面起步较早,目前冷板式液冷市场主要以欧美公司为主,其中美国公司占比超过60%,是冷板式液冷多种技术路线的主要发展区域。我国液冷技术起步稍晚于国外,但起步后发展迅速,冷板式液冷技术是我国最早采用的液冷方式,相较于其他模式液冷方案,冷板式液冷在可靠性、可维护性、技术成熟度方面更为突出,且更符合算力中心机房改造程度、适应性等特征,广受算力中心运营商的青睐,目前其相关产品在市场上占比较高。基于冷板式液冷在技术、生态、应用方面的发展基础,
12、众冷板式液冷生态伙伴持续加速节能技术迭代创新。在服务器方面,打造整机柜服务器解决方案,实现高效节能、快速部署、便捷运维等方面的全新升级;在散热材料方面,采用导热性能更佳的新一代散热材料,更高效地将热量从IT设备传导到冷却介质中;在控制系统方面,引入智能控制和自适应调节技术,实现对冷却系统的实时监测和调控,提升冷却系统的稳定性;在能源利用方面,采用能耗较低的冷却介质以及余热回收等方式,减少能源的消耗。积极推动算力中心不断实现能效优化和低碳转型。多家企业纷纷推出冷板式液冷相关技术和产品,并在算力中心行业内有了一定规模的应用案例。超聚变冷板式液冷服务器解决方案通过先进的集中供电、总线盲插和原生液冷技
13、术,实现节点、机柜、机房三级可靠性设计,PUE低至1.06,并获得全球首个TUV南德制冷PUE能效认证及全球首个TUV莱茵液冷防泄漏认证,已商用部署超过5万节点,成功应用于互联网、高校、政企、金融等领域,成为商用液冷新标杆。互联网厂商冷板液冷整机柜服务器在河北某算力中心大规模部署,其服务器通过模块化设计、一体化交付、高效运维部署等方式,提升IT设备散热效率。二、算力中心冷板式液冷技术分析(一)冷板式液冷解决方案1.冷板式液冷方案概述冷板式液冷技术是通过冷板2将芯片等发热元器件的热量间接传递给封闭在循环管路中的冷却液体,冷却液带走热量,并将其传递到一次侧回路,通过冷却系统进行冷却,最后将热量排出
14、系统。2通常是铜、铝等高导热金属构成的封闭腔体冷板式液冷技术利用冷却液作为热量传输的媒介,将热量由热区传递到远端后再进行冷却。在该技术中,冷却液与被冷却对象分离,不与电子器件进行直接接触,而是通过液冷板等高效热传导部件将被冷却对象的热量传递到冷却液中,因此冷板式液冷技术又称为间接液冷技术。冷却液的导热性能比空气更好,能够更快地吸收和转移热量,与传统的风冷技术相比,冷板式液冷具有更高的散热效率。此外,冷板式液冷还可以减少算力中心的噪音和灰尘污染,提高算力中心的整体环境品质。2.冷板式液冷系统设计冷板式液冷系统可以分为一次侧(室外)循环和二次侧循环(室内)两部分。其中,二次侧循环主要通过冷却液温度
15、的升降实现热量转移,而一次侧的热量转移主要是通过水温的升降实现。来源:中国信通院云计算与大数据研究所图1冷板式液冷整体链路图一次侧系统主要由室外散热单元、一次侧水泵、定压补水装置和管路等部件构成。一次侧冷源可采用机械制冷系统和自然冷却系统,以响应二次侧末端不同的温度需求。机械制冷系统包括风冷冷冻水系统和水冷冷冻水系统,可提供12C-18C的中温冷冻水;自然冷却是在室外气象条件允许的情况下,利用室外空气的冷量而不需机械制冷的冷却过程,自然冷却系统可采用开式冷却塔、闭式冷却塔和干冷器等设备实现,可提供30以上的冷却水。冷板式液冷一次侧冷源形式需结合二次侧末端水温需求和项目地室外环境情况确定。目前,
16、一次侧散热设备通常选择干冷器或者闭式冷却塔。二次侧系统主要由换热冷板、热交换单元和循环管路、冷源等部件构成。二次侧液体回路是指从冷量分配单元到机架,通过循环管路和IT设备连接,然后再通过循环管路返回冷量分配单元的设计。来自二次侧冷却回路的热量通过热交换单元的板式换热器传递到一次侧冷却回路,最终排放到大气中或被热回收再利用。换热冷板常作为电子设备的底座或顶板,通过空气、水或其他冷却介质在通道中的强迫对流,带走服务器中的耗散热。从而有效降低算力中心的PUE值。冷板材质一般由高导热系数的材料(如铜板)构成,冷板表面接近等温,可带走大量的集中热量,从而有效降低算力中心的PUE值。由于冷板在工作过程中不直接接触发热元器件,因此避免了冷却介质对电子元器件的污染,提高了算力中心设施的使