绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx

上传人:王** 文档编号:1324750 上传时间:2024-06-18 格式:DOCX 页数:23 大小:175.08KB
下载 相关 举报
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第1页
第1页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第2页
第2页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第3页
第3页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第4页
第4页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第5页
第5页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第6页
第6页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第7页
第7页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第8页
第8页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第9页
第9页 / 共23页
绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx_第10页
第10页 / 共23页
亲,该文档总共23页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx》由会员分享,可在线阅读,更多相关《绿色高能效数据中心散热冷却技术研究现状及发展趋势.docx(23页珍藏版)》请在优知文库上搜索。

1、一、前言数据是国家基础战略性资源和重要生产要素。21世纪以来信息技术(IT)飞速发展,物联网等大数据时代应用飞速崛起,负责计算、存储、数据信息交互的数据中心重要性日益凸显。作为我国“新型基础设施建设战略、“互联网+战略的重要载体,数据中心是我国进行产业数字化、生活智能化、服务信息化转型的重要基石,可支撑我国未来经济社会高质量发展。数据中心产业受到世界各国重视,市场规模逐年增加,投资及并购活跃,竞争激烈。2021年全球数据中心市场规模超679亿美元,预计2022年将达746亿美元,年增速在10%左右。我国重视数据中心行业发展,大型/超大型数据中心发展加速,行业收入提高。图1所示为我国数据中心机架

2、规模及其变化图,2021年达到5.2x18架,五年年均复合增速超30%,其中大型数据中心的机架规模达到4.2x18架,占总机架数的80%o2021年我国数据中心行业收入达到近1500.2亿元,是2017年市场收入的近3倍,年均增长率近30%。我国产业现代化建设不断推进,催生大量数据中心算力需求,市场前景广阔。电商、金融、通信等数字化程度较高的产业扩大用户市场,对数据中心产业需求持续增加;传统工业等行业也在积极进行数字化转型升级,优化产业结构,对于数据中心行业产生新的需求增长点。随着时间推移和产业信息化发展,数据中心产业与各行各业的联系会日益密切,最终成为支柱型基础设施产业之一。(聚9三x)、疑

3、抹足1210864204035302520151050201720182019202020212022时间/年数据中心机架规模;一增速图1我国数据中心机架规模及其变化图我国数据中心在经历产业萌芽期和行业引导期后,目前已进入高速高质量发展的新阶段,伴随数据中心计算业务量爆发式增长,传统的数据中心网络越来越难以提供支持云计算、边缘计算等所需的延迟,为更好承载数据处理需求,充分发挥数据中心的规模效益,降低业务部署成本和维护成本,大规模及超大规模数据中心己成为新建数据中心的首选。随着数据中心规模扩大,算力和功率密度节节攀升,支撑IT设备运行的能耗也相应飞速提高。与数据运算、存储、交换高能耗相伴的是设备

4、巨大的产热量,IT设备将99%以上的电能转换为热能,而其中70%的热能需数据中心通过散热冷却系统移除,进一步增加了数据中心的用电消耗。图2所示为近年来我国数据中心用电消耗情况。近五年来,我国数据中心耗电量保持15%以上的增长率,2020年耗电量突破2x101IkWh,占全国总用电量的2.7%,折合二氧化碳排放量2x1081(以燃煤发电折算)。作为辅助单元,散热冷却系统在大型数据中心的电能消耗与IT设备电耗基本相当。由此可见,数据中心的散热冷却系统具有极大的节能潜力。数据中心散热冷却技术的突破创新,是实现全行业绿色低碳发展的关键。OOo3OooooOoooo505052211MWtfc%三三50

5、5022115O20162017201820192020时间/年数据中心用电量;增速图2我国数据中心用电消耗情况本文从数据中心高能耗和散热冷却难两方面亟待解决的问题出发,综述了己经发展和应用的各种数据中心散热冷却方式,阐述了各方式的原理和特点,总结了数据中心行业散热冷却方式发展趋势并针对数据中心绿色高能效发展目标提出了建议。二、数据中心散热冷却技术需求分析数据中心面临能耗高和散热冷却难两大问题。依托区域能源供应优势和自然环境优势可降低数据中心的用电和散热冷却成本。因此,合理利用东数西算布局思路,将大型数据中心建设在我国能源充足、温湿度较低的西北部和西南部地区,可充分利用自然环境优势,降低数据中

6、心的运行成本。但存在数据传输距离远的高网络延迟问题,难以满足高精度导航、在线控制等边缘计算需求。在我国人口稠密,经济发达的东部地区布局数据中心仍是现实需求。在能源供应紧张、自然环境不利等现实条件下,破解散热难与高能耗瓶颈,发展绿色高能效数据中心成为行业共识。绿色高能效数据中心需同时实现产热移热速率匹配及能源利用效率提升两个目标,发展和应用新型散热冷却技术成为未来我国数据中心高能效绿色化运行的重中之重。(一)IT设备发热量增大,散热冷却系统移热速率亟需与产热速率匹配数据中心连续稳定运行是基本目标,实现该目标的关键问题是产热与移热速率相匹配。随着单位服务器机柜包含的服务器数量增多,机柜发热量与日俱

7、增,对散热冷却系统的要求不断提高。产热速率可用机柜功率密度衡量,其定义是单个机柜稳定运行所消耗的能量值(单位为kwr,r表示单个机柜)。机柜功率密度越高代表产热量越大,要求散热冷却系统移热速率越高。数据中心服务器机柜功率从低密度向高密度发展是必然趋势。低功率密度机柜在5kW/r以下,中功率密度机柜为510kWr,高功率密度机柜为IOkW/r以上。目前己投用的数据中心机柜功率密度在5-10kW/r居多,已有一些在用的超大型数据中心机柜功率密度在30kWr以上,甚至达100kW/r左右,这对于传统散热冷却技术是极大的挑战。如图3所示,目前发展的散热冷却技术主要有风冷和液冷两大类,其中风冷包括自然风

8、冷和强制风冷,适用的机柜功率密度较低;液冷分为单相液冷和相变液冷。散热冷却系统所采用的冷却介质、冷却方式不同,移热速率差距大。传统风冷最局可冷却30kW/r的机柜,对于30kW/r以上功率密度的机柜无法做到产热与移热速率匹配,会使机柜温度不断升高导致算力下降甚至损害设备。因此,在机柜功率密度不断提高的大数据时代,要求散热冷却设备及方式的不断创新,提升移热速率。喷淋冷却两相浸没液冷151050255075IOPa.R5传热系数/(kWm2K)图3冷却类型图(二)能源利用效率偏低,需发展绿色高能效散热冷却技术散热冷却需要消耗能量,移热速率的增大势必需考虑能源利用效率问题。衡量数据中心总体能耗水平的

9、指标为能源利用效率(PUE),定义为数据中心总能耗与信息技术设备能耗的比值。在相同IT功耗下,PUE值越接近1,表明其非IT功耗越低,能源利用率越高。如图4所示,数据中心的总能耗由供配电、照明、散热冷却和IT设备功耗等构成。如图5所示,当前,我国数据中心能量消耗中的43%用于散热冷却(对应数据中心PUE值大于2),冷却成本高,节能潜力大。制冷设备消耗电力供应数据中心产热与移热速率匹配IT设备消耗照明及其他消耗图4数据中心能源消耗组成示意图2%散热能耗;IT设备能耗;供配电能耗;照向及工他图5我国数据中心能耗分布示意图为提高我国数据中心的能效水平,促进信息行业绿色发展,工业和信息化部发布新型数据

10、中心发展三年行动计划(20212023年),要求新建大型及以上数据中心PUE降低到1.3以下。国家发展和改革委员会等发布关于严格能效约束推动重点领域节能降碳的若干意见,明确鼓励重点行业利用绿色数据中心等新型基础设施实现节能降耗,本着就高不就低的原则,以国内外先进绿色数据中心能效水平为技术改造目标方向,到2025年数据中心PUE普遍不超过1.5o三、风冷技术发展现状风冷是将冷空气送至IT设备进行换热的冷却方式,在信息技术产业起步阶段起到巨大作用。当时未明确数据中心概念,普遍被称为计算机房或计算机中心,业务少、规模小,计算机的数据处理能力低,机柜功率在广2kWr,风冷是当时最适合小微型数据中心的冷

11、却方式。当高功率密度的大型数据中心逐步成为主流后,风冷方式仍可满足机柜功率密度在30kW/r以下服务器移热要求,但其能源利用效率普遍较低,不符合信息行业绿色发展要求。根据空气流动的动力源,可将风冷分为自然风冷和强制风冷。自然风冷是利用空气密度随温度的变化产生空气循环,带走IT设备热量的冷却方式。IT设备附近的空气受热,温度升高导致密度减小,热空气向数据中心上部流动,产生压差使冷空气向IT设备自然流动。自然风冷空气流速小,对流传热不明显,制冷效果差,能量利用效率低,是已淘汰的冷却方式。强制风冷是利用风机将冷空气进行强制流动,吹向IT设备进行冷却的技术方法,是当前数据中心采用的最广泛的冷却方式。该

12、方法可通过增加IT设备散热面积或加快空气流动速率来实现良好的冷却性能。研究表明,采用合理的气流组织、智能通风、精确送风、智能换热、蓄冷空调、空调添加剂以及空调压缩机冷媒控制等技术,可降低强制风冷数据中心20%左右能耗。强制风冷按照空气来源的不同,目前主要包括空调制冷和新风制冷两种方式。(一)空调制冷空调制冷是以空调来冷却数据中心内部空气的冷却方式,由于空调系统耗能较高,采用该散热冷却方式的数据中心PUE一般在1.7以上。空调制冷适配性好,维护方便,技术成熟,稳定性高。但冷却效率较低,只能冷却中小功率的IT设备,无法满足未来中大型数据中心的冷却要求。(二)新风制冷新风制冷是指用数据机房外部空气(

13、新风)作为冷却介质的冷却方式。当数据中心内部温度高于外部环境时,可以直接将外部冷空气通过风机输送进数据中心,再将升温后的空气通过通道排至室外,采用该方式可比空调制冷节能40%,但对空气质量条件敏感,需添加灰尘过滤系统和增加除湿系统来调控空气质量。雅虎位于纽约洛克波特的数据中心、FaCebOok位于俄勒冈州的普林维尔数据中心等均采用新风的方式冷却,PUE可降低至1.2以下。当前新风制冷技术发展迅速,如设计分布式气流冷却系统(DACS)和吹吸通风冷却系统(BDVCS)可实现数据中心全年无空调设备的温度控制。新风制冷数据中心对环境要求高,在全年平均气温低的温带或寒带地区,使用新风制冷方式能节约大量制

14、冷成本。四、液冷技术发展现状风冷技术使用的冷却介质为空气,其热导率低,而液体的热导率较气体可提高一个数量级,理论上可将传热速率极大提高,可满足高功率密度机柜的散热冷却要求。2021年我国数据中心市场收入中,液冷数据中心市场收入已达450亿500亿元,占比30%以上,发展空间大。国内外在数据中心液冷方面已有一定研究基础并已取得了突破性进展,正成为变革性技术。液冷技术根据液体与IT设备接触状态,可以分为间接液冷、直接单相液冷和直接两相液冷三类。(一)间接液冷间接液冷是指液体与发热部件通过热的良导体间接接触,液体在通道内发生相变或非相变升温吸热,发热部件降温的冷却方式。在典型的间接液冷直流系统中,传

15、统的风冷散热片被替换为蒸发器或者其他液冷散热片,并添加冷却介质分配输送系统。冷却介质从数据中心外部通过输送管路连接到数据中心IT设备上,升温后的冷却介质与外部冷却源换热后降温,并通过管路输送至数据中心内部进行循环冷却。由于芯片是热量的主要来源,冷却介质通常会通过间接冷却的方式对芯片冷却降温,而其余组件如硬盘等则会通过风冷来移除热量,目前除芯片外,其余组件还没有能够商业化实施的间接冷却方案。间接液冷由于液体不与IT设备直接接触,因此液体选择范围较大,只需考虑导热系数是否满足技术要求,以及能否与换热导体管路兼容。间接液冷分为冷板冷却和热管冷却,目前实际应用的冷板冷却中液体大多不发生相变,而热管冷却过程中液体发生相变。1 .冷板冷却如图6所示,冷板冷却是将金属冷板与IT设备芯片贴合,液体在冷板中流动,芯片发热时将热传导给冷板金属,液体流过冷板时升温,利用显热将芯片热量带出,通过管道与外界冷源进行换热,是芯片级别的冷却方式,使用最多的冷却介质是水。冷板冷却是如今液冷数据中心采用最广泛的散热冷却方式,使用的是液冷和风冷相结合的方法,对芯片采用液冷,对硬盘等其他电器元件采用风冷,并非严格意义上的单纯液冷。与风冷最多冷却30kW/r的机柜对比,冷板能冷却小于45kW/r的机柜更节能且噪音小,不需要昂贵的水冷机组,与纯液冷对比也有一定优势

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 论文 > 管理论文

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!