热线电话:+86-020-39199006
Language : 中文版
致力于高品质电源产品的推广与技术服务!

新闻中心

浅谈数据中心节能措施的优化

* 来源: * 作者: * 发表时间: 2019-07-21 21:22:36 * 浏览: 7
中国大多数现有数据中心消耗大量电力,因此必须降低PUE值。本文提出了8种正常的节能方案,可以提高数据中心机房的用电效率,降低PUE值。一,问题提案中国有550,000个数据中心,其中大部分都消耗大量电力,迫切需要转型。中国云计算产业发展国家计划指出,三年后,“云计算”的年产值将达到2000亿元,其中IaaS市场将达到150亿元。云基础设施的大规模建设主要分为:大规模SaaS系统支持,私有公共云数据室,大学计算与数据中心,政府政府云建设,物联网应用数据存储(传感与监控) 。多年来,数据中心设备室一直使用计算机房的广东精密空调作为主要的制冷设备。随着计算机设备的升级,IT设备的功率密度越来越高,计算机房面积越来越大,计算机房数量越来越多,世界能量也越来越紧张。在全球能源问题日益严重的情况下,虽然计算机房空调能效比有所提高,但耗电量仍然过高,一直困扰着机房运营商和用户。二,解决问题的方法如何利用新技术降低机房散热的耗电量,建设绿色环保机房,已成为机房行业建设者的核心问题。中国的大多数传统数据中心都在2.0以上,超过一半的电力都来自空调。拥有一千台服务器的数据中心每年消耗超过1000万千瓦时的电力,而空调则需要500万千瓦时。根据当前计算机房参数的较低标准估计:服务器功耗(低值,600w~1500w /台),工业功率≈1元/度服务器年耗电量(度)=服务器号×600W×24小时× 365天÷1000机房的模块化结构后,您可以通过节省电力一到两年来建造一个新的机房。工业和信息化部将以文件形式重点关注“十二五”规划,协调绿色数据中心的部署。实施“国土资源部工业和信息化部电力监管委员会能源局关于建设数据中心的指导意见”(中国工业和信息化部(中国)第13号),促进数据中心的选择,考虑资源和环境因素,并积极引进新的云计算技术,如虚拟化和海量数据存储,促进资源密集型使用,提高节能减排水平。我们将针对新一代绿色数据中心的要求,引入相关标准,优化机房冷热气流布局,采用准确的供气。热源快速冷却等措施降低了机房建设和主要设备选择的运营成本,确保新建大型数据中心的PUE值小于1.5,力求降低PUE转换到2以下后数据中心的值。确保新数据中心的PUE值介于1.2和1.4之间,修改后的数据中心的PUE值低于1.9(通常是原始数据的PUE值)中心减少了30%)。三,具体解决方案数据中心风冷正常的节能措施主要是为了降低机房散热的功耗,提高数据中心机房的电源效率,从而降低IDC的PUE值。目前,有7种正常的节能措施:(1)在数据中心机房建设冷通道,并配置专用的风冷广东精密空调。他降低鼓风机房。 (2)在数据中心机房内搭建一个热通道,为下风机房配置专用的风冷广东精密空调。 (3)在数据中心机房内搭建专用的风冷广东精密空调冷风和热风管道,充分密封机柜,强行散热。 (4)在数据中心机房下风机房使用风冷广东精密空调和智能供气柜,直接将机房冷风网压力室的冷风送入机柜。 (5)在数据中心机房采用大型水冷机房广东精密空调。 (6)在数据中心机房内建设专用的大型水冷机房广东精密空调和芯片冷却管,直接将热量散发到IT设备芯片。 (7)数据中心机房1:1配置风冷广东精密空调+大型新风机。从上述任何类型的IDC正常节能措施的分析来看,它不是最佳解决方案。具体分析如下:从冷源方面来看,第一,第二,第三,第四类均采用风冷广东精密空调作为机房作为冷源,第五,六类使用水 - 冷却广东精密空调,第七次使用风。冷广东精密空调或天然冷风和水模。风冷广东精密空调的使用主要依赖于空调的冷却能效比。能效比在3-4之间,节能有限。采用水冷广东精密空调,能效比可达6,一般在4以上。自然风新时,最大能效比可达12。机房的冷却效果为1,2, 5和7都是。冷空气源的被动空气分布用于散热。整个机房的热量分配要求非常均衡。否则,机房可能会出现不均匀的加热和冷却,以及单个摄像机机柜的局部过热。第三种类型使用有源大风量来强制散热。每个机柜的热风出风口都配有风扇,散热效果好,容易过冷。风扇还需要消耗一定量的电能。第四种类型使用主设备机柜的鼓风机配置变速风扇,为机柜动态提供冷空气。最好解决机柜过热,机柜内热负荷突然增加的问题,并将机房温度升高到空调机的回风温度,但机柜深度比机柜大100m2。普通机柜的深度,以及风扇需要消耗的电力。第六种类型采用精确散热,主芯片具有良好的散热效果,但电源和硬盘等元件需要精确冷却,不易实现,需要服务器厂商的支持。建立机房散热的难度相对接近第一,第二,第四和第七类型。它比传统的供气空调系统稍微复杂一些,易于实施,成本差异不大。第三种类型需要密封机柜的前门和后门。实施起来很困难,并且有许多风道结构。它对机房的整体布局有影响。它需要非常详细的规划和设计,而且成本相对较高。第五种,水冷式空调的结构门槛较高,更适合大型计算机房。空调设备比风冷广东精密空调更复杂,成本相对较高,需要专业的维护人员进行操作。第六种类型,空调部分与第五种类型相同,但分支制冷管道相对复杂。要了解设备制造商和其他设备的结构,甚至需要他们的支持,成本相对较高。分享。 IV。结论Succ精心设计和建造低能耗,高温,高密度服务器集群,高承载机架,数据中心外部气体引入系统和内部气体循环温度控制系统,实现了自然更换传统空调设备冷源。数据室温度和湿度,在确保数据中心连续可靠运行的同时,数据中心的能耗自然会大大降低。关键是采用上述技术。在大大提高IT设备利用率和采用新的温控技术的情况下,与传统数据室相比,如何将数据中心的能耗节省约60%,从而节约能源和排放减少效果是一步到位的。我们需要不断采用国际前沿技术和设计理念,最终通过规范数据中心内部气流组织来提高制冷量利用率,实现数据中心规模的灵活扩展,减少数据中心的初期投资。通过模块化结构,即用型机房模块产品,缩短工期,提高工程质量,最终解决数据中心运行功耗,数据中心建设周期,工程质量难以保证等问题,制约国内“云计算”和“大数据”产业发展的重要问题。