热线电话:+86-020-39199006
Language : 中文版
致力于高品质电源产品的推广与技术服务!

新闻中心

高密度电脑室

* 来源: * 作者: * 发表时间: 2019-06-29 0:57:07 * 浏览: 0
炎热的夏天又来了。面对如此高温和炎热的天气,数据中心设备维护人员开始头疼。随着对IT的需求不断增加,数据中心的设备越来越密集,空间有限的机房也不得不面对。设备引起的高温引起的各种问题var_bdhmProtocol =((“https:”== document.location.protocol)?“https://”:“http://”),document.write(unescape(“ %3Cscriptsrc ='“+ _ bdhmProtocol +”hm.baidu.com/h.js%3F83e8d4ba8c3dd1c5d05a795e63a2d7b4'type='text/javascript'%3E%3C/script%3E“)),炎热的夏天再次来到这里,面对如此高的温度在炎热的天气里,数据中心设备维护人员开始头疼。随着对IT的需求不断增长,数据中心的设备变得越来越密集。空间有限的机房必须面对设备引起的高温。这个问题加上夏天的高温烘烤,使数据中心的问题更加严重。解决数据中心的高密度问题在这种情况下,一旦电源出现故障,服务器可以继续运行,尽管有ups系统。然而,由于制冷设备的关闭,机房的温度迅速上升,这仍然会导致服务器过热并停止运行。数据中心的功率密度急剧增加,高密度数据中心开始引起更多关注。特别是在这样的盛夏中,数据中心的高密度问题更难以处理。解决数据中心的高密度如果整个房间被盲目冷却,机房的整体温度将不均匀或甚至导致机房过度冷却。这不仅会浪费电力资源,还会增加额外费用。因此,冷却计算机房非常重要,但解决高密度问题也是一个重点。今天,我们从一些关键技术开始,以解决高密度的数据中心问题,并了解哪些是正确的解决方案。 Gt,gt,解决数据中心中的高密度设计问题解决数据中心的高密度高性能计算的时代已经很久没有了,解决尖端问题的高端系统必须解决也降低了成本。为了避免由于服务器的爆炸性增加而导致计算机房的过度扩展以及随之而来的各种操作和维护成本的增加,组织数据中心需要显着减少服务器(以及存储设备和网络)的占地面积。通信设备),并增加计算。密度,高密度计算的发展。这方面需要新的服务器设计和设备来实现更高的计算密度,另一方面需要构建能够支持高密度计算机系统安全稳定运行的数据中心,即高密度计算数据中心。构建高密度数据中心请注意,高密度数据中心在与大多数数据中心合作时必须注重提高能效,但它们在电源规划和计算机中的电源和冷却设施方面提供更多电源和冷却方面的服务。房间基础设施要求很高。从设计的角度来看,高密度数据中心的建设必须从以下三个方面入手:建设高密度数据中心1.合理配置机架和空调设备,通过定量计算功率密度优化服务器设备和每个机架的热负荷。机架中的布局以及机房中机架和空调的布局为高效供电和散热创造了条件,2。优化供电设施,为每个机架提供充足和适中的电源,以满足高需求 - 密度计算,优化冷却和冷却系统:将高密度计算组件带到每个机架内产生的高热量,避免因局部高温点而导致设备稳定运行,甚至损坏组件并造成灾难性后果,, gt,数据中心系统保证是合理规划机房布局的关键,机柜采用冷热通道分离,冷通道完全关闭等,优化气流组织,从而大大提高空调制冷效率,提高设备运行率:配电和制冷系统具有最高效的工作点,提高设备运行率,最大限度地提高设备运行率高效,有效降低能耗,创新节能理念:合理使用新技术,新方案。正确密封数据中心环境,优化气流组织,正确使用节能装置,提高制冷系统效率,冷却热源接近5点,可将制冷系统的能源成本降低30%至45%,并节省了大量的经常性费用。与高效处理器和基于芯片的新型冷却技术等新兴技术相结合,即使服务器密度和能源价格持续上涨,这些措施也可以降低能源成本。如何更好,更有效地保证机房的安全,并应对极端高温,高湿,雷暴等天气对机房的不利影响?建立机房应急机制首先要建立监测预警机制。技术部门对多年来的气象数据进行分析,并结合气象部门最近发布的天气预报信息,及时发布预防性调整通知,例如,如何在极端天气发生时调整设备设置状态和待机发电量。系统测试检查,备用燃料部署,防雷设施和接地系统检查。 l设施监测人员密切关注环境监测数据(机房内外温度和湿度,空调系统,配电系统和消防系统的运行状态)。如果监测数据异常,监测人员将根据相应程序报告,提取数据,分析原因等。 ,以消除可能发生在萌芽状态的问题。其次,人事紧急调度机制建立了应急响应领导小组。当极端天气发生时,它可以实现“预警”,“分析”和“处理”三个步骤。领导小组对天气状况的分析可能会对机房的运行造成风险。部门建议运行,在极端天气条件发生后,分析监测数据,使用人员检查信息,及时调整或改变运行计划,相关专业技术人员随时待命,驻留在设备现场为设备故障后的防灾维修工作做好准备。最后,建立应急机制,制定IDC安全运行应急响应机制,如“火灾应急预案”,“电力系统故障应急预案”,“制冷系统故障应急预案”等,停电 - 市电中断例如:该计划制定了详细的发电机启动切换过程,备用燃料供应措施,人员部署措施和故障通知过程。高密度计算机房供电系统高密度计算机房供电系统时间负载高密度计算数据中心机架通常是满载且功能强大的。过去,机架的功耗为2-3kW,但现在通常高达20-40kW。早期的机架配电方法不再能够满足高密度设备机架不断增长的电力需求。因此,必须采用创新的机架配电技术,以满足为高密度机架提供足够电力并确保连续稳定运行的要求,包括:1。通过冗余电源支持设备冗余运行:冗余电源系统两个配电两个电源总线中的每一个都需要电路。如果一条总线发生故障,另一条总线仍然可以处理整个系统的负载。 2.支持高压和三相电源:传统数据中心使用单相电流,其功耗已无法满足现代高密度计算的需求。因此,需要切换到three相电源,采用208伏三相系统,称为高压交流电源。三相电源通常比单相电源更有效。此外,三相电源比单相电源更稳定,可以达到峰值电压更长时间,减少功率损耗和发热,不仅为机架提供足够的电力 - 加载刀片服务器,还能提供更稳定和持续的电源。为确保系统安全稳定运行,它为支持高密度数据中心提供了通用且经济的电源。 3,采用分段配电技术,减少因过载或维护造成的意外停机的可能性,减少管理员不断打开多个服务器组产生的浪涌电流,提高供电安全性。 4.采用节能配电柜:通过将数据中心的集中配电改为区域配电方式,将配电管理转移到“区域”层面,解决了集成电源管理的问题。机箱到机架,提高电源效率。 5.提供电路监控功能:通过部署持续监控当前负载的组件,数据中心可以通过少量人力实现高效的运营管理。每个系统都可以轻松地对配电电路进行负载平衡,以防止因过载或设备损坏而导致的意外停机。为简化管理,用户可以使用模块化PDU管理模块来监控数据中心的电源环境。目前市场上有许多新的配电单元(PDU),包括惠普新的模块化PDU,它们在每个机架中集成了插座,电缆和断路器,提供了一系列支持高密度机器的主要功能。框架稳定,安全,稳定,节省电力。高密度计算机房冷却改造卓越的数据中心冷却解决方案有四个基本原则,特别是高密度负载数据中心:在适当的温度下为设备通风口供给足够的空气,最大限度地减少冷/热空气混合,控制空调返回气体路径,最大化返回空调的返回气体的温度。如果正确实施,遏制可以帮助实现这四个原则。什么是遏制?高密度负载数据中心冷却过渡冷/热通道旨在减少冷/热空气混合的发生,并且遏制将此目标提升到一个新的水平,冷/热通道向前移动大步骤使冷却成为可能高密度负荷,但随着热量输出的增加,一些先前频繁的空气混合问题开始缓慢出现,主要原因很容易识别和解决。如果有空地,热空气不能留在热通道中,冷空气不能留在冷通道中。因此,必须阻塞机柜中的所有开口,以防止热空气在计算机和非连续机架之间流动。再循环,同时还防止有价值的冷空气从这些开口逸出,在未使用的机架空间中使用空白挡板的原理最容易被忽视,这可能导致大量无效的数据中心冷却,浪费能量。但还有另外两个因素需要考虑:在热量增加后,风扇将带走他们可以带走的热空气。随着热量密度的增加,热空气将溢出机架顶部并再次返回服务器,设备需要更多冷空气,最明显的解决方案是在这些地方设置障碍物,将墙壁和门设置在通道的末端,将机柜的顶部通道插入天花板,称为安全壳。现在热空气被完全捕获到热通道中,因此它不会泄漏,冷空气在冷通道中被控制,所以它不会浪费,看起来很简单,但这是真的吗?让我们仔细看看。热通道安全壳热通道安全壳通常比冷通道安全壳更容易接受,在能源效率方面具有一小优势,并且其支持者提醒其他空间和冷通道在没有任何制冷的情况下具有相同的舒适环境,这取决于ASHRAE修订的数据处理环境熨烫热指南,温度应在75°F左右(23.9°C),另一个版本预计很快就会发布,它可能会重新扩展某些设备的温度和湿度范围分类。大多数空间的温度都保持在合理的范围内,因此设备风扇可以从任何地方吸入空气,尽管我们应该尽力为硬件提供足够的空气,但不能像冷通道密封那样严格控制。热通道遏制的主要缺点是工作环境。温度可能达到95°F或更高。这不是一个舒适的工作环境,但与普遍看法相反,它不超过OSHA标准。为了冷却,一些设计是控制区域引入适量的冷空气以将温度保持在可接受的限度内,但很明显,这将抵消安全壳解决方案的好处。冷通道遏制数据中心制冷遏制计划是万能的吗?不同回风温度的典型CRAH额定容量冷通道密封的最大好处之一是使用地板或数据中心顶部冷却模式,这种模式易于填充冷空气,防止热空气混入,确保所有可用冷空气可以输送到设备,最大限度地减少机架顶部和底部之间的温差。当使用地板下的空气输送时,冷通道密封特别有用,因为冷空气下沉,使地板下的空气供应完全违反物理定律。当冷空气被推向地板砖开口时,除非有任何力推动冷空气,否则它只会上升到一定的高度。计算机内的风扇通常会向上推热空气,但它仍然会越来越热。如果我们能够完全抑制从地板到天花板的冷却通道,它所提供的空气温度将会稳定下来。如前所述,冷通道不需要低至55°F,新的ASHRAE将上限提高到80.6°F(27°C),因此冷通道温度在75°F时非常安全。此温度允许您增加计算机房空调机组的冷凝点,这可以节省大量的空调能量。然而,反对者指出,其他空间现在基本上是一个热门过道,可能达到95°F或更高,除冷通道外,其他一切都变得不舒服。冷通道遏制的真正挑战是空气平衡和控制,计算机设备需要一定量的空气用于冷却。当空气被输送到冷通道时,您需要确保开口或地板开口或天花板上方的铁格子得到充分调整。 Gt,gt,高密度机房配置机架是数据中心机房中各种设备(服务器,存储和网络设备)安装的重要组成部分,是整个冷却基础设施的重要组成部分。例如,各种服务器,存储器和网络设备的机箱被插入机架并通过各种电缆连接以形成高密度计算系统。因此,解决机架的供电和内部散热问题是提高高密度计算系统散热效率的关键。高密度机房机架配置为此,首先配置机架内部设备。随着服务器功耗的增加,传统数据中心往往不得不腾出大部分机架容量,以避免电力短缺和过多的热量产生,这显然不利于高密度数据中心的建设。相反,如果机架太满,则可能会超出机房的电源和冷却能力。因此,有必要从计算机机架的定量功率密度和热负荷合理配置机架内部设备,充分利用机房的供电和散热能力,为建设奠定基础。高密度数据中心。至于如何计算在标准机架中可容纳多少这样的服务器并估计机架中服务器的功耗更加困难。因为计算能力需要参考多个变量(例如每个机架中的服务器数量,ea的类型和数量)ch服务器组件等)。机架的一个非常有用的标准是功率密度,即每瓦单位的功耗(每单位瓦特数)。功率密度包含机架密度中涉及的所有变量。实际上,计算机消耗的几乎所有功率都变成了热量。计算机产生的热量通常用英热单位BTU /小时表示,1瓦相当于3.413 BTU /小时。高密度机房机架配置因此,机架热负荷可根据以下公式计算:热负荷=功率[瓦特]×3.413 BTU /小时/瓦。例如,Hewlett-Packard公司制造的DL360G4服务器的热负荷为:460瓦×3.413BTU /小时/瓦特= 1,570BTU /小时。用于容纳DL360G4服务器的42U机架的热负荷接近65,939 BTU /小时。数据中心的配置主要围绕功耗和热负载以及机房的电源和冷却能力。 IT设备供应商通常在其产品规格中提供电力和热负荷信息。在设计高密度数据中心时,他们必须根据供应商提供的数据中心房间规划数据来估算每个机架的功率和热负荷。在规划中,应配置足够的电源,并留有足够的余量。由于配置容量不足,必须避免设备的正常运行,并避免因留下太多余量而导致的能效降低。在设计和构建高密度计算数据中心时,必须评估各种设备的电源要求和热负载,以确保正确的机架配置。更好的方法是静态智能冷却技术,该技术使用流体动力学模型来基于数据中心设备的定义的热负荷来模拟和确定冷却资源的最佳布局和供应。它可以将每台空调的散热负荷与其额定功率进行比较,以确定空调是否有效使用或过度“供应”。 Gt,gt,高密度数据中心布线在高密度数据中心,传统的主干和水平链路配置(例如每个EDA机柜共同插入24对双绞线或24个核心)不再适用于刀片服务器的需求和SAN存储设备,以及由于端口数量的增加而引起的机柜安装单元的占用与昂贵的数据中心的每单位面积的成本非常矛盾。高密度机房布线面临挑战,并出现了大量新的布线技术。例如,屏蔽铜缆用于增加电缆和连接硬件的安装密度。刀片式跳线用于消除高密度环境跳线堵塞和误操作的可能性。光学预端接系统简化了电缆布线和端口连接,有角度的配线架减少了水平电缆管理框架的数量,机柜之间的垂直空间用于安装跳线端口。然而,6A系统需要考虑外部串扰的影响,并且与先前的布线类别相比,电缆外径和端口间距增加,并且不能满足高密度数据中心的发展趋势。 Z-MAX6A铜缆系统采用创新的推拉式RJ45设计,允许跳线更快地移动,添加和更换,使其成为48端口机架式交换机和插入式交换机模块的理想选择。与另一项获得专利的LockITTM技术一起,可以在每个BladePatch刀片的插头端添加安全锁,以防止未经授权的端口访问并提高数据中心的安全性和可靠性。高密度计算机布线光纤应用是数据中心的另一个热点。基于FC的存储区域网络需要大量的光纤连接,而新的SAN导向器将接口密度提高到1U96核心,下一代40G / s和100G / s网络直接需要8核/ 20核的支持纤维。传统的光纤电缆融合技术不再适用于高密度和大容量的光纤安装。新的MTP / MPO预端接技术以其卓越的性能和快速的实现赢得了数据中心用户的青睐,成为了一个高密度数据中心光纤连接。技术。根据权威部门对数据中心数据消耗的统计,在当前运行的数据中心,电力和冷却占数据中心的大部分辅助能耗,特别是制冷,占大约38%。 IT需求的持续扩张与能源效率之间的矛盾正变得越来越严重。传统数据中心能耗过剩的问题越来越突出,解决高密度数据中心的问题已成为数据中心建设和发展的必然结果。相信随着云计算,大数据和移动互联网的发展,高密度数据中心的问题将随着技术的发展而得到解决。