解决数据中心散热难点
来源:未知 发布时间:2019-06-19 08:41 点击:
次
包括电力供应与散热的运营成本对企业数据中心的影响日益扩大。认为没有迁移或者重建数据中心,就不会增加附加成本的想法早已经过时。日益攀升的能源成本成为企业的巨大负担,如何有效降低能耗支出,已经成为数据中心管理者的当务之急。
大多数数据中心在建设时并没有对投入的IT设备的功耗与散热系统进行科学的评估。在追求绿色计算的时代,人们一致认为,应该尽量减少IT设备的电力消耗,而不是增加能耗。实际上,相比几年前IT系统单位计算性能的能耗与单位GB存储数据的能耗确实减少了,但是数据中心仍然需要比以前多得多的电力与散热成本,主要原因包括越来越多的计算能力被放到一个狭小的机房; 今天的机架式服务器和刀片服务器同以前传统的塔式服务器相比,每平方米的功耗大大增加; 企业对IT系统要求提高了,性能提高了等等,总电力供应与散热需求增加了。
今天的数据中心,服务器整合是必需的。数据中心因为设备的高度分布化和单一服务器运行单一应用的“竖井式”结构,造成运营费用迅速增加,并且迅速吞噬企业的利润。所以,解决的途径就是减少需要管理的计算资源的数量,从而减少昂贵的运营成本。但是,这仅仅是人们一个善良的愿望。以现在的发展速度,如果数据中心不进行系统改造,散热问题最终将会导致数据中心崩溃的灾难性后果。你可以减少需要移动设备的大小与数量,但是你不能减少需要增加的计算与存储信息设备,你需要结束的可能是在一个更小的空间里,计算与存储系统需要更多的电力消耗。
近几年,在一个相对狭小的空间里装备更多的存储与计算能力是完全可以做到的,通过减少空间的占有,增加现有设备的寿命,减少需要维护与管理的设备的数量,让IT完成更多的工作。显然,一旦在数据中心中推广这一思想,数据中心占有的空间将会更小,带来的问题是硬件变得更小,性能更高,效率更高,电力供应系统密度也更大,生产的热量更大、更集中,问题也更严重。如何散热变得越来越关键。
假设今天你对自己数据中心安装的设备有足够的散热能力,那么你可以部署计算设备。如果你不能做出这样的判断,那么最好采用科学的散热设计。
采用一个交互的热通道与冷通道层设计,可以解决目前数据中心存在的很多典型问题。原理很简单,服务器与存储设备会得到冷气流,然后排出热气流。通常这些设备的前端会吸入冷空间,而把热空气从后端排出。假如企业销售的机架设备通常也具有相同的设计思想,那么用户就可以设计热通道与冷通道层。相反,同一温度的气流在通过时必须互相面对,以便热气流不是通过冷气流的侵入而被排出机架。在冷通道里,放置机架的地板要有足够的排风口,可以给设备提供足够的冷气。
当然从原理上说,热通道和冷通道是最好的,但是有时在实际应用时却达不到目的。特别时放在机架极端的系统特别容易出现问题。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是一个问题。而且,阻止机器散出的热空气同冷空气混合更是困难重重。原因包括两个方面:首先,顶端热量增加,而比较低的机柜的温度降低,从而使大量的空调系统停止制冷,进一步加剧顶端温度的上升;第二,在被驱散气流的附近,流动的气流可能引发热空气在机架的顶端形成热气球,并反过来会进入机架内部温度比较低的服务器和存储设备附近。在一些情况下,它还会引起机架过热,造成系统宕机,或者通过关闭系统来进行维护。
解决这一问题有速度控制和区域打包两种方式。前一种方式,传统的风扇被安装在数据中心的特殊部位,直接控制热气流和冷气流流向正确的地方。在大多数情况下,空气在穿过和排风孔的速度,还不能到达机架顶部,并形成足够的冷却能力,特别是地板上的通风孔的通风能力超过风扇吹动空气的能力时,情况更严重。简单的增加通风孔,而没有理解你可以将多少空气吹向地板,结果会造成系统的制冷能力大幅下降。
区域打包方式是在一个相对隔离的更广的范围内,完成热与冷通道的交互。采用这种方法,在机架顶端到房子的天花板之间设置一个完全隔离的有物理墙壁的管道。在数据中心,会形成很多这种隔离的小空间,就像数据中心的管理员才有权使用的机架上有一个或者两个可以打开的小门的房间。虽然这种设计有点激进,但是在一个小的数据中心,它可以限制热气流和冷气流的混合,并是具有成本效益的一种途径。唯一值得担心的是建造这些小空间时,可能对机架以及其上的IT设备所造成的影响,包括物理的碎片等。在大多数情况下,简单的采用热通道与冷通道设计,甚至是激进的区域打包方式等,相比下一代的计算与存储设备对能耗和散热的需求而言,都是权宜之计。tag标签:
数据中心(990)散热(10)