当前位置: 首页 > news >正文

苏州网站开发网站建立费用网站域名续费

苏州网站开发网站建立费用,网站域名续费,网站被k 换个域名可以,在线建站系统目录 三、绿色节能技术#xff08;一#xff09;配电系统节能技术#xff08;二#xff09;空调系统节能技术#xff08;三#xff09;集装箱数据中心节能技术#xff08;四#xff09;数据中心节能策略和算法研究#xff08;五#xff09;新能源的应用#xff08;六… 目录 三、绿色节能技术一配电系统节能技术二空调系统节能技术三集装箱数据中心节能技术四数据中心节能策略和算法研究五新能源的应用六典型的绿色节能数据中心 三、绿色节能技术 针对云计算数据中心的特点从数据中心的配电系统、空调系统、管理系统的节能策略和算法以及新能源应用等方面分析云计算数据中心的节能技术并对典型的绿色节能云计算数据中心进行介绍。 一配电系统节能技术 电力是数据中心的驱动力稳定可靠的配电系统是保障数据中心持续运转的最重要的因素。在传统数据中心里为了保证网络、服务器等设备稳定运行通常使用UPS (Un-interruptible Power Supply) 系统稳定供电在外部供电线路出现异常时使用电池系统过渡到后备的油机发电系统实现数据中心的可靠性和稳定性。 但是传统的UPS不间断供电系统存在的问题。   1转换级数过多结构复杂。供电架构复杂且难以维护。   2由于UPS系统进行了多级转换因此其自身也消耗了大量的电能。UPS自身所带来的热量还会进一步增加空调系统的负载。   综合考虑UPS系统自身的效率和服务器自身的电源模块效率传统数据中心配电系统的效率一般低于77%因此云计算数据中心如何改善配电系统的效率成为一个重要的问题。目前常见的两个方案是高压直流配电和市电直供配电。 1. 高压直流配电技术 随着将交流电 (如AC380V) 直接转换成240V直流电源 (即高压直流UPS) 技术的出现目前一些数据中心开始采用240V直流供电架构。由于绝大多数服务器电源模块能够兼容220V交流和240V直流因此现存服务器节点无须任何修改即可支持。直流电源一般采用模块化设计而且蓄电池直接挂240V直流母线连接服务器电源无须逆变环节可靠性也高于交流UPS。另外240V直流UPS在转换级数上比交流UPS少一级因此实际运行效率通常在92%以上再综合240V到12V的直流电压转换整个配电系统的效率可以提高到约81%。   除此以外还有一种更加优化的高压直流供电架构。该架构仍然使用240V直流UPS系统但是将每台服务器节点自身的交流电源模块去除采用机架集中式电源PSU (Power Supply Unit) 供电。机架式电源能够将240V直流电直接转化为12V直流电并直接连接至服务器主板。另外机架电源采用热插拔模块设计可维护性和更换效率得到提高。机架式电源将传统的集中供电分散到每个机架可靠性较传统UPS有很大提高能够更好地适应云计算业务场景。这种架构的配电原理如图所示由于去除了服务器节点的交流电源系统因而在效率方面有了更大的提升在实际测试中这种配电系统的效率可以提高到85.5%左右。 2. 市电直供配电技术 除了高压直流配电技术另一种得到应用的高效节能配电技术是市电直供配电技术。例如Google在某数据中心取消UPS系统使用市电直连服务器服务器内置12V电池以支撑到油机启动避免服务器断电Facebook使用一路市电直供服务器一路48V直流电源作为备份电源。这些架构能够将配电系统的损耗进一步降低国外的互联网公司对此进行了大量的研究与实践从国内来看阿里巴巴也借鉴这种先进的市电直供配电架构在其数据中心里进行了成功的实践如图所示。 在市电正常时交流输入模块经过一级直流PFC电路将220V交流电升高到400V的直流电再经过降压变换电路将400V的直流转换成12V的直流供给服务器主板逆变模块将400V直流转换为220V交流供给交换机使用。在市电异常时由240V的蓄电池供电直流输入模块经过一级升压电路将240V直流升至400V直流再经过降压变换电路将400V的直流转换成12V的直流供给服务器主板逆变模块将400V直流转换为220V交流供给交换机使用。当市电恢复正常或油机启动后电源会自动由蓄电池直流供电切换到交流供电状态切换由电源模块自身完成整个过程无缝切换保证了输出不间断。   市电直供电源保留了机架式电源支持热插拔的模块化设计也采用机架分散供电的方式同样适合云数据中心的特点即模块化扩容、高效率、高可用性和高可维护性。 采用市电直供方案其最大的特点在于最大化减少配电系统的转换环节从市电到服务器12V主板只经过两级电路转换整个配电系统的综合效率能够达到92%左右与传统数据中心配电和高压直流配电技术相比具有较为明显的优势。 二空调系统节能技术 在数据中心运行过程中服务器节点、网络设备、办公环境等时刻产生着热量如果不能及时散发热量数据中心将无法运行。数据中心常见散热环节如图所示。   空调系统是目前大部分数据中心必须具备的基础设施它能够保证数据中心具备合适的温湿度从而保障数据中心IT设施平稳运行避免发生故障或损坏设备。同时 由于空调系统自身也需要消耗电力因此如何提高空调系统运行效率甚至如何使用自然冷空调系统成为数据中心节能方面一个热点话题。   在传统数据中心里空调系统主要针对机房内整体温湿度控制需求基本方法是先冷却机房环境再冷却IT设备。机房空调的设计流程一般是先核算机房内的建筑负载和IT设备负载选择机房的温湿度指标然后再根据机房的状况匹配一定的气流组织方式 (如风道上送风、地板下送风等)。机房专用空调设备一般会集成制冷系统、加湿系统、除湿系统、电加热系统同时辅助以复杂的逻辑和控制系统。传统数据中心空调系统效率通常较低采用指标能效利用系数PUE (Power Usage Effectiveness, PUE1 (配电损耗空调功耗其他损耗)/IT功耗) 核算PUE一般在2.0以上除了使用传统UPS损耗和散热影响外空调系统就是主要的原因主要体现在数据中心中冷热通道不分、机架密封不严密造的冷热混流、过度制冷、空调能效比不高、空调气流组织不佳等。 与传统数据中心不同云计算数据中心空调系统的核心理念是注重IT设备的温湿度要求高效解决区域化的制冷是机架级别甚至是IT设备级别的制冷解决方案而非着眼机房环境温湿度控制。在云计算时代IT设备在适应温湿度方面变得更强壮目前的通用服务器设计标准为35℃进风温度某些服务器还针对高温以及较差环境下进行优化设计在40℃~45℃进风温度下能运行数小时被称为高温服务器。   IT设备的优化工作直接导致了数据中心空调温湿度标准的改变。ASHRAE (美国暖通空调协会) 在其2008年版标准中数据中心的温湿度推荐标准温度范围为18℃~27℃湿度范围为40RH%~70RH%而在2011年的推荐标准中温度范围扩展为10℃~35℃湿度范围扩大到20RH%~80RH%。 1. 高温回风空调系统 根据不同出水温度下的制冷和能耗对应的出水温度即空调回风温度提高1℃空调系统约节能3%。目前的云计算数据中心中冷冻水空调设计已经从常规的7℃供水12℃回水温度提高到10℃供水15℃回水温度甚至更高对应的冷通道温度或者服务器进风温度在23℃~27℃空调系统节能明显。 2. 低能耗加湿系统 将纯净的水直接喷洒在多孔介质或者空气中形成颗粒极小的水雾由送风气流送出。整个加湿过程无需电能加热水仅需水泵和风机能耗取代了传统的将水加热成蒸汽、电能耗较大的红外加湿系统或电极式加湿器系统。 3. 自然冷空调系统 使用室外自然冷风直接带走机房的IT设备的散热减少了机械制冷系统中最大的压缩耗能环节压缩机制冷系统的EER由2~3.5提高到10~15节能空间巨大。 新风自然冷空调系统是将外面的空气经过滤处理后直接引入机房内以冷却IT设备。新风自然冷系统有着若于关键设计以上图中经典的Facebook在美国自建的新风自然冷系统为例有以下关键设计。   1低温和降温风系统选择具有较长时间低于IT设备进风温度要求 (如27℃) 的地区以含较少硫氮化合物的空气为佳使用送风系统送风至数据中心内。在温度较高的季节可以使用水喷淋蒸发降温或者机械压缩制冷系统来降温在室外低温季节直接将室外新风引入机房可能引起机房凝露因此系统会将部分回风混合进入的低温新风保证送风温度符合IT设备的需求避免凝露。   2新风过滤系统在室外进风口处使用防雨百叶并使用可经常更换维护的粗效过滤器除掉较大污染物颗粒在新风与回风混合之后使用中效和亚高效滤网二次过滤以保证进入数据中心的空气达到相关的洁净度要求。   3气流组织新风送风系统一般会选择高效气流组织设计如地板下送风、冷热通道密封等隔绝冷热气流的措施。不同于常规数据中心的是新风自然冷系统中热风需要排放室外或部分回风需要返回新风入口处排风和部分回风系统需要做好匹配保证机房整个静压避免回风倒流入机房。   4智能控制新风自然冷系统其本身也相当于智能的机房恒温恒湿空调而且更复杂涵盖了温湿度、压力、风量等参数探测运动部件驱动阀门切换和各种逻辑编程等。这个系统的一些关键部分在于监控室外温湿度进行逻辑判断是否可使用控制阀门调节新风进入量、回风混合量、排风量根据送风的温湿度调整喷淋水量和风机转速还要考虑室内静压情况调整送风排风量等。 三集装箱数据中心节能技术 将数据中心的服务器设备、网络设备、空调设备、供电设备等高密度地装入固定尺寸的集装箱中使其成为数据中心的标准构建模块进而通过若干集装箱模块网络和电力的互连互通构建完整的数据中心。目前集装箱数据中心已经得到广泛应用例如Microsoft芝加哥数据中心、Google俄勒冈州Dalles数据中心、Amazon俄勒冈州Perdix数据中心相关的集装箱数据中心模块化产品解决方案也层出不穷例如微软拖车式集装箱数据中心、Active Power集装箱数据中心、SGI ICE Cube、惠普“金刚”集装箱数据中心、浪潮云海集装箱数据中心SmartCloud、华为赛门铁克Oceanspace DCS、曙光CloudBase、世纪互联云立方等等。 集装箱数据中心的特点包括以下几个方面。   1高密度。集装箱数据中心模块可容纳高密度计算设备相同空间内可容纳六倍于传统数据中心的机柜数量。   2模块化。建立一个最优的数据中心生态系统具有恰如所需的供电、冷却和计算能力等。   3按需快速部署。集装箱数据中心不需要企业再经过空间租用、土地申请、机房建设、硬件部署等周期可大大缩短部署周期。   4移动便携。集装箱数据中心的安装非常容易只需要提供电源连接、水源连接用于冷却和数据连接即可。 从绿色节能的角度看集装箱数据中心也采用了诸多良好的设计提高数据中心的能效比。   1缩短送风距离。由于集装箱空间较为密闭因此可以将空调盘管安装到服务器顶部缩短送风距离减少了送风过程中的冷量损失。   2提高冷通道温度。冷通道温度提高 (如24℃) 后可升高盘管供/回水温度减少压缩机工作时间提高冷水机组工作效率达到节能环保的效果。   3冷/热通道完全隔离。隔离冷/热通道可以防止冷热空气混合增大进出风温差从而提高盘管制冷能力。   4隔热保温材料。在集装箱内外涂隔热保温涂料可以做到冬季不结露夏季冷量不外泄。   5Free Cooling功能。集装箱数据中心模块可以使用Free Cooling减少压缩机工作时间提高能源利用效率。 除此以外由于集装箱数据中心不需要工作人员进驻办公因此在正常运转过程中可以完全关闭照明电源从而节省了电力。   在采用各种节能设计后集装箱数据中心模块能够取得较好的PUE。例如SGI的集装箱式数据中心模块的PUE最低可以达到1.05华为赛门铁克OceanSpace DCS的PUE也能够达到1.25左右。 四数据中心节能策略和算法研究 1. DVFS节能技术 主要思想是当CPU未被完全利用时通过降低CPU的供电电压和时钟频率主动降低CPU性能这样可以带来立方数量级的动态能耗降低并且不会对性能产生影响。   DVFS的目的在于降低执行能耗由于CMOS电路动态功率中功率与电压频率成正比降低CPU电压或频率可以降低CPU的执行功率。但是这类方法的缺点在于降低CPU的电压或频率之后CPU的性能也会随之降低。 2. 基于虚拟化的节能技术 虚拟化是云计算中的关键技术之一它允许在一个主机上创建多个虚拟机因此减少了硬件资源的使用数量改进了资源利用率。虚拟化不仅可以使得共享相同计算节点的应用之间实现性能的隔离而且还可以利用动态或离线迁移技术实现虚拟机在节点之间的迁移进而实现节点的动态负载合并从而转换闲置节点为节能模式。 3. 基于主机关闭/开启的节能技术 基于主机关闭/开启技术的节能策略可以分为随机式策略、超时式策略和预测式策略三类。随机策略将服务器的关闭/开启时机视为一个随机优化模型利用随机决策模型设计控制算法。超时式策略预先设置一系列超时阈值若持续空闲时间超过阈值就将服务器切换到关闭模式同时阈值可以固定不变也可以随系统负载自适应调整。预测式策略在初始阶段就对本次空闲时间进行预测一旦预测值足够大就直接切换到关闭模式。三类策略的目标均是最大限度地降低空闲能耗而缺点在于当计算机启动时间较长时会导致性能一定程度上降低。 4. 其他节能技术 冷却系统约占云数据中心总能耗的40%计算资源的高速运行导致设备温度升高 温度过高不仅会降低数据系统的可靠性而且会减少设备的生命周期。因此必须对云数据中心的冷却设备降温有效地减少冷却的能量这对云数据中心的稳定运行和节省电量都有重要的意义。 五新能源的应用 绿色和平组织GreenPeace定义实现绿色 IT 的方式是高能效加新能源。为了减少能耗开销和碳排放量以实现绿色计算充分利用新能源才是根本途径。 为了给出标准的方法来评价数据中心的碳强度绿色网络组织Green Grid采用碳使用效率Carbon Usage Effectiveness, CUE表示每千瓦时用电产生的碳排放密集程序。 在数据中心部署使用新能源有就地 (on-site) 电站和离站 (off-site) 电厂两种方式。就地新能源发电厂生产的电力可直接为数据中心供能例如Facebook建在俄勒冈州的太阳能数据中心其优势在于几乎没有电力传输和配送损失但是位置最好的数据中心 (土地价格、水电价格、网络带宽、可用的劳动力、税收等因素) 并不一定具有最佳的资源来部署就地新能源电站。另一种模式就是将新能源电厂建设在具有丰富资源 (如风速大或日照强) 的离站地区然后通过电网将新能源产生的电力传送到需要用电的数据中心尽管这种方式具有较大的传输损失和电网传送、存储的费用但是其电产量更大而且选址更灵活。由于新能源的不稳定性上述两种方式均需要采用储能设备来缓解“产量/供应”与“消费/需求”之间的不匹配因此相应的储能开销 (购买费用和管理储能费用) 也被纳入当前的权衡考虑之中。   目前关于新能源在数据中心应用的研究主要是考虑风能和太阳能。据统计风能和太阳能分别占全球非水能新能源产量的62%和13%。由于风能和太阳能发电量与环境条件紧密相关如风速和日照强度因此可用电量是不稳定、随时间变化的。相应地它们的容量因子也远低于传统电厂 (容量因子是指实际产出与最大的额定产出的比值)。 由于有稳定的化石燃料供应传统电厂的容量因子可达80%甚至更高。依据年平均风速的不同风能的容量因子在20%~45%。风能发电的开销主要是前期的安装部署开销 其资金支出占据了生命周期总开销的75%。   新能源最主要的优点就是一旦建设好电厂就可以源源不断地提供电能而且管理费用较低运营过程中不会排放碳等污染物质。尽管在生产、传输、安装、设备回收利用过程中也会产生碳污染但是与传统电网的碳排放因子585gCO 2 _2 2​e/kWh相比风能 (29gCO 2 _2 2​e/kWh) 和太阳能 (53gCO 2 _2 2​e/kWh) 的碳排放因子仍然低得多。 六典型的绿色节能数据中心 2006年ChristianBelady提出了数据中心能源利用率PUE的概念如今PUE已发展成为一个全球性的数据中心能耗标准。 全球最节能的 5 个数据中心如下。 1. 雅虎“鸡窝”式数据中心 (PUE1.08) 雅虎在纽约洛克波特的数据中心位于纽约州北部不远的尼亚加拉大瀑布每幢建筑看上去就像一个巨大的鸡窝该建筑本身就是一个空气处理程序整个建筑是为了更好地“呼吸”有一个很大的天窗和阻尼器来控制气流。 2. Facebook数据中心 (PUE1.15) Facebook的数据中心采用新的配电设计免除了传统的数据中心不间断电源 (UPS) 和配电单元 (PDUs)把数据中心的UPS和电池备份功能转移到机柜每个服务器电力供应增加了一个12V的电池。Facebook使用自然冷却策略利用新鲜空气而不是凉水冷却服务器。 3. 谷歌比利时数据中心 (PUE1.16) 谷歌比利时数据中心没有冷却装置完全依靠纯自然冷却即用数据中心外面的新鲜空气来支持冷却系统。比利时的气候几乎可以全年支持免费的冷却平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66~71华氏度 (19℃~22℃)然而谷歌数据中心的温度超过80华氏度 (27℃)。 4. 惠普英国温耶德数据中心 (PUE1.16) 惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却不仅仅是使用外部空气保持服务器的冷却而且进行气流创新使用较低楼层作为整个楼层的冷却设施。 5. 微软都柏林数据中心 (PUE1.25) 微软爱尔兰都柏林数据中心采用创新设计的“免费冷却”系统使用外部空气冷却数据中心和服务器同时采用热通道控制以控制服务器空间内的工作温度。 下面以Facebook数据中心为例说明具体的节能措施。   位于俄勒冈州普林维尔 (Prineville) 的Facebook数据中心是Facebook自行建造的首个数据中心俄勒冈州凉爽、干燥的气候是Facebook决定将其数据中心放在普利维尔的关键因素。过去50年来普利维尔的温度从未超过105华氏度 (约40.56℃)。   Facebook在瑞典北部城镇吕勒奥也新建了一个数据中心该数据中心是Facebook在美国本土之外建立的第一座数据中心也是Facebook在欧洲最大的数据中心。由于可以依赖地区电网Facebook数据中心使用的备用发电机比美国少了70%这也是一大优势。自1979年以来当地的高压电线还没有中断过一次。吕勒奥背靠吕勒河建有瑞典最大的几座水电站。吕勒奥位于波罗的海北岸距离北极圈只有100km之遥当地的气候因素是Facebook选择在吕勒奥建立数据中心的重要原因之一。由于众多的服务器会产生十分大的热量将数据中心选址在寒冷地区有助于降低电费和用于制冷系统的开支。   Facebook采纳了双层架构将服务器和制冷设备分开允许对服务器占地面积的最大利用。Facebook选择通过数据中心的上半部分管理制冷供应因此冷空气可以从顶部进入服务器空间利用冷空气下降热空气上升的自然循环避免使用气压实现下送风。   空气通过在二楼的一组换气扇进入数据中心。然后空气经过一个混调室在这里冷空气可以和服务器的余热混合以调整温度。然后冷空气经过一系列的空气过滤器在最后一间过滤室通过小型喷头进一步控制温度和湿度。空气继续通过另一个过滤器吸收水雾然后通过一个风扇墙将空气通过地板的开口吹入服务器区域。整个冷却系统都位于二楼空气直接吹向服务器无须风道如图所示。 冷空气然后进入定制的机架这些机架三个一组每组包括30个1.5U的Facebook服务器。为了避免浪费服务器也是定制的服务器内部的英特尔和AMD主板被分拆成一些基本的必需部件以节省成本。机箱体积比一般机箱大这意味着能够容下更大的散热器和风扇也意味着需要更少的外界空气用于降温。   Facebook数据中心采用定制的供电设备可以适用277V交流电源而不是普通的208V这使得电能可以直接接入服务器不需要经过交流到直流的转换从而避免了电能损耗。每组服务器之间放置一套UPS独特的电源与UPS一体化设计使得电池可以直接给电源供电在断电时提供后备电源如图所示。
http://www.pierceye.com/news/873988/

相关文章:

  • 做营销网站公司建个个人网站一年多少钱
  • 阆中网站网站建设代理网络服务器
  • 企业网站新模式seo排名推广工具
  • 山东做网站三五个人网页设计作品简单
  • 福州网站建设软件网站做了301怎么查看跳转前网站
  • 网站开发竞品分析网站开发与规划
  • 香山红叶建设有限公司网站网络营销方式落后的表现
  • 合肥百姓网网站建设263云通信官方网站
  • 深圳建设网站seo 手机电商数据分析师
  • 网站内外链怎么做公司建设包括哪些方面
  • 织梦网站环境搭建电子邮件怎么注册
  • 企业营销类专业网站app设计尺寸规范
  • 奈曼旗建设局网站建设旅游门户网站
  • 网站设计一般会遇到哪些问题wordpress文章关闭缩略图
  • 优质东莞网站制作公司thinkphp网站源码下载
  • 公司网站做一下多少钱最吉利旺财的公司名字
  • 网站建设维护及使用管理办法营销策划的步骤
  • 优秀网站设计案例在家开个人工作室违法吗
  • 腾讯云建设网站wordpress仿知乎社区
  • 《网站开发技术》模板linchong.wordpress
  • 找做企业网站论文旅游网站建设
  • 类似情侣空间的网站开发seo外推软件
  • 网站建设策划方案怎么写工业品网络营销
  • 上海本地网站建设微信网站怎么建设
  • 江苏华江建设集团网站wordpress开发找工作
  • 家政服务网站源码自己做网站好还是让别人做
  • 手机网站用什么系统做网站在什么地方发帖子呢
  • 虚拟电脑可以做网站吗中国建设行业信息网站
  • 网站设计建设合同公司网页设计实例教程
  • 仿起点小说网站开发网站图片优化工具