高性能计算(High Performance Computing,HPC)设备计算能力出众,与此相对应,其“耗电能力”也是“首屈一指”,可谓是IT行业的耗电大户。为了追求出色的计算能力,HPC的节能之路曲折而漫长。
中国华电集团(以下简称“华电”)发电装机容量为5004.6万千瓦,拥有百万千瓦以上的电厂16家。华电应该是最不缺电的单位了,但是据华电信息中心主任唐义良介绍,他们也在想方设法实现IT系统节能降耗,目前正在积极采用基于CPU的虚拟化技术来整合系统。
IT能耗问题已经成为影响全球气候和环境的重要因素之一。预计2007年,中国PC的社会保有量将超过1亿台,服务器超过200万台,还有数目众多的路由器、交换机等其他IT设备,这些总量惊人的IT设备大约会消耗300亿~500亿度电能,等同于向大气中排放上千万吨的温室气体。
高性能计算(High Performance Computing,HPC)设备计算能力出众,与此相对应,其“耗电能力”也是“首屈一指”,可谓是IT行业的耗电大户。北京市气象信息中心主任刘旭林给记者拿出一份信息中心新的HPC系统运行用电情况的报告。报告显示,空载情况下,HPC设备加上照明、制冷、安防等设备的耗电量达到了327千瓦;满载情况下,达到415千瓦,折合成电费每年大约需要300万元。
能耗让HPC很无奈
北京市气象部门担负着2008年奥运会期间主要的气象数值预报服务。一流的奥运会需要一
流的气象服务,奥运气象服务是举办有特色、高水平奥运会的重要保障。由于全球气候变化的影响,与往届奥运会相比,北京奥运会期间天气更加复杂,而赛时、赛场和城市安全运行对气象保障要求更高。因此,北京奥运气象服务面临十分严峻的挑战。而北京市气象部门是向奥组委立下“军令状”的,保证要为2008年奥运会提供精细化的气象预报服务。
具体精细到什么样的程度,刘旭林解释,就是要实现以一平方公里为单位的实时数值天气预报。刘旭林告诉记者,“为此,北京市气象信息中心专门花费4000万元添置了一套IBM的HPC系统,计算能力达到9.8万亿次/秒,能够为奥运会期间的气象预测提供有力的数据支持。该系统将提高北京市区的精细化天气预报业务水平,完全满足奥运会要求的场馆周边天气变化数值的预报要求。”
说到能为2008年奥运会提供高质量的精细化气象服务,刘旭林充满了自信和骄傲,但是说起整个HPC系统的能耗,一下子他又平添了些许无奈。“我向领导汇报,信息中心的HPC的电费要将近300万元,领导一听当时就急了。根本就没有这笔预算,一年要300万元上哪儿去找?然后赶紧打报告,组织各方讨论,协调解决。”刘旭林说。
高性能计算起源于科学计算,我国的高性能计算事业就是伴随着“两弹一星”工程成长起来的。在HPC发展早期,由于主要以科学计算为主要应用领域,解决面向科学的重大挑战性问题,所以人们把注意力更多地集中在了它的计算能力上。
如今,HPC在我国已经广泛应用于地质勘探、气象预报、航空航天、环境问题、材料科学、生物科学等方面。而目前关系到企业应用的商业计算正在不断增加,上海超级计算中心副主任袁俊曾向记者表示,“上海超级计算中心的HPC投入应用后,为上海市的气象、环保、船舶、汽车、飞机制造、建筑、钢铁、石油、机电、生物医药、基因研究等各行各业提供了有力的高性能计算服务,为上海市带来了巨大的社会效益和经济效益。”
正是在上海超级计算中心这样的单位的带动下,越来越多的高性能计算中心如雨后春笋般涌现出来。据上海大学计算机学院徐炜民老师介绍,光在上海高校系统,上海大学、复旦大学、上海交通大学、华东理工大学、华东师范大学、上海电力学院等院校就都已经或者正在建设各自的高性能计算中心。
目前,上海大学拥有一套含197个CPU节点的高性能计算机,作为校内主管高性能计算教学和科研的负责人,徐炜民曾经抱怨,HPC的教学和科研并没有得到校内各方的有力支持。但是学校领导对此却振振有词:“还不支持?每年60多万元的电费都交了,这还不叫支持?”对于一个普通高校的计算机学院而言,每年60万元的电费已经不是个小数字了。但是如果和北京市气象信息中心相比,上海大学的抱怨也只能算是“小巫见大巫”。
赖能和是中国石油集团研究院数据处理中心的总工程师。据赖能和介绍,他所在的东方地球物理公司(BGP)主要以地球物理勘探业务为主,国内业务分布在12个省区15个油田,国际业务分布在全球27个国家。BGP在全球地球物理公司排名第四位,陆上地震勘探排全球第一位。
据赖能和透露,BGP之所以具有如此强大的勘探能力,HPC在其中发挥了重要的作用。目前,BGP的HPC具有的CPU数量已经从2001年的134个增加到了12270个,其中10722个用于地震处理,1264个用于地震软件研发,156个用于地震采集,计算能力已经达到了100万亿次浮点计算。2008年之前,BGP的HPC所含的CPU至少要达到1.5万个,运算能力突破100万亿次/秒;到2010年,预计CPU总数将达到2万~2.5万个,处理能力要达到160万亿次/秒~180万亿次/秒。
“CPU和计算能力的增加,直接给BGP带来的就是能耗增加。”赖能和给记者算了一笔账:如果增加10000个CPU,考虑到空间、照明、人员等环境因素和制冷设备冗余,光是大功率的专业空调就需要新增22台。目前,10240个CPU所耗的电费每年大约为970万元,每天将近2.6万元。如果将来增加到2万~2.5万个CPU,加上机房制冷空调、UPS等设备的能耗,那时的电费真可谓是一个“天文数字”。
赖能和表示,计算能力和能耗的增加也是目前石油勘探行业的发展形势所迫。一方面,要确保国家能源安全,这一任务非常艰巨;另一方面,近年来随着油气勘探开发的不断深入,勘探开发的技术难度越来越大。油气公司为了解决复杂地表及地下地质构造成像问题,提高地震资料成像精度和勘探开发效益,减少勘探开发风险,加大了地震叠前偏移处理技术的推广应用力度,所以勘探公司必须大幅度增加自身的计算能力。
节能之路曲折蜿蜒
根据目前业界的普遍认识,HPC所消耗的80%电能都会被转化为热能。巨大的能耗,不但会直接带来运营成本的增加,同时也会因为设备工作温度急剧增加,而对设备的性能带来损耗,甚至影响整个计算系统的稳定性。
无论是上海大学这样的院校、北京市气象信息中心这样的公众事业部门,还是BGP这样的企业,在降低能耗方面可以说是使出了浑身解数,同时也走了不少弯路。
据徐炜民介绍,作为高校下属的一个学院,他们只能采取“土洋结合”的办法来设法降低能耗。一方面,他们为CPU设置了报警温度,一旦设备超过63摄氏度,系统就会自动报警。然后采取措施分摊计算任务,来降低设备的温度;另一方面,他们在机房制冷方面也进行了土法改造。“由于当初设计时缺乏经验,我们的机房还是按照以前老式机房来设计的,冷气送风还没有采用目前流行的下送风方式,所以走了弯路。现在,随着设备的增多,机房温度增加很快。所以我们不得不在限制机房人员的同时,又将原来四个送风口中的两个封掉,让剩下的两个风口直接对着设备送冷风。有时甚至还要加上电风扇,以增加空气流通的效果。”
和上海大学相比,北京市气象信息中心的经费相对略显宽松,但是在降低能耗方面,也是走了弯路。
刘旭林表示,在今年添置新的HPC之前,信息中心还有一台曙光4000高性能计算机用于气象服务,“但是,这台机器的机房现在根本就没法待。”
在最初设计机房的时候,由于没经验,是按照普通机房来设计的。设备产生的热量让机房内空调运转不了多久就要报警,“所以我们后来只好又增加了两台空调,现在机房内的温度还是不低,在26摄氏度左右。而通常来讲,22摄氏度左右应该是最合适的。”
“针对新添置的HPC,我们在机房设计方面就有经验了,并请来了专业的机房公司为我们设计。设备的安装摆放、冷热风排放都经过了专业化的周密考虑。”
记者在北京市气象信息中心新的HPC机房看到,硕大的机柜一字排开,都采用了同向摆放的方式,以防止冷热风干扰,提高了制冷效率。8台大功率空调轰鸣,人与人之间近距离说话都有些听不清,冷风直接从地面上的送风口吹向设备。在机器后方,通过专门材料隔成了热风通道,从设备中排出的热风直接通过通道排出,以防止由于冷热风循环造成空调效率降低而增加能耗。
节能降耗是个系统工程
HPC往往担负着超出常规的计算能力,以2007年BGP所承担的10个计算项目为例,最小的数据量是1.2TB,最大的为23TB。利用1000个CPU,某些项目的计算时间都要超过50天。刘旭林也表示,虽然北京市气象信息中心的高性能计算机达到了9.8万亿次/秒,但是由于要承担奥运会气象服务这样数据量巨大的任务,9.8万亿次/秒的计算能力还是有些不够用。
因此,对于HPC的高能耗,很多人会把目光集中在CPU上。的确,CPU不但自身耗电量大,而且由于产生大量热量,又迫使冷却系统消耗大量电能。虽然目前Intel、AMD、IBM等厂商都在通过提高设计和制造工艺来降低CPU的能耗,但是由于HPC的特殊工作性质,其CPU仍然成为能耗大户。
与普通的数据中心不同,HPC节能降耗更为艰难。“普通的数据中心可以通过降低电压、动态平衡负荷的方式来降低CPU能耗。但是高性能计算机却不能如此,因为负担的数据量太大,CPU的状态可以说就是在零和百分之百之间转换。”清华大学计算机系主任助理陈文光告诉记者。
所以,目前一些业内人士表示,HPC的节能降耗不能只盯在CPU上。
赖能和透露,目前BGP采用了曙光公司开发的针对整个高性能计算机的节能和监控软件,动态调整整个计算系统的状态,节能效果达到了35%,单个节点可节省60W的功耗。以1000个节点为例,一年可节电52万度。
有资料显示,奇梦达、澜起科技等半导体公司正在另辟蹊径,针对高性能计算中广泛应用的FB-DIMM内存控制芯片AMB进行节能设计。目前,已经有AMB芯片可以将功耗控制在4瓦以下,相比以前的产品降低了将近3瓦功耗。以一个4 核CPU服务器为例,如果插满32条内存,就可以降低将近100瓦能耗。如果应用到具有上百个、上千个甚至上万个节点的HPC中,节电效果将非常显著。
APC公司工程师刘勇告诉记者,根据从客户中获得的反馈信息,实际上很多HPC用户还没有认识到节能降耗是个系统工程。“很多人认为,CPU发热量大,那我就再配置一个大功率的空调来直接对其制冷送风。这样一来,CPU的能耗虽然下去了,但是空调的能耗却被忽视了。”
所以,刘勇在与客户的交流中,经常会向他们提供一些从HPC整个系统的方方面面入手降低能耗的建议,而这些方面往往都容易被用户所忽视。“我可能会建议他们安装更好的散热通风设备,例如盲板,使空调冷风精确输送到需要制冷的设备上,而不是简单地增加空调制冷量。或者采用更好的线缆管理方式,使得机柜后部更有效地利于IT设备散热,而不阻挡热量散出,这都可以在很大程度上节能降耗。”
作为“HPC节能降耗是个系统工程”观点的支持者,陈文光表示,HPC在CPU层面、操作系统层面、应用软件层面、机房制冷层面都应该具有节能降耗的解决方案,而且这些解决方案必须相互间有所关联和互动,才能保证整体节能降耗的效率和效果。
采访手记
HPC节能降耗:一声叹息
记者的私家车是一辆两厢的1.6升排量轿车,当时购买时就是考虑到两厢车耗油少一些。2003年购车的时候,北京93号汽油是2.9元/升,现在已经是4.9元/升。在这4年中,记者尝试过各种节油的方式。
以夏天是否打开车内空调为例,以目前100元的93号汽油为标准,在开启空调的状态下,这些汽油只能维持200公里的行程;若不使用空调,最多可以维持270公里的行程。如何在舒适性和经济性中寻求一个自己可以满意的平衡点,可以说一直在困扰着我。
在本次采访中,记者强烈感受到,用户对高性能计算能力的期望和对电费账单的抱怨正交织在一起。鱼和熊掌能否兼得?这正是用户们正在考虑的新命题。
但是鱼和熊掌能兼得吗?答案是肯定的,不过这个问题还是要由厂商来解决,需要他们承担起更多的责任。
陈文光告诉记者,他们在研究中取得了高性能计算节能方面的一项专利。就这个专利他们曾经和多个厂家探讨过合作的可能,但是最后都不了了之,没有了下文。
北京气象信息中心也曾经考虑采用先进的水冷设备,厂商虽然在这方面的技术上没有问题,但是在服务上却又“掉链子”。国内没有相关安装、服务人员,要从国外派人员来进行安装调试,甚至是日后的日常维护。这方面所带来的成本增加,让北京市气象信息中心无法接受。
应该说随着高性能计算机处理器性能的不断提升和系统规模的不断变大,HPC系统性能突破目前的极限仅仅是一个时间问题。极限突破之后,肯定还要掀起新一轮对HPC的热捧。热捧的同时,希望不要再有那一声声对节能降耗的无奈叹息。(汤铭)
高性能计算(High Performance Computing,HPC)设备计算能力出众,与此相对应,其“耗电能力”也是“首屈一指”,可谓是IT行业的耗电大户。为了追求出色的计算能力,HPC的节能之路曲折而漫长。
中国华电集团(以下简称“华电”)发电装机容量为5004.6万千瓦,拥有百万千瓦以上的电厂16家。华电应该是最不缺电的单位了,但是据华电信息中心主任唐义良介绍,他们也在想方设法实现IT系统节能降耗,目前正在积极采用基于CPU的虚拟化技术来整合系统。
IT能耗问题已经成为影响全球气候和环境的重要因素之一。预计2007年,中国PC的社会保有量将超过1亿台,服务器超过200万台,还有数目众多的路由器、交换机等其他IT设备,这些总量惊人的IT设备大约会消耗300亿~500亿度电能,等同于向大气中排放上千万吨的温室气体。
高性能计算(High Performance Computing,HPC)设备计算能力出众,与此相对应,其“耗电能力”也是“首屈一指”,可谓是IT行业的耗电大户。北京市气象信息中心主任刘旭林给记者拿出一份信息中心新的HPC系统运行用电情况的报告。报告显示,空载情况下,HPC设备加上照明、制冷、安防等设备的耗电量达到了327千瓦;满载情况下,达到415千瓦,折合成电费每年大约需要300万元。
能耗让HPC很无奈
北京市气象部门担负着2008年奥运会期间主要的气象数值预报服务。一流的奥运会需要一
流的气象服务,奥运气象服务是举办有特色、高水平奥运会的重要保障。由于全球气候变化的影响,与往届奥运会相比,北京奥运会期间天气更加复杂,而赛时、赛场和城市安全运行对气象保障要求更高。因此,北京奥运气象服务面临十分严峻的挑战。而北京市气象部门是向奥组委立下“军令状”的,保证要为2008年奥运会提供精细化的气象预报服务。
具体精细到什么样的程度,刘旭林解释,就是要实现以一平方公里为单位的实时数值天气预报。刘旭林告诉记者,“为此,北京市气象信息中心专门花费4000万元添置了一套IBM的HPC系统,计算能力达到9.8万亿次/秒,能够为奥运会期间的气象预测提供有力的数据支持。该系统将提高北京市区的精细化天气预报业务水平,完全满足奥运会要求的场馆周边天气变化数值的预报要求。”
说到能为2008年奥运会提供高质量的精细化气象服务,刘旭林充满了自信和骄傲,但是说起整个HPC系统的能耗,一下子他又平添了些许无奈。“我向领导汇报,信息中心的HPC的电费要将近300万元,领导一听当时就急了。根本就没有这笔预算,一年要300万元上哪儿去找?然后赶紧打报告,组织各方讨论,协调解决。”刘旭林说。
高性能计算起源于科学计算,我国的高性能计算事业就是伴随着“两弹一星”工程成长起来的。在HPC发展早期,由于主要以科学计算为主要应用领域,解决面向科学的重大挑战性问题,所以人们把注意力更多地集中在了它的计算能力上。
如今,HPC在我国已经广泛应用于地质勘探、气象预报、航空航天、环境问题、材料科学、生物科学等方面。而目前关系到企业应用的商业计算正在不断增加,上海超级计算中心副主任袁俊曾向记者表示,“上海超级计算中心的HPC投入应用后,为上海市的气象、环保、船舶、汽车、飞机制造、建筑、钢铁、石油、机电、生物医药、基因研究等各行各业提供了有力的高性能计算服务,为上海市带来了巨大的社会效益和经济效益。”
正是在上海超级计算中心这样的单位的带动下,越来越多的高性能计算中心如雨后春笋般涌现出来。据上海大学计算机学院徐炜民老师介绍,光在上海高校系统,上海大学、复旦大学、上海交通大学、华东理工大学、华东师范大学、上海电力学院等院校就都已经或者正在建设各自的高性能计算中心。
目前,上海大学拥有一套含197个CPU节点的高性能计算机,作为校内主管高性能计算教学和科研的负责人,徐炜民曾经抱怨,HPC的教学和科研并没有得到校内各方的有力支持。但是学校领导对此却振振有词:“还不支持?每年60多万元的电费都交了,这还不叫支持?”对于一个普通高校的计算机学院而言,每年60万元的电费已经不是个小数字了。但是如果和北京市气象信息中心相比,上海大学的抱怨也只能算是“小巫见大巫”。
赖能和是中国石油集团研究院数据处理中心的总工程师。据赖能和介绍,他所在的东方地球物理公司(BGP)主要以地球物理勘探业务为主,国内业务分布在12个省区15个油田,国际业务分布在全球27个国家。BGP在全球地球物理公司排名第四位,陆上地震勘探排全球第一位。
据赖能和透露,BGP之所以具有如此强大的勘探能力,HPC在其中发挥了重要的作用。目前,BGP的HPC具有的CPU数量已经从2001年的134个增加到了12270个,其中10722个用于地震处理,1264个用于地震软件研发,156个用于地震采集,计算能力已经达到了100万亿次浮点计算。2008年之前,BGP的HPC所含的CPU至少要达到1.5万个,运算能力突破100万亿次/秒;到2010年,预计CPU总数将达到2万~2.5万个,处理能力要达到160万亿次/秒~180万亿次/秒。
“CPU和计算能力的增加,直接给BGP带来的就是能耗增加。”赖能和给记者算了一笔账:如果增加10000个CPU,考虑到空间、照明、人员等环境因素和制冷设备冗余,光是大功率的专业空调就需要新增22台。目前,10240个CPU所耗的电费每年大约为970万元,每天将近2.6万元。如果将来增加到2万~2.5万个CPU,加上机房制冷空调、UPS等设备的能耗,那时的电费真可谓是一个“天文数字”。
赖能和表示,计算能力和能耗的增加也是目前石油勘探行业的发展形势所迫。一方面,要确保国家能源安全,这一任务非常艰巨;另一方面,近年来随着油气勘探开发的不断深入,勘探开发的技术难度越来越大。油气公司为了解决复杂地表及地下地质构造成像问题,提高地震资料成像精度和勘探开发效益,减少勘探开发风险,加大了地震叠前偏移处理技术的推广应用力度,所以勘探公司必须大幅度增加自身的计算能力。
节能之路曲折蜿蜒
根据目前业界的普遍认识,HPC所消耗的80%电能都会被转化为热能。巨大的能耗,不但会直接带来运营成本的增加,同时也会因为设备工作温度急剧增加,而对设备的性能带来损耗,甚至影响整个计算系统的稳定性。
无论是上海大学这样的院校、北京市气象信息中心这样的公众事业部门,还是BGP这样的企业,在降低能耗方面可以说是使出了浑身解数,同时也走了不少弯路。
据徐炜民介绍,作为高校下属的一个学院,他们只能采取“土洋结合”的办法来设法降低能耗。一方面,他们为CPU设置了报警温度,一旦设备超过63摄氏度,系统就会自动报警。然后采取措施分摊计算任务,来降低设备的温度;另一方面,他们在机房制冷方面也进行了土法改造。“由于当初设计时缺乏经验,我们的机房还是按照以前老式机房来设计的,冷气送风还没有采用目前流行的下送风方式,所以走了弯路。现在,随着设备的增多,机房温度增加很快。所以我们不得不在限制机房人员的同时,又将原来四个送风口中的两个封掉,让剩下的两个风口直接对着设备送冷风。有时甚至还要加上电风扇,以增加空气流通的效果。”
和上海大学相比,北京市气象信息中心的经费相对略显宽松,但是在降低能耗方面,也是走了弯路。
刘旭林表示,在今年添置新的HPC之前,信息中心还有一台曙光4000高性能计算机用于气象服务,“但是,这台机器的机房现在根本就没法待。”
在最初设计机房的时候,由于没经验,是按照普通机房来设计的。设备产生的热量让机房内空调运转不了多久就要报警,“所以我们后来只好又增加了两台空调,现在机房内的温度还是不低,在26摄氏度左右。而通常来讲,22摄氏度左右应该是最合适的。”
“针对新添置的HPC,我们在机房设计方面就有经验了,并请来了专业的机房公司为我们设计。设备的安装摆放、冷热风排放都经过了专业化的周密考虑。”
记者在北京市气象信息中心新的HPC机房看到,硕大的机柜一字排开,都采用了同向摆放的方式,以防止冷热风干扰,提高了制冷效率。8台大功率空调轰鸣,人与人之间近距离说话都有些听不清,冷风直接从地面上的送风口吹向设备。在机器后方,通过专门材料隔成了热风通道,从设备中排出的热风直接通过通道排出,以防止由于冷热风循环造成空调效率降低而增加能耗。
节能降耗是个系统工程
HPC往往担负着超出常规的计算能力,以2007年BGP所承担的10个计算项目为例,最小的数据量是1.2TB,最大的为23TB。利用1000个CPU,某些项目的计算时间都要超过50天。刘旭林也表示,虽然北京市气象信息中心的高性能计算机达到了9.8万亿次/秒,但是由于要承担奥运会气象服务这样数据量巨大的任务,9.8万亿次/秒的计算能力还是有些不够用。
因此,对于HPC的高能耗,很多人会把目光集中在CPU上。的确,CPU不但自身耗电量大,而且由于产生大量热量,又迫使冷却系统消耗大量电能。虽然目前Intel、AMD、IBM等厂商都在通过提高设计和制造工艺来降低CPU的能耗,但是由于HPC的特殊工作性质,其CPU仍然成为能耗大户。
与普通的数据中心不同,HPC节能降耗更为艰难。“普通的数据中心可以通过降低电压、动态平衡负荷的方式来降低CPU能耗。但是高性能计算机却不能如此,因为负担的数据量太大,CPU的状态可以说就是在零和百分之百之间转换。”清华大学计算机系主任助理陈文光告诉记者。
所以,目前一些业内人士表示,HPC的节能降耗不能只盯在CPU上。
赖能和透露,目前BGP采用了曙光公司开发的针对整个高性能计算机的节能和监控软件,动态调整整个计算系统的状态,节能效果达到了35%,单个节点可节省60W的功耗。以1000个节点为例,一年可节电52万度。
有资料显示,奇梦达、澜起科技等半导体公司正在另辟蹊径,针对高性能计算中广泛应用的FB-DIMM内存控制芯片AMB进行节能设计。目前,已经有AMB芯片可以将功耗控制在4瓦以下,相比以前的产品降低了将近3瓦功耗。以一个4 核CPU服务器为例,如果插满32条内存,就可以降低将近100瓦能耗。如果应用到具有上百个、上千个甚至上万个节点的HPC中,节电效果将非常显著。
APC公司工程师刘勇告诉记者,根据从客户中获得的反馈信息,实际上很多HPC用户还没有认识到节能降耗是个系统工程。“很多人认为,CPU发热量大,那我就再配置一个大功率的空调来直接对其制冷送风。这样一来,CPU的能耗虽然下去了,但是空调的能耗却被忽视了。”
所以,刘勇在与客户的交流中,经常会向他们提供一些从HPC整个系统的方方面面入手降低能耗的建议,而这些方面往往都容易被用户所忽视。“我可能会建议他们安装更好的散热通风设备,例如盲板,使空调冷风精确输送到需要制冷的设备上,而不是简单地增加空调制冷量。或者采用更好的线缆管理方式,使得机柜后部更有效地利于IT设备散热,而不阻挡热量散出,这都可以在很大程度上节能降耗。”
作为“HPC节能降耗是个系统工程”观点的支持者,陈文光表示,HPC在CPU层面、操作系统层面、应用软件层面、机房制冷层面都应该具有节能降耗的解决方案,而且这些解决方案必须相互间有所关联和互动,才能保证整体节能降耗的效率和效果。
采访手记
HPC节能降耗:一声叹息
记者的私家车是一辆两厢的1.6升排量轿车,当时购买时就是考虑到两厢车耗油少一些。2003年购车的时候,北京93号汽油是2.9元/升,现在已经是4.9元/升。在这4年中,记者尝试过各种节油的方式。
以夏天是否打开车内空调为例,以目前100元的93号汽油为标准,在开启空调的状态下,这些汽油只能维持200公里的行程;若不使用空调,最多可以维持270公里的行程。如何在舒适性和经济性中寻求一个自己可以满意的平衡点,可以说一直在困扰着我。
在本次采访中,记者强烈感受到,用户对高性能计算能力的期望和对电费账单的抱怨正交织在一起。鱼和熊掌能否兼得?这正是用户们正在考虑的新命题。
但是鱼和熊掌能兼得吗?答案是肯定的,不过这个问题还是要由厂商来解决,需要他们承担起更多的责任。
陈文光告诉记者,他们在研究中取得了高性能计算节能方面的一项专利。就这个专利他们曾经和多个厂家探讨过合作的可能,但是最后都不了了之,没有了下文。
北京气象信息中心也曾经考虑采用先进的水冷设备,厂商虽然在这方面的技术上没有问题,但是在服务上却又“掉链子”。国内没有相关安装、服务人员,要从国外派人员来进行安装调试,甚至是日后的日常维护。这方面所带来的成本增加,让北京市气象信息中心无法接受。
应该说随着高性能计算机处理器性能的不断提升和系统规模的不断变大,HPC系统性能突破目前的极限仅仅是一个时间问题。极限突破之后,肯定还要掀起新一轮对HPC的热捧。热捧的同时,希望不要再有那一声声对节能降耗的无奈叹息。(汤铭)