网格应用研究现状

网 格 应 用 研 究 现 状

清华大学计算机系高性能所网格研究组 刘 鹏 [email protected] http://www.gridhome.com

按照Ian Foster 和Globus 项目组的观点,网格应用领域目前主要有四类:分布式超级计算、分布式仪器系统、数据密集型计算和远程沉浸。下面主要介绍这些应用领域中有代表性的项目,另外,也介绍网格信息集成应用。

1 分布式超级计算

分布式超级计算(Distributed Supercomputing)是指将分布在不同地点的超级计算机用高速网络连接起来,并用网格中间件软件“粘合”起来,形成比单台超级计算机强大得多的计算平台。事实上,网格的最初设计目标主要就是要满足更大规模的计算需求,Globus 正是从这类应用起家的。本节主要介绍两个典型的分布式超级计算应用:第一个是军事仿真项目SF Express,它将大型军事仿真任务分解到分布式环境中运行,从而在规模上创下了该领域的世界纪录;第二个应用称作数字相对论,它利用网格求解爱因斯坦相对论方程并模拟出天体的运动规律。这个应用很有代表性,在2001年超级计算会议(Supercomputing 2001)上获得了Gordon Bell奖。

1.1 军事仿真

SF Express全称为综合军力表示(Synthetic Forces Express),始于1996年,是由美国国防部下属的国防先进研究计划处DARPA(Defense Advanced Research Projects Agency)资助、由加利福尼亚理工学院负责完成的,其目标是进行规模尽可能大的作战模拟。DARPA一直对大规模的军事模拟感兴趣,因为它对于军事指挥、训练、演习和试验都有先验指导意义。

1996年11月,SF Express使用拥有1024个处理器的Intel Paragon并行机,模拟了10,000个战斗单位。1997年,SF Express 扩展到横跨7个时区的6台超级计算机,共使用了1,094个处理器,模拟了50,000年战斗单位。这时,SF Express已经初步具备网格特征,但它采用手工配置的方法管理资源,无法适应网格的变化,不能动态容错,在演示过程中就暴露出许多问题。

之后,SF Express加强了与Globus 的融合。在场景分发、资源配置、资源管理、信息服务、日志服务、监视和容错等方面都利用了Globus 的动态管理功能。1998年3月16日,SF Express 集合13台并行计算机之力,使用了1,386个处理器,终于成功

模拟了100,298个战斗实体,实现了历史上最大规模的战争模拟。此时的SF Express已经能够适应网格的动态变化,能够自动选择资源,自动提交可执行代码和运行数据,自动调整运行状态,自动屏蔽网格中的出错情况。

从SF Express走过的历程看,由单台并行计算机转向网格环境,将能够解决的问题规模扩大了一个数量级。而它与Globus 的融合程度,决定了它对网格环境的适应能力。这对后来的大规模网格应用无疑是有借鉴意义的。

1.2 数字相对论

数字相对论的应用是基于Cactus(仙人掌)平台的。为什么不是直接基于Globus 的呢?因为Globus 是网格基础设施,其作用相当于网格操作系统,担负管理网格资源的重任,但它离具体应用还比较远。直接基于Globus 编写应用程序,就像直接使用底层API 编写Windows 程序一样麻烦。Cactus则弥补了这个缺陷,成为连接Globus 和应用程序的桥梁。有了Cactus 的支持,编写应用程序就不再需要考虑与网格相关的问题,甚至以前在单台并行机上编写的应用程序可以直接拿来使用,而且有许多针对特定问题的现成解决方案可以直接调用。

Cactus 项目是在德国Max Planck 引力物理研究所(即阿尔伯特.爱因斯坦研究所)的带领下,由德国和美国多个研究机构共同完成的。它经过多年积累,虽系统庞大但应用界面简单,因而受到普遍关注。

对黑洞的模拟是Cactus 项目的得意之作。这一个典型的网格问题:一方面,它需要很大的计算能力。例如,要模拟一大一小两个黑洞的碰撞,其计算量不是单台超级计算机所能完成的。为此,必须借助网格,把计算任务分解到多台超级计算机上;另一方面,模拟黑洞是一个系统工程,需要天文学家、物理学家、数学家和计算机专家的共同参与,而网格平台能够使分布在各地的、不同专业背景的研究人员进行紧密协作。

黑洞模拟项目在Supercomputing 2001国际会议上作了现场演示。该系统一共使用了四台并行计算机,三台位于美国伊利诺斯州Champaign-Urbana 的国家超级计算应用中心,分别是128、128和256个CPU 的SGI Origin 2000机,另一台是具有1024个CPU 的IBM Power-SP机,位于加州的圣地亚哥超级计算中心。两地之间使用OC-12专线连接。

该项目采用了许多措施来优化整体性能。实验结果表明,优化前,应用程序的整体运行效率只有15%,而优化后的整体效率达到了63%。试验中,还尝试过只使用一台SGI Origin 2000(120个CPU)和IBM Power-SP(1020个CPU),曾创下高达88%的使用效率,这无疑非常惊人。

1.3 其他计算网格

先进计算基础设施同盟PACI (Partnerships for Advanced Computational Infrastructure)是一个从1997年就开始建设的网格平台,它针对高端计算需求,主要为美国学术机构服务。美国自然科学基金会NSF 对这个项目寄予厚望,期望它能演变成一个连接所有高性能计算系统的“国家网格”,甚至把它与若干前NSF 资助的NSFnet 相提并论(NSFnet可以说是现代Internet 的基础)。基于PACI,NSF 从组织形式上建立了两个研究同盟:国家超级计算应用中心NCSA 领导的国家计算科学联盟NCSA (National Computational Science Alliance )和圣地亚哥超级计算机中心SDSC 领导的国家先进计算基础设施同盟NPACI (National Partnership for Advanced Computational Infrastructure )。

美国宇航局NASA 的信息动力网格IPG(Information Power Grid)基于Globus,并加入了NCSA 和NPACI 同盟。其目的是集成分布的计算能力和存储能力,提供一个无缝的计算环境。IPG所集成的资源主要来自于各地的NASA 中心。

DAS 和DAS-2是荷兰的集群网格项目,由先进计算和成像学校ASCI (Advanced School for Computing and Imaging )带领五所荷兰大学开发,是一个由同构集群构成的分布式计算环境。 DAS包括4台集群计算机,分布于4所大学,共有200个结点。 DAS-2将包含5台SMP 集群。

2 分布式仪器系统

分布式仪器系统(Distributed Instrumentation System)是指用网格管理分布在各地的贵重仪器系统,提供远程访问仪器设备的手段,提高仪器的利用率,大大方便用户的使用。在网格出现之前,人们就试图通过网络访问一些仪器设备或仪器数据,但当时的软硬件环境都不成熟,只能实现一些低要求应用罢了,而网格将分布式仪器系统变成了一个非常易于管理和有弹性的系统。

2.1 远程医疗

远程医疗经历了一个从简单到复杂、从低质量到高质量、从单一到综合的演化过程。在这个过程中,网格起到了综合各种技术、揉合各种平台、屏蔽各种差异的作用。

网格在远程医疗中将扮演这样的角色:管理各种设备,动态调度资源,提供资源预留服务和自适应网络的拥塞,提供海量数据的实时存贮和检索服务,在设备和远程存贮系统之间提供传输服务,对动态可视化和分析提供支持,支持对远程仪器的控制,促成

专业人员之间的协作。有了网格的支持,远程医疗系统就可以建立在宽带Internet 之上,而不必租用专用线路,各种资源的利用率以及协作水平也能大幅提高。

近期,英国剑桥大学与西英格兰癌症网WACN(West Anglia Cancer Network)正在联合进行基于网格的远程医疗试验,对160万人口提供癌症医疗服务。该系统支持多方视频交流,以及放射图像的实时传输、存贮和检索。特别地,该系统将远程接入医疗模拟计算应用程序,并对病人记录进行数据挖掘以辅助临床决策。有了该系统的支持,病人就可以到最近的癌症治疗分部,通过网络接受癌症专家的诊断和治疗。

2.2 远程访问贵重仪器

XPort 项目由美国能源部DOE(Depart of Energy)下一代因特网NGI(Next Generation Internet)试验床计划资助,由印第安那州大学、Argonne国家实验室ANL 和劳伦斯市伯克利国家实验室LBL 共同完成,其目标是用让远程使用科学仪器达到前所未有的方便程度,拿他们的话来说,就是“比到那儿用还方便”。

XPort 使用的科学仪器是几个高亮度X 射线结晶学设备,包括ANL 的先进光子源APS (Advanced Photon Source)和LBL 的先进光源ALS(Advanced Light Source),以及印第安那州大学的分子结构中心MSC(Molecular Structure Center)。晶体在X 射线的照射下产生衍射,其图像可以用来确定晶体结晶单元的尺寸和原子的位置。对于大型的分子,衍射图案非常紧密,图像需要极高的分辨率才能被辨识。为此,像先进光源ALS 和先进光子源APS 这样的高亮度X 射线源是必不可少的。

XPort 平台基于NGI 和Globus,能提供远程仪器使用规划、仪器操作、数据获取、筛选和分析等功能,它将大大简化巨型分子晶体结构的设计和实施。为此,XPort需要结合先进的网络技术、中间件服务和远程仪器操控技术。XPort所涉及的技术问题主要包括:高速数据的采集、筛选、存贮、可视化和实时仪器控制等。

虽然像APS、ALS 和MSC 这些设施非常昂贵,具有很大的科学价值,然而在没有Xort 之前,使用这些设施是非常不方便的。通常,一个科技工作者要想用上这种设备,需要预约排队好几个月,然后千里迢迢赶过去,采集实验数据又得花上好些天(同时也造成仪器的利用率低下),最后分析这些数据还得花很长的时间。有了XPort 之后,科技工作者们就可以远在千里之外提交任务,交互式控制任务的执行,接收和分析初步的运行结果以确定任务的正确性,存贮和管理产生的数据,而且还可以与其他科技工作者即时共享其研究结果,探讨新的解决方法。

可见,XPort带来的好处是明显的,一方面它大大缩短了研究时间,提高了设备的利用率,使普通的科技工作者能够用上先进设备;另一方面它提供了一个协同研究的平台,使研究能够以团队的方式开展,为交叉学科研究创造了条件。应该说,正是NGI、Globus、Cactus、XPort这样的研究项目,为未来的“大科学”研究奠定了坚实的基础。

3 数据密集型计算

并行计算技术往往是由一些计算密集型应用推动着的,特别是一些带有重大挑战(Grand Challenge)性质的应用,它们大大促进了对高性能并行体系结构、编程环境、大规模可视化等领域的研究。但是,相比之下,数据密集型计算(Data Intensive Computing)的应用好像要比计算密集型应用多得多。它对应的数据网格更侧重于数据的存贮、传输和处理,而计算网格则更侧重于计算能力的提高,所以它们的侧重点和实现技术是不同的。本节着重介绍欧洲原子能研究机构CERN 所开展的数据网格DataGrid 项目。

3.1 欧洲DataGrid

欧洲原子能研究机构CERN 成立于1954年,是世界最大的粒子物理研究中心。CERN是欧洲第一个联合研究机构,由20个成员国提供资金,其卓越成绩已经成为国际合作的典范。CERN主要研究物质是怎样构成的,以及是什么把它们结合起来的。CERN建有世界上最大的正负电子对撞机LEP(Large Electron-Positron collider)和超级质子同步加速器SPS(Super Proton Synchrotron)。来自全世界80多个国家、500多所大学及研究机构的6500多名科学家(占全球粒子物理学家的一半)在CERN 进行各种各样的实验。

目前CERN 有1800名物理学家正在为下一代加速装置作实验准备。该装置称为大型强子对撞机LHC(Large Hadron Collider),将于2005年投入使用,这将是人类历史上最强大的粒子加速器。未来在LHC 上进行的实验的参加单位、人数及产生的数据量也是前所未有的。做个类比,LHC 将要产生的数据量,将是目前CERN 所有设备产生的数据量的总和高出一到两个数量级。

LHC 的出现将给计算科技带来全新的挑战,为此,需要有空前的计算能力来处理这些数据,空前的人类智慧来分析这些数据,以及空前的存贮能力来保存这些数据。解决这些问题的基本思想是把海量数据分散到全球的计算机上进行处理,并由全球的物理学家共同分析之。在这个背景下,欧洲的数据网格DataGrid 应运而生了,它成为实现这个“大科学”目标的基础平台。

DataGrid 对海量数据的分解过程是这样的:粒子检测器产生的原始数据具有PB/s量级,经过在线系统过滤后,并经具有20万亿次处理能力的离线处理场的处理,最终以大约100MB/s的速率永久写入磁带,这个100MB/s 就是DataGrid 真正需要处理的数据速率。CERN 计算机中心负责将这些数据通过高速网络分配给欧洲、北美、日本等国的区域中心,后者再将任务作进一步分解,到物理学家的桌面时,数据量只有1MB/s,已经可以很方便地进行处理了。

DataGrid 除了用于LHC 之外,还可以广泛应用于其他研究领域,例如:

(1) 生物和医学

虽然人类基因组计划在媒体的曝光率很高,相对于人的细胞里每个DNA 所含的35亿对基因而言,科学家们已经完成的基因分析工作只是极少的一部分。要全部标注这些基因需要很大的数据存贮及处理能力。

DataGrid 将为该类计划提供新的高性能数据库支持、代码管理、数据挖掘的新方法、交互式图形界面、新的实验手段以及与国际同行共享研究成果的手段。

数据网格在生物、医学领域的另一个应用是处理医学图像,它在实时图像获取、处理、存贮、共享、检索等多个方面具有独到的优势。

(2) 地球观察

欧洲空间局管理了几个地球观察卫星。这些卫星每天会下传大约100GB 的图像,新卫星ENVISAT 发射之后,数据量又增大了5倍。为此,地面站建立了专用的设施来处理这些数据,目前已经保存了上千万亿字节的数据。

DataGrid 将使处理卫星数据的能力大大提高,它不仅将海量数据分散到整个欧洲范围内保存,提供更高效的访问方法,还提供了更强的处理能力。在此基础上,对卫星数据的研究水平将大大提高,例如,目前已经利用大气中臭氧层的数据建立了一个专用试验床。

3.2 其他数据网格

网格物理网络GriPhyN (Grid Physics Network)是一个由实验物理学家与IT 研究人员共同建立的数据网格,其目标是达到千万亿字节规模的数据存储和处理能力。GriPhyN 的核心技术平台是PVDG(Petascale Virtual Data Grids),它能向全球的科学家提供一个面向数据处理的计算平台。GriPhyN先期主要开展四个应用项目的研究,包括:CMS和ATLAS,这两个项目是在CERN 的大型强子对撞机上进行的,其目的是探索物质的起源及寻找超微小物质;还有LIGO(Laser Interferometer Gravitational-wave Observatory)项目,用于发现脉冲星的引力波等;以及SDSS(Sloan Digital Sky Survey) ,将天空数字化后进行系统的、自动的研究。

粒子物理数据网格PPDG(Particle Physics Data Grid)研究始于1999年, 其目标是建立一个用于高能物理和原子能实验的数据网格环境。PPDG目前进行的项目叫做SciDAC (Particle Physics Data Grid Collaboratory Pilot),它是一个持续三年的研究计划。它不仅瞄准一些中短期目标,甚至可用于2006年才开始的长期物理试验计划。

iVDGL 是一个全球性的数据网格,连接美国、欧洲、亚洲和南美,主要用于物理学

和天文学。

DataTAG 是一个大规模的洲际数据网格试验床,它与上述三个网格项目有密切关系。一方面,它提供瑞士日内瓦到美国芝加哥之间的高性能网络连接(2.5Gbps专用线路),上述三个网格都会用到这个线路,因为它是美国连接欧洲的理想选择;另一方面,这个项目集中精力研究数据网格之间的互操作性,包括DataGrid、CrossGrid 和上述三个网格。

4 远程沉浸

远程沉浸(Tele-immersion)这个术语是在1996年10月,由伊利诺州大学芝加哥分校的电子可视化实验室EVL (Electronic Visualization Laboratory)最早提出来的。远程沉浸是一种特殊的网络化虚拟现实环境。这个环境可以是对现实或历史的逼真反映,可以是对高性能计算结果或数据库的可视化,也可以是个纯粹虚构的空间。“沉浸”的意思是人可以完全融入其中:各地的参与者通过网络聚在同一个虚拟空间里,既可以随意漫游,又可以相互沟通,还可以与虚拟环境交互,使之发生改变。打个比方,远程沉浸是一部观众可以进入其中的科幻电影。远程沉浸可以广泛应用于交互式科学可视化、教育、训练、艺术、娱乐、工业设计、信息可视化等许多领域。

从网格的角度来看,远程沉浸算得上是个“另类”,它与分布式超级计算、分布式仪器系统和数据密集型计算的性质有很大的不同:一方面,虽然它能把高性能计算的结果用一种全新的方式可视化出来,但它本身对高性能计算的要求并不高;另一方面,它并没有集网络上的大量资源于一身。那么,远程沉浸问题到底还算不算网格问题呢?让我们回到网格的定义上来:动态多机构虚拟组织中的资源共享和协同问题解决。显然,参与远程沉浸应用的各方是来自不同的虚拟组织的,他们所要共享的资源就是这个共同的虚拟环境,而共享的目的就是要协同解决问题,因此,远程沉浸还是一个典型的网格问题,只不过它所共享的是一个集中的虚拟环境,而主要不是共享计算能力或数据存储能力罢了。更进一步,网格是未来Internet 的发展方向,也就是说,网格会成为未来的网络基础设施,几乎所有的应用都将基于网格,因而极富创新精神、有广阔发展空间的远程沉浸应用,也会毫无例外地依赖于网格的支持。另外,远程沉浸以崭新的手段极大地促进了网络化协作,这也正是网格的精髓所在。

除了依赖网格之外,远程沉浸在很大程度上还依赖一种虚拟现实设备,它的名字叫CAVE 自动虚拟环境(CAVE Automatic Virtual Environment)。CAVE是一个10×10×9英尺的小房间,它的四面和顶上使用高清晰背投产生一个360度的三维立体环境,在该场景中有一个与该人对应的卡通角色(avatar),它代表真实的人在三维空间活动。人置身其中,头戴一副LCD 快门眼镜,两臂绑有电磁跟踪系统,再配以三维环境声音,角色的位置、方向以及举手投足都与真人相同,会让人产生非常逼真的临场感。

远程沉浸使分布在各地的使用者能够在相同的虚拟空间协同工作,就像是在同一个

房间一样,甚至可以将虚拟环境扩展到全球范围内,创造出“比亲自到那儿还要好”的环境。更重要的是,它将“人/机交互”模式扩展成为“人/机/人协作”模式,不仅提供协同环境,还将对数据库的实时访问、数据挖掘、高性能计算等集成了进来,为科技工作者提供了一种崭新的协同研究模式。

过去几年里,EVL与十几家合作伙伴一起,开发了一些具有远程沉浸特征的虚拟现实应用,例如:

(1) 虚拟历史博物馆

共享的爱奥尼亚(Shared Miletus)项目让2000年前的希腊爱奥尼亚古城复活,从网络上进入的参观者不仅可以在虚拟的城池中畅游,还可以与从其他地方进入的网络参观者在同一个虚拟空间中互相交流。为了方便浏览,既可以由真人担任虚拟环境中的向导,也可以指定一个虚拟的智能向导,“他/她”能够带领大家到不同地点参观,会说多国语言,还可以根据听众的要求将解说简化或细化。

除了希腊古城外,中国敦煌莫高窟价值连城的壁画也于1998年被数字化成为远程沉浸环境。

(2) 协同学习环境

备受关注的NICE——叙事式沉浸的建设者及协同环境 (Narrative Immersive Constructionist / Collaborative Environments)——是伊利诺州大学芝加哥分校电子可视化实验室EVL 和交互计算环境实验室CEL 合作推出的。NICE 是一个探索性质的协同学习环境,专为6至10岁孩子设计。孩子们进入CAVE 虚拟现实环境中,戴着特制的眼镜,手中拿着一个特制的小棒用于交互操作,每一个孩子都有一个角色,来自不同地方的孩子可以在这个虚拟的花园中打招呼、交谈、互相学习。他们既可以将鲜花或蔬菜拿在手上观察,也可以将自己缩小,“深入”观察植物的根系;他们既可以除去杂草并将它扔到肥料堆,又可以顺手摘下天边飘过的雨云给花儿浇灌,或者将天边的太阳拉过来让花朵享受阳光,等等。除此之外,这些植物本身也会有一些反馈信息,例如,当给花儿浇水太多时,花儿会撑起一把小伞,让孩子们得到一个直接的反馈——过多浇水会让花儿受不了。NICE 有趣又有益,孩子们不仅非常喜欢在里边玩耍,还可以轻松地了解原本很复杂的生态关系。

(3) 数据可视化协同分析环境

在远程沉浸环境中,人在虚拟环境中以角色代表,这个角色比人在真实环境中的能力要强得多:它们能够站在分子链可视化图像的某个环节前进行讨论;也能钻进设计好的汽车模型里,体验汽车发生剧烈碰撞里的感受;还能站在云层的顶端,观察风暴的形成。他们既可以让自身像星系一样大,以便纵览宇宙风云;也可以让自己像虫子一样小,以便钻进一个做跌落试验的物品中,并与物品一起跌落,找到防止物品在跌落过程中损坏的办法。更棒的是,人与虚拟环境是交互的,可以通过改变超级计算的参数等手段,动态改变虚拟环境的形成方式。

CAVE6D 就是这样一种专门为科技人员准备的数据可视化协同分析环境,它允许多个用户在虚拟的环境里对超级计算数据进行可视化并与数据进行交互。参与者们不仅以角色的方式进入三维可视化场景中自由漫游,还可以改变可视化参数,如循环矢量、温度、风的速度、鱼群的分布等。CAVE6D 不仅提供了交互式的可视化手段,还提供了让各地参与者协同交流和研究的手段。

5 信息集成

早在网格兴起之前,人们已经意识到了信息集成的重要性,许多公司推出了相应产品。如微软的.NET 让所有的计算机、相关设备和服务商协同工作,使信息能够在指定的时间以指定的方式传送到指定的位置;IBM 的Web Sphere可以使分布在全球的采购商、供应商和交易市场共享其行业信息,实现最低成本的交易;Sun 基于Java 推出了相应的J2EE 平台规范,实现跨国企业的跨平台、跨地域管理;Oracle 推出的Oracle Portal,使信息能够方便地从数据库和用户之间流动。

网格最早以集成异构计算平台的身份出现,接着跨入分布处理海量数据的领域,自然而然地,网格将在信息集成领域一展身手。所谓的信息网格,就是要建立一个体系结构并开发相应的中间件,向用户提供“信息在你指尖”(Information at your fingertip)式的服务。

信息网格研究的中心问题有:如何描述信息、存储信息、发布信息和查找信息;如何充分利用现有网络技术,如HTTP 、XML 、WSDL 、UDDI 、SOAP 等,构成一个完整的服务链;信息的语义表示,即如何赋予信息以内涵,以及如何避免信息的二义性;如何对信息加密,防止信息泄露,等等。

本节以美国军方的全球信息网格GIG(Global Information Grid)作为例子。

在GIG 提出之前,美国国防部已有其指挥信息系统C 4ISR 。C 4ISR 全称为“指挥、控制、通信、计算机、智能、监督和侦察系统(command, control, communications, computers, intelligence, surveillance, and reconnaissance)”。这套系统为增强美军战斗力发挥了巨大作用,例如,美国在21世纪初的阿富汗战争中的发起攻击准备时间比90年代初海湾战争时缩短了一个数量级。

但是,即使如此,这套系统还是存在很大的不足。例如,战斗机飞行员的攻击任务是在起飞之前数小时制定的,无法在攻击过程中随机应变。美国国防部设想,依靠GIG 的帮助,到2010年,卫星、预警机、雷达及情报人员等采集到的所有相关信息经过处理后,将实时反馈到驾驶舱,不仅让飞行员对它的周遭情况了如指掌,还让机群和地面部队、海面舰船的配合天衣无缝。也正是依靠这套系统,可以将误伤友军或平民目标的情形减少到最低限度。

为了实现这个目标,需要集成各种信息,包括侦察、智能、战斗信息、后勤、运输、医疗等,需要通过实时计算和通信完成信息的收集、处理、存储、分发、管理和安全保障等功能。GIG 的目标是综合系统中所有的信息和能力,提供单一的、集成的、安全的、端到端的信息系统,允许用户访问共享数据和应用程序,而不管他们身在何处。

GIG 的设想最早是以备忘录形式,由美国国防部首席信息办公室CIO(Chief

Information Office)制定,时间是1999年9月22日。备忘录描述GIG 将使用专用或租用通信线路、服务、软件、数据和安全机制等,支持国防部、国家安全部和情报部门在平时和战时的任务和功能(战略、日常运行、战术和业务等) ,向所有操作地点(基地、岗位、营地、站点、设施、移动平台、前线等) 提供信息服务,并向盟军、非国防部用户等提供使用界面。

由于GIG 要同时支持战争、战斗和日常业务,要同时支持现有平台、未来平台乃至正在发展的平台,因此要想建立一个完善的GIG 体系结构是非常困难的事情。为了将设计层次化,GIG 从两个角度对这个体系结构进行剖分,一种是把它分成三种互相关联的子体系:联合运作体系 (Joint Operational Architecture) 、战斗支持和业务区域体系(Combat Support and Business Area Architectures)以及通信和计算系统体系

(Communications and Computing System Architecture);另一种是面向任务划分为逻辑关联的三种体系透视图:运作视图、系统视图和技术视图。

GIG 是一个长远目标,估计美国国防部将为之投入数百亿美元,耗时将长达十年以上。从这一点,也侧面反映出信息集成系统的重要性。

网 格 应 用 研 究 现 状

清华大学计算机系高性能所网格研究组 刘 鹏 [email protected] http://www.gridhome.com

按照Ian Foster 和Globus 项目组的观点,网格应用领域目前主要有四类:分布式超级计算、分布式仪器系统、数据密集型计算和远程沉浸。下面主要介绍这些应用领域中有代表性的项目,另外,也介绍网格信息集成应用。

1 分布式超级计算

分布式超级计算(Distributed Supercomputing)是指将分布在不同地点的超级计算机用高速网络连接起来,并用网格中间件软件“粘合”起来,形成比单台超级计算机强大得多的计算平台。事实上,网格的最初设计目标主要就是要满足更大规模的计算需求,Globus 正是从这类应用起家的。本节主要介绍两个典型的分布式超级计算应用:第一个是军事仿真项目SF Express,它将大型军事仿真任务分解到分布式环境中运行,从而在规模上创下了该领域的世界纪录;第二个应用称作数字相对论,它利用网格求解爱因斯坦相对论方程并模拟出天体的运动规律。这个应用很有代表性,在2001年超级计算会议(Supercomputing 2001)上获得了Gordon Bell奖。

1.1 军事仿真

SF Express全称为综合军力表示(Synthetic Forces Express),始于1996年,是由美国国防部下属的国防先进研究计划处DARPA(Defense Advanced Research Projects Agency)资助、由加利福尼亚理工学院负责完成的,其目标是进行规模尽可能大的作战模拟。DARPA一直对大规模的军事模拟感兴趣,因为它对于军事指挥、训练、演习和试验都有先验指导意义。

1996年11月,SF Express使用拥有1024个处理器的Intel Paragon并行机,模拟了10,000个战斗单位。1997年,SF Express 扩展到横跨7个时区的6台超级计算机,共使用了1,094个处理器,模拟了50,000年战斗单位。这时,SF Express已经初步具备网格特征,但它采用手工配置的方法管理资源,无法适应网格的变化,不能动态容错,在演示过程中就暴露出许多问题。

之后,SF Express加强了与Globus 的融合。在场景分发、资源配置、资源管理、信息服务、日志服务、监视和容错等方面都利用了Globus 的动态管理功能。1998年3月16日,SF Express 集合13台并行计算机之力,使用了1,386个处理器,终于成功

模拟了100,298个战斗实体,实现了历史上最大规模的战争模拟。此时的SF Express已经能够适应网格的动态变化,能够自动选择资源,自动提交可执行代码和运行数据,自动调整运行状态,自动屏蔽网格中的出错情况。

从SF Express走过的历程看,由单台并行计算机转向网格环境,将能够解决的问题规模扩大了一个数量级。而它与Globus 的融合程度,决定了它对网格环境的适应能力。这对后来的大规模网格应用无疑是有借鉴意义的。

1.2 数字相对论

数字相对论的应用是基于Cactus(仙人掌)平台的。为什么不是直接基于Globus 的呢?因为Globus 是网格基础设施,其作用相当于网格操作系统,担负管理网格资源的重任,但它离具体应用还比较远。直接基于Globus 编写应用程序,就像直接使用底层API 编写Windows 程序一样麻烦。Cactus则弥补了这个缺陷,成为连接Globus 和应用程序的桥梁。有了Cactus 的支持,编写应用程序就不再需要考虑与网格相关的问题,甚至以前在单台并行机上编写的应用程序可以直接拿来使用,而且有许多针对特定问题的现成解决方案可以直接调用。

Cactus 项目是在德国Max Planck 引力物理研究所(即阿尔伯特.爱因斯坦研究所)的带领下,由德国和美国多个研究机构共同完成的。它经过多年积累,虽系统庞大但应用界面简单,因而受到普遍关注。

对黑洞的模拟是Cactus 项目的得意之作。这一个典型的网格问题:一方面,它需要很大的计算能力。例如,要模拟一大一小两个黑洞的碰撞,其计算量不是单台超级计算机所能完成的。为此,必须借助网格,把计算任务分解到多台超级计算机上;另一方面,模拟黑洞是一个系统工程,需要天文学家、物理学家、数学家和计算机专家的共同参与,而网格平台能够使分布在各地的、不同专业背景的研究人员进行紧密协作。

黑洞模拟项目在Supercomputing 2001国际会议上作了现场演示。该系统一共使用了四台并行计算机,三台位于美国伊利诺斯州Champaign-Urbana 的国家超级计算应用中心,分别是128、128和256个CPU 的SGI Origin 2000机,另一台是具有1024个CPU 的IBM Power-SP机,位于加州的圣地亚哥超级计算中心。两地之间使用OC-12专线连接。

该项目采用了许多措施来优化整体性能。实验结果表明,优化前,应用程序的整体运行效率只有15%,而优化后的整体效率达到了63%。试验中,还尝试过只使用一台SGI Origin 2000(120个CPU)和IBM Power-SP(1020个CPU),曾创下高达88%的使用效率,这无疑非常惊人。

1.3 其他计算网格

先进计算基础设施同盟PACI (Partnerships for Advanced Computational Infrastructure)是一个从1997年就开始建设的网格平台,它针对高端计算需求,主要为美国学术机构服务。美国自然科学基金会NSF 对这个项目寄予厚望,期望它能演变成一个连接所有高性能计算系统的“国家网格”,甚至把它与若干前NSF 资助的NSFnet 相提并论(NSFnet可以说是现代Internet 的基础)。基于PACI,NSF 从组织形式上建立了两个研究同盟:国家超级计算应用中心NCSA 领导的国家计算科学联盟NCSA (National Computational Science Alliance )和圣地亚哥超级计算机中心SDSC 领导的国家先进计算基础设施同盟NPACI (National Partnership for Advanced Computational Infrastructure )。

美国宇航局NASA 的信息动力网格IPG(Information Power Grid)基于Globus,并加入了NCSA 和NPACI 同盟。其目的是集成分布的计算能力和存储能力,提供一个无缝的计算环境。IPG所集成的资源主要来自于各地的NASA 中心。

DAS 和DAS-2是荷兰的集群网格项目,由先进计算和成像学校ASCI (Advanced School for Computing and Imaging )带领五所荷兰大学开发,是一个由同构集群构成的分布式计算环境。 DAS包括4台集群计算机,分布于4所大学,共有200个结点。 DAS-2将包含5台SMP 集群。

2 分布式仪器系统

分布式仪器系统(Distributed Instrumentation System)是指用网格管理分布在各地的贵重仪器系统,提供远程访问仪器设备的手段,提高仪器的利用率,大大方便用户的使用。在网格出现之前,人们就试图通过网络访问一些仪器设备或仪器数据,但当时的软硬件环境都不成熟,只能实现一些低要求应用罢了,而网格将分布式仪器系统变成了一个非常易于管理和有弹性的系统。

2.1 远程医疗

远程医疗经历了一个从简单到复杂、从低质量到高质量、从单一到综合的演化过程。在这个过程中,网格起到了综合各种技术、揉合各种平台、屏蔽各种差异的作用。

网格在远程医疗中将扮演这样的角色:管理各种设备,动态调度资源,提供资源预留服务和自适应网络的拥塞,提供海量数据的实时存贮和检索服务,在设备和远程存贮系统之间提供传输服务,对动态可视化和分析提供支持,支持对远程仪器的控制,促成

专业人员之间的协作。有了网格的支持,远程医疗系统就可以建立在宽带Internet 之上,而不必租用专用线路,各种资源的利用率以及协作水平也能大幅提高。

近期,英国剑桥大学与西英格兰癌症网WACN(West Anglia Cancer Network)正在联合进行基于网格的远程医疗试验,对160万人口提供癌症医疗服务。该系统支持多方视频交流,以及放射图像的实时传输、存贮和检索。特别地,该系统将远程接入医疗模拟计算应用程序,并对病人记录进行数据挖掘以辅助临床决策。有了该系统的支持,病人就可以到最近的癌症治疗分部,通过网络接受癌症专家的诊断和治疗。

2.2 远程访问贵重仪器

XPort 项目由美国能源部DOE(Depart of Energy)下一代因特网NGI(Next Generation Internet)试验床计划资助,由印第安那州大学、Argonne国家实验室ANL 和劳伦斯市伯克利国家实验室LBL 共同完成,其目标是用让远程使用科学仪器达到前所未有的方便程度,拿他们的话来说,就是“比到那儿用还方便”。

XPort 使用的科学仪器是几个高亮度X 射线结晶学设备,包括ANL 的先进光子源APS (Advanced Photon Source)和LBL 的先进光源ALS(Advanced Light Source),以及印第安那州大学的分子结构中心MSC(Molecular Structure Center)。晶体在X 射线的照射下产生衍射,其图像可以用来确定晶体结晶单元的尺寸和原子的位置。对于大型的分子,衍射图案非常紧密,图像需要极高的分辨率才能被辨识。为此,像先进光源ALS 和先进光子源APS 这样的高亮度X 射线源是必不可少的。

XPort 平台基于NGI 和Globus,能提供远程仪器使用规划、仪器操作、数据获取、筛选和分析等功能,它将大大简化巨型分子晶体结构的设计和实施。为此,XPort需要结合先进的网络技术、中间件服务和远程仪器操控技术。XPort所涉及的技术问题主要包括:高速数据的采集、筛选、存贮、可视化和实时仪器控制等。

虽然像APS、ALS 和MSC 这些设施非常昂贵,具有很大的科学价值,然而在没有Xort 之前,使用这些设施是非常不方便的。通常,一个科技工作者要想用上这种设备,需要预约排队好几个月,然后千里迢迢赶过去,采集实验数据又得花上好些天(同时也造成仪器的利用率低下),最后分析这些数据还得花很长的时间。有了XPort 之后,科技工作者们就可以远在千里之外提交任务,交互式控制任务的执行,接收和分析初步的运行结果以确定任务的正确性,存贮和管理产生的数据,而且还可以与其他科技工作者即时共享其研究结果,探讨新的解决方法。

可见,XPort带来的好处是明显的,一方面它大大缩短了研究时间,提高了设备的利用率,使普通的科技工作者能够用上先进设备;另一方面它提供了一个协同研究的平台,使研究能够以团队的方式开展,为交叉学科研究创造了条件。应该说,正是NGI、Globus、Cactus、XPort这样的研究项目,为未来的“大科学”研究奠定了坚实的基础。

3 数据密集型计算

并行计算技术往往是由一些计算密集型应用推动着的,特别是一些带有重大挑战(Grand Challenge)性质的应用,它们大大促进了对高性能并行体系结构、编程环境、大规模可视化等领域的研究。但是,相比之下,数据密集型计算(Data Intensive Computing)的应用好像要比计算密集型应用多得多。它对应的数据网格更侧重于数据的存贮、传输和处理,而计算网格则更侧重于计算能力的提高,所以它们的侧重点和实现技术是不同的。本节着重介绍欧洲原子能研究机构CERN 所开展的数据网格DataGrid 项目。

3.1 欧洲DataGrid

欧洲原子能研究机构CERN 成立于1954年,是世界最大的粒子物理研究中心。CERN是欧洲第一个联合研究机构,由20个成员国提供资金,其卓越成绩已经成为国际合作的典范。CERN主要研究物质是怎样构成的,以及是什么把它们结合起来的。CERN建有世界上最大的正负电子对撞机LEP(Large Electron-Positron collider)和超级质子同步加速器SPS(Super Proton Synchrotron)。来自全世界80多个国家、500多所大学及研究机构的6500多名科学家(占全球粒子物理学家的一半)在CERN 进行各种各样的实验。

目前CERN 有1800名物理学家正在为下一代加速装置作实验准备。该装置称为大型强子对撞机LHC(Large Hadron Collider),将于2005年投入使用,这将是人类历史上最强大的粒子加速器。未来在LHC 上进行的实验的参加单位、人数及产生的数据量也是前所未有的。做个类比,LHC 将要产生的数据量,将是目前CERN 所有设备产生的数据量的总和高出一到两个数量级。

LHC 的出现将给计算科技带来全新的挑战,为此,需要有空前的计算能力来处理这些数据,空前的人类智慧来分析这些数据,以及空前的存贮能力来保存这些数据。解决这些问题的基本思想是把海量数据分散到全球的计算机上进行处理,并由全球的物理学家共同分析之。在这个背景下,欧洲的数据网格DataGrid 应运而生了,它成为实现这个“大科学”目标的基础平台。

DataGrid 对海量数据的分解过程是这样的:粒子检测器产生的原始数据具有PB/s量级,经过在线系统过滤后,并经具有20万亿次处理能力的离线处理场的处理,最终以大约100MB/s的速率永久写入磁带,这个100MB/s 就是DataGrid 真正需要处理的数据速率。CERN 计算机中心负责将这些数据通过高速网络分配给欧洲、北美、日本等国的区域中心,后者再将任务作进一步分解,到物理学家的桌面时,数据量只有1MB/s,已经可以很方便地进行处理了。

DataGrid 除了用于LHC 之外,还可以广泛应用于其他研究领域,例如:

(1) 生物和医学

虽然人类基因组计划在媒体的曝光率很高,相对于人的细胞里每个DNA 所含的35亿对基因而言,科学家们已经完成的基因分析工作只是极少的一部分。要全部标注这些基因需要很大的数据存贮及处理能力。

DataGrid 将为该类计划提供新的高性能数据库支持、代码管理、数据挖掘的新方法、交互式图形界面、新的实验手段以及与国际同行共享研究成果的手段。

数据网格在生物、医学领域的另一个应用是处理医学图像,它在实时图像获取、处理、存贮、共享、检索等多个方面具有独到的优势。

(2) 地球观察

欧洲空间局管理了几个地球观察卫星。这些卫星每天会下传大约100GB 的图像,新卫星ENVISAT 发射之后,数据量又增大了5倍。为此,地面站建立了专用的设施来处理这些数据,目前已经保存了上千万亿字节的数据。

DataGrid 将使处理卫星数据的能力大大提高,它不仅将海量数据分散到整个欧洲范围内保存,提供更高效的访问方法,还提供了更强的处理能力。在此基础上,对卫星数据的研究水平将大大提高,例如,目前已经利用大气中臭氧层的数据建立了一个专用试验床。

3.2 其他数据网格

网格物理网络GriPhyN (Grid Physics Network)是一个由实验物理学家与IT 研究人员共同建立的数据网格,其目标是达到千万亿字节规模的数据存储和处理能力。GriPhyN 的核心技术平台是PVDG(Petascale Virtual Data Grids),它能向全球的科学家提供一个面向数据处理的计算平台。GriPhyN先期主要开展四个应用项目的研究,包括:CMS和ATLAS,这两个项目是在CERN 的大型强子对撞机上进行的,其目的是探索物质的起源及寻找超微小物质;还有LIGO(Laser Interferometer Gravitational-wave Observatory)项目,用于发现脉冲星的引力波等;以及SDSS(Sloan Digital Sky Survey) ,将天空数字化后进行系统的、自动的研究。

粒子物理数据网格PPDG(Particle Physics Data Grid)研究始于1999年, 其目标是建立一个用于高能物理和原子能实验的数据网格环境。PPDG目前进行的项目叫做SciDAC (Particle Physics Data Grid Collaboratory Pilot),它是一个持续三年的研究计划。它不仅瞄准一些中短期目标,甚至可用于2006年才开始的长期物理试验计划。

iVDGL 是一个全球性的数据网格,连接美国、欧洲、亚洲和南美,主要用于物理学

和天文学。

DataTAG 是一个大规模的洲际数据网格试验床,它与上述三个网格项目有密切关系。一方面,它提供瑞士日内瓦到美国芝加哥之间的高性能网络连接(2.5Gbps专用线路),上述三个网格都会用到这个线路,因为它是美国连接欧洲的理想选择;另一方面,这个项目集中精力研究数据网格之间的互操作性,包括DataGrid、CrossGrid 和上述三个网格。

4 远程沉浸

远程沉浸(Tele-immersion)这个术语是在1996年10月,由伊利诺州大学芝加哥分校的电子可视化实验室EVL (Electronic Visualization Laboratory)最早提出来的。远程沉浸是一种特殊的网络化虚拟现实环境。这个环境可以是对现实或历史的逼真反映,可以是对高性能计算结果或数据库的可视化,也可以是个纯粹虚构的空间。“沉浸”的意思是人可以完全融入其中:各地的参与者通过网络聚在同一个虚拟空间里,既可以随意漫游,又可以相互沟通,还可以与虚拟环境交互,使之发生改变。打个比方,远程沉浸是一部观众可以进入其中的科幻电影。远程沉浸可以广泛应用于交互式科学可视化、教育、训练、艺术、娱乐、工业设计、信息可视化等许多领域。

从网格的角度来看,远程沉浸算得上是个“另类”,它与分布式超级计算、分布式仪器系统和数据密集型计算的性质有很大的不同:一方面,虽然它能把高性能计算的结果用一种全新的方式可视化出来,但它本身对高性能计算的要求并不高;另一方面,它并没有集网络上的大量资源于一身。那么,远程沉浸问题到底还算不算网格问题呢?让我们回到网格的定义上来:动态多机构虚拟组织中的资源共享和协同问题解决。显然,参与远程沉浸应用的各方是来自不同的虚拟组织的,他们所要共享的资源就是这个共同的虚拟环境,而共享的目的就是要协同解决问题,因此,远程沉浸还是一个典型的网格问题,只不过它所共享的是一个集中的虚拟环境,而主要不是共享计算能力或数据存储能力罢了。更进一步,网格是未来Internet 的发展方向,也就是说,网格会成为未来的网络基础设施,几乎所有的应用都将基于网格,因而极富创新精神、有广阔发展空间的远程沉浸应用,也会毫无例外地依赖于网格的支持。另外,远程沉浸以崭新的手段极大地促进了网络化协作,这也正是网格的精髓所在。

除了依赖网格之外,远程沉浸在很大程度上还依赖一种虚拟现实设备,它的名字叫CAVE 自动虚拟环境(CAVE Automatic Virtual Environment)。CAVE是一个10×10×9英尺的小房间,它的四面和顶上使用高清晰背投产生一个360度的三维立体环境,在该场景中有一个与该人对应的卡通角色(avatar),它代表真实的人在三维空间活动。人置身其中,头戴一副LCD 快门眼镜,两臂绑有电磁跟踪系统,再配以三维环境声音,角色的位置、方向以及举手投足都与真人相同,会让人产生非常逼真的临场感。

远程沉浸使分布在各地的使用者能够在相同的虚拟空间协同工作,就像是在同一个

房间一样,甚至可以将虚拟环境扩展到全球范围内,创造出“比亲自到那儿还要好”的环境。更重要的是,它将“人/机交互”模式扩展成为“人/机/人协作”模式,不仅提供协同环境,还将对数据库的实时访问、数据挖掘、高性能计算等集成了进来,为科技工作者提供了一种崭新的协同研究模式。

过去几年里,EVL与十几家合作伙伴一起,开发了一些具有远程沉浸特征的虚拟现实应用,例如:

(1) 虚拟历史博物馆

共享的爱奥尼亚(Shared Miletus)项目让2000年前的希腊爱奥尼亚古城复活,从网络上进入的参观者不仅可以在虚拟的城池中畅游,还可以与从其他地方进入的网络参观者在同一个虚拟空间中互相交流。为了方便浏览,既可以由真人担任虚拟环境中的向导,也可以指定一个虚拟的智能向导,“他/她”能够带领大家到不同地点参观,会说多国语言,还可以根据听众的要求将解说简化或细化。

除了希腊古城外,中国敦煌莫高窟价值连城的壁画也于1998年被数字化成为远程沉浸环境。

(2) 协同学习环境

备受关注的NICE——叙事式沉浸的建设者及协同环境 (Narrative Immersive Constructionist / Collaborative Environments)——是伊利诺州大学芝加哥分校电子可视化实验室EVL 和交互计算环境实验室CEL 合作推出的。NICE 是一个探索性质的协同学习环境,专为6至10岁孩子设计。孩子们进入CAVE 虚拟现实环境中,戴着特制的眼镜,手中拿着一个特制的小棒用于交互操作,每一个孩子都有一个角色,来自不同地方的孩子可以在这个虚拟的花园中打招呼、交谈、互相学习。他们既可以将鲜花或蔬菜拿在手上观察,也可以将自己缩小,“深入”观察植物的根系;他们既可以除去杂草并将它扔到肥料堆,又可以顺手摘下天边飘过的雨云给花儿浇灌,或者将天边的太阳拉过来让花朵享受阳光,等等。除此之外,这些植物本身也会有一些反馈信息,例如,当给花儿浇水太多时,花儿会撑起一把小伞,让孩子们得到一个直接的反馈——过多浇水会让花儿受不了。NICE 有趣又有益,孩子们不仅非常喜欢在里边玩耍,还可以轻松地了解原本很复杂的生态关系。

(3) 数据可视化协同分析环境

在远程沉浸环境中,人在虚拟环境中以角色代表,这个角色比人在真实环境中的能力要强得多:它们能够站在分子链可视化图像的某个环节前进行讨论;也能钻进设计好的汽车模型里,体验汽车发生剧烈碰撞里的感受;还能站在云层的顶端,观察风暴的形成。他们既可以让自身像星系一样大,以便纵览宇宙风云;也可以让自己像虫子一样小,以便钻进一个做跌落试验的物品中,并与物品一起跌落,找到防止物品在跌落过程中损坏的办法。更棒的是,人与虚拟环境是交互的,可以通过改变超级计算的参数等手段,动态改变虚拟环境的形成方式。

CAVE6D 就是这样一种专门为科技人员准备的数据可视化协同分析环境,它允许多个用户在虚拟的环境里对超级计算数据进行可视化并与数据进行交互。参与者们不仅以角色的方式进入三维可视化场景中自由漫游,还可以改变可视化参数,如循环矢量、温度、风的速度、鱼群的分布等。CAVE6D 不仅提供了交互式的可视化手段,还提供了让各地参与者协同交流和研究的手段。

5 信息集成

早在网格兴起之前,人们已经意识到了信息集成的重要性,许多公司推出了相应产品。如微软的.NET 让所有的计算机、相关设备和服务商协同工作,使信息能够在指定的时间以指定的方式传送到指定的位置;IBM 的Web Sphere可以使分布在全球的采购商、供应商和交易市场共享其行业信息,实现最低成本的交易;Sun 基于Java 推出了相应的J2EE 平台规范,实现跨国企业的跨平台、跨地域管理;Oracle 推出的Oracle Portal,使信息能够方便地从数据库和用户之间流动。

网格最早以集成异构计算平台的身份出现,接着跨入分布处理海量数据的领域,自然而然地,网格将在信息集成领域一展身手。所谓的信息网格,就是要建立一个体系结构并开发相应的中间件,向用户提供“信息在你指尖”(Information at your fingertip)式的服务。

信息网格研究的中心问题有:如何描述信息、存储信息、发布信息和查找信息;如何充分利用现有网络技术,如HTTP 、XML 、WSDL 、UDDI 、SOAP 等,构成一个完整的服务链;信息的语义表示,即如何赋予信息以内涵,以及如何避免信息的二义性;如何对信息加密,防止信息泄露,等等。

本节以美国军方的全球信息网格GIG(Global Information Grid)作为例子。

在GIG 提出之前,美国国防部已有其指挥信息系统C 4ISR 。C 4ISR 全称为“指挥、控制、通信、计算机、智能、监督和侦察系统(command, control, communications, computers, intelligence, surveillance, and reconnaissance)”。这套系统为增强美军战斗力发挥了巨大作用,例如,美国在21世纪初的阿富汗战争中的发起攻击准备时间比90年代初海湾战争时缩短了一个数量级。

但是,即使如此,这套系统还是存在很大的不足。例如,战斗机飞行员的攻击任务是在起飞之前数小时制定的,无法在攻击过程中随机应变。美国国防部设想,依靠GIG 的帮助,到2010年,卫星、预警机、雷达及情报人员等采集到的所有相关信息经过处理后,将实时反馈到驾驶舱,不仅让飞行员对它的周遭情况了如指掌,还让机群和地面部队、海面舰船的配合天衣无缝。也正是依靠这套系统,可以将误伤友军或平民目标的情形减少到最低限度。

为了实现这个目标,需要集成各种信息,包括侦察、智能、战斗信息、后勤、运输、医疗等,需要通过实时计算和通信完成信息的收集、处理、存储、分发、管理和安全保障等功能。GIG 的目标是综合系统中所有的信息和能力,提供单一的、集成的、安全的、端到端的信息系统,允许用户访问共享数据和应用程序,而不管他们身在何处。

GIG 的设想最早是以备忘录形式,由美国国防部首席信息办公室CIO(Chief

Information Office)制定,时间是1999年9月22日。备忘录描述GIG 将使用专用或租用通信线路、服务、软件、数据和安全机制等,支持国防部、国家安全部和情报部门在平时和战时的任务和功能(战略、日常运行、战术和业务等) ,向所有操作地点(基地、岗位、营地、站点、设施、移动平台、前线等) 提供信息服务,并向盟军、非国防部用户等提供使用界面。

由于GIG 要同时支持战争、战斗和日常业务,要同时支持现有平台、未来平台乃至正在发展的平台,因此要想建立一个完善的GIG 体系结构是非常困难的事情。为了将设计层次化,GIG 从两个角度对这个体系结构进行剖分,一种是把它分成三种互相关联的子体系:联合运作体系 (Joint Operational Architecture) 、战斗支持和业务区域体系(Combat Support and Business Area Architectures)以及通信和计算系统体系

(Communications and Computing System Architecture);另一种是面向任务划分为逻辑关联的三种体系透视图:运作视图、系统视图和技术视图。

GIG 是一个长远目标,估计美国国防部将为之投入数百亿美元,耗时将长达十年以上。从这一点,也侧面反映出信息集成系统的重要性。


相关文章

  • 空间信息与数字技术本科毕业论文选题
  • 毕业论文(设计) 题 目 学 院 学 院 专 业 学生姓名 学 号 年级 级 指导教师 毕业教务处制表 毕业 毕业二〇一五年 十二月一 日 毕业 空间信息与数字技术毕业论文选题(1006个) 一.论文说明 本写作团队致力于毕业论文写作与辅导 ...查看


  • 蚁群算法系统模型
  • 4.基于蚁群算法的网格系统模型 本文引入了蚁群算法用于解决网格环境下的任务调度问题,体现网格环境下的资源分配与任务调度的复杂性和并行性.如图所示: 该模型的各模块功能如下: ①网格计算资源目录 该机制负责周期性地检查和接收各个网格计算资源的 ...查看


  • 基于三阶Adams格式的求解声波方程的多步算法
  • China University of Mining & Technology-Beijing 创新项目论文 一种基于三阶Adams 格式的求解声波方程的多步算法 摘 要 一个准确.高效.低数值频散的正演算法能够提高反演精度.加快反 ...查看


  • 关于汽车维修的论文
  • 关于汽车维修的论文 一种基于激光测距的汽车安全报警装置研究 汽车转向梯形驱动机构的匹配分析 急速影画 电影里的那些辆汽车-- 汽车动力传动系统匹配研究 汽车物流企业绩效评价研究 汽车内饰的正向数字化设计与管理 欧盟汽车行驶记录仪的推广应用历 ...查看


  • 云计算技术综述
  • 计算机与现代化 2012年第5期 文章编号:1006-2475(2012)05-13071-03 JISUANJIYUXIANDAIHUA 总第201期 云计算技术综述 江代有 (长安大学信息工程学院,陕西西安710064) 摘要:介绍云计 ...查看


  • 网格化城市管理模式运行现状的调研与思考2
  • 网格化城市管理模式运行 现状的调研与思考 2004年10月22日,000区网格化城市管理模式开始运行.三年以来,不断完善的网格化城市管理使我区逐步建立了‚两个轴心‛的城市管理体制,形成了精确.敏捷.高效.全方位覆盖.全时段监控的城市管理新格 ...查看


  • 有限元的发展历史现状及应用前景
  • 有限元分析的发展趋势 "有限元"这个名词第一次出现,到今天有限元在工程上得到广泛应用,经历了三十多年的发展历史,理论和算法都已经日趋完善.有限元的核心思想是结构的离散化,就是将实际结构假想地离散为有限数目的规则单元组合体 ...查看


  • 有限元方法概述
  • 设计与研究 29 有限元方法概述 谢江波 刘亚青 张鹏飞 (中北大学山西省高分子复合材料工程技术研究中心,太原030051) 摘要:本文概述了有限元方法的基本内容和有限元方法的现状及发展趋势,指出了国内有限元软件开发 ANSYS 建模 以方 ...查看


  • 地下水数值模拟中人为边界的处理方法研究
  • 地下水数值模拟中人为边界的处理方法研究 沈媛媛, 蒋云钟, 雷晓辉, 甘治国, 王海潮, 鲁 帆(中国水利水电科学研究院水资源研究所, 北京 100044) 摘要:边界条件预测是地下水数值模拟中的关键问题.本文针对人为边界受自然和人为因素影 ...查看


热门内容