黑龙江省专业技术人员继续教育知识更新培训
计算机网络与软件工程专业2013年作业
说明:
初级职称学员“专业课作业一”为第1-6题;“专业课作业二”为7-12题。
中、高级职称学员“专业课作业”为1-20题;同时提交3000字左右“学习心得”一篇。
所有学员均需按要求提交“公需课作业”。
作业提交时间:以网站通知为准。
1. 云计算是一种通过(Interner )以服务的方式提供动态可伸缩的
(虚拟化)的资源的计算模式。
2. 云计算按照服务类型大致可以分为三类,分别是(基础设施即服务)、(平台即服务)和(软件即服务)。
3. 云计算技术体系结构分为四层:物理资源层,(资源池层),(管理中间件层)和(SOA 构件层) 。
4. 网格计算也可以分为三种类型:(计算网格)、(信息网格)和 (知识网格)。
5. GFS cell 是Google 文件系统中最基础的模块。任何文件和数据都可以利用这种底层模块。GFS2 通过采用基于Linux 分布存储的方式,对于服务器来说,分成(主服务器) 和(块存储服务器) 。
6. MapReduce 是Google 提出的一个 (软件构架),用于(大规模)数据集(大于1TB )的并行运算。
7. BigTable 是建立在GFS ,(Scheduler ),(LockService )和(MapReduce )之上的。
8. Chubby 中的“锁”就是建立文件,创建文件其实就是进行(加锁)操作,创建文件成功的那个server 其实就是抢占到了(锁) 。用户通过打开、关闭和读取文件,获取(共享锁)或者(独占锁) 。
9. google 公司开发了一些很实用的应用服务,如(协作演讲),(项目计划) 和 (照片润色)。
10. Hadoop 是Apache Lucene 创始人(Doug Cutting )创建的,Lucene 是一个广泛使用的(文本搜索系统库) 。
11. MapReduce 作业是客户端需要执行的一个工作单元:它包括(输入数据)、MapReduce 程序和(配置信息)。
12. Hadoop 将作业分成若干个小任务 (task)来执行,其中包括两类任务:(map )任务和(reduce )任务。
13. reduce 任务的数量并非由输入数据的大小决定,而是(特别指定的)。如有多个reduce 任务,则每个map 任务都会(对其输出进行分区),即为每个reduce 任务(建一个分区)。
14. HDFS 采用(master/slave)架构,一个HDFS 集群有一个(Namenode )和一定数目的(Datanode )组成。
15. HDFS 支持传统的(层次型)文件组织,与大多数其他文件系统类似,用户可以创建目录,并在其间(创建)(删除)(移动)和(重命名)文件。
16. HDFS 被设计成在一个大集群中可以(跨机器)地可靠地存储(海量的文件)。它将每个文件存储成(block 序列),除了最后一个(block ),所有的(block )都是同样的大小。
17. HBase是一个(高可靠性)、(高性能)、(面向列)、(可伸缩)的分布式存储系统,利用HBase 技术可在廉价PC Server 上搭建起(大规模结构化存储集群)。
18. 当Table 随着记录数不断增加而变大后,会逐渐分裂成(splits ),成为regions ,一个region 由(startkey ),(endkey )表示,不同的region 会被Master 分配给相应的(RegionServer )进行管理。
19. HStore 存储是HBase 存储的核心了,其中由两部分组成,一部分是(MemStore ),一部分是(StoreFiles )。
20. HBase中的所有数据文件都存储在(Hadoop HDFS)文件系统上,主要包括两种文件类型:(HFile ),(HLog File)。
黑龙江省专业技术人员继续教育知识更新培训
计算机网络与软件工程专业2013年作业
说明:
初级职称学员“专业课作业一”为第1-6题;“专业课作业二”为7-12题。
中、高级职称学员“专业课作业”为1-20题;同时提交3000字左右“学习心得”一篇。
所有学员均需按要求提交“公需课作业”。
作业提交时间:以网站通知为准。
1. 云计算是一种通过(Interner )以服务的方式提供动态可伸缩的
(虚拟化)的资源的计算模式。
2. 云计算按照服务类型大致可以分为三类,分别是(基础设施即服务)、(平台即服务)和(软件即服务)。
3. 云计算技术体系结构分为四层:物理资源层,(资源池层),(管理中间件层)和(SOA 构件层) 。
4. 网格计算也可以分为三种类型:(计算网格)、(信息网格)和 (知识网格)。
5. GFS cell 是Google 文件系统中最基础的模块。任何文件和数据都可以利用这种底层模块。GFS2 通过采用基于Linux 分布存储的方式,对于服务器来说,分成(主服务器) 和(块存储服务器) 。
6. MapReduce 是Google 提出的一个 (软件构架),用于(大规模)数据集(大于1TB )的并行运算。
7. BigTable 是建立在GFS ,(Scheduler ),(LockService )和(MapReduce )之上的。
8. Chubby 中的“锁”就是建立文件,创建文件其实就是进行(加锁)操作,创建文件成功的那个server 其实就是抢占到了(锁) 。用户通过打开、关闭和读取文件,获取(共享锁)或者(独占锁) 。
9. google 公司开发了一些很实用的应用服务,如(协作演讲),(项目计划) 和 (照片润色)。
10. Hadoop 是Apache Lucene 创始人(Doug Cutting )创建的,Lucene 是一个广泛使用的(文本搜索系统库) 。
11. MapReduce 作业是客户端需要执行的一个工作单元:它包括(输入数据)、MapReduce 程序和(配置信息)。
12. Hadoop 将作业分成若干个小任务 (task)来执行,其中包括两类任务:(map )任务和(reduce )任务。
13. reduce 任务的数量并非由输入数据的大小决定,而是(特别指定的)。如有多个reduce 任务,则每个map 任务都会(对其输出进行分区),即为每个reduce 任务(建一个分区)。
14. HDFS 采用(master/slave)架构,一个HDFS 集群有一个(Namenode )和一定数目的(Datanode )组成。
15. HDFS 支持传统的(层次型)文件组织,与大多数其他文件系统类似,用户可以创建目录,并在其间(创建)(删除)(移动)和(重命名)文件。
16. HDFS 被设计成在一个大集群中可以(跨机器)地可靠地存储(海量的文件)。它将每个文件存储成(block 序列),除了最后一个(block ),所有的(block )都是同样的大小。
17. HBase是一个(高可靠性)、(高性能)、(面向列)、(可伸缩)的分布式存储系统,利用HBase 技术可在廉价PC Server 上搭建起(大规模结构化存储集群)。
18. 当Table 随着记录数不断增加而变大后,会逐渐分裂成(splits ),成为regions ,一个region 由(startkey ),(endkey )表示,不同的region 会被Master 分配给相应的(RegionServer )进行管理。
19. HStore 存储是HBase 存储的核心了,其中由两部分组成,一部分是(MemStore ),一部分是(StoreFiles )。
20. HBase中的所有数据文件都存储在(Hadoop HDFS)文件系统上,主要包括两种文件类型:(HFile ),(HLog File)。