云计算作业
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
黑龙江省专业技术人员继续教育知识更新培训计算机网络与软件工程专业2013年作业
说明:
初级职称学员“专业课作业一”为第1-6题;“专业课作业二”为7-12题。中、高级职称学员“专业课作业”为1-20题;同时提交3000字左右“学习心得”一篇。
所有学员均需按要求提交“公需课作业”。
作业提交时间:以网站通知为准。
1. 云计算是一种通过(Interner)以服务的方式提供动态可伸缩的
(虚拟化)的资源的计算模式。
2. 云计算按照服务类型大致可以分为三类,分别是(基础设施即服务)、(平台即服务)和(软件即服务)。
3. 云计算技术体系结构分为四层:物理资源层,(资源池层),(管理中间件层)和(SOA构件层)。
4. 网格计算也可以分为三种类型:(计算网格)、(信息网格)和(知识网格)。
5. GFS cell 是Google 文件系统中最基础的模块。任何文件和数据都可以利用这种底层模块。GFS2 通过采用基于Linux 分布存储的方式,对于服务器来说,分成(主服务器)和(块存储服务器)。
6. MapReduce 是Google 提出的一个(软件构架),用于(大规模)数据集(大于1TB)的并行运算。
7. BigTable 是建立在GFS,(Scheduler),(LockService)和(MapReduce)之上的。
8. Chubby 中的“锁”就是建立文件,创建文件其实就是进行(加锁)操作,创建文件成功的那个server 其实就是抢占到了(锁)。用户通过打开、关闭和读取文件,获取(共享锁)或者(独占锁)。9. google 公司开发了一些很实用的应用服务,如(协作演讲),(项目计划)和(照片润色)。
10. Hadoop 是Apache Lucene 创始人(Doug Cutting)创建的,Lucene 是一个广泛使用的(文本搜索系统库)。
11. MapReduce 作业是客户端需要执行的一个工作单元:它包括(输入数据)、MapReduce 程序和(配置信息)。
12. Hadoop 将作业分成若干个小任务 (task)来执行,其中包括两类任务:(map)任务和(reduce)任务。
13. reduce 任务的数量并非由输入数据的大小决定,而是(特别指定的)。如有多个reduce任务,则每个map 任务都会(对其输出进行分区),即为每个reduce 任务(建一个分区)。
14. HDFS 采用(master/slave)架构,一个HDFS 集群有一个(Namenode)和一定数目的(Datanode)组成。
15. HDFS 支持传统的(层次型)文件组织,与大多数其他文件系统类似,用户可以创建目录,并在其间(创建)(删除)(移动)和(重命名)文件。
16. HDFS 被设计成在一个大集群中可以(跨机器)地可靠地存储(海量的文件)。它将每个文件存储成(block序列),除了最后一个(block),所有的(block)都是同样的大小。
17. HBase是一个(高可靠性)、(高性能)、(面向列)、(可伸缩)的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起(大规模结构化存储集群)。
18. 当Table随着记录数不断增加而变大后,会逐渐分裂成(splits),成为regions,一个region由(startkey),(endkey)表示,不同的region会被Master分配给相应的(RegionServer)进行管理。19. HStore 存储是HBase 存储的核心了,其中由两部分组成,一部分是(MemStore),一部分是(StoreFiles)。
20. HBase中的所有数据文件都存储在(Hadoop HDFS)文件系统上,主要包括两种文件类型:(HFile),(HLog File)。