hadoop练习题--带答案资料

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

h a d o o p练习题--带

答案

Hadoop 练习题姓名:分数:

单项选择题

1.下面哪个程序负责HDFS数据存储。

a)NameNode

b)Jobtracker

c)Datanode √

d)secondaryNameNode

e)tasktracker

2.HDfS中的block默认保存几份?

a)3份√

b)2份

c)1份

d)不确定

3.下列哪个程序通常与NameNode在一个节点启动?

a)SecondaryNameNode

b)DataNode

c)TaskTracker

d)Jobtracker√

4.Hadoop作者

a)Martin Fowler

b)Kent Beck

c)Doug cutting√

5.HDFS默认Block Size

a)32MB

b)64MB√

c)128MB

6.下列哪项通常是集群的最主要的性能瓶颈

a)CPU

b)网络

c)磁盘√

d)内存

7.关于SecondaryNameNode哪项是正确的?

a)它是NameNode的热备

b)它对内存没有要求

c)它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间√

d)SecondaryNameNode应与NameNode部署到一个节点

8.一个gzip文件大小75MB,客户端设置Block大小为64MB,请我其占用几个Block?

a) 1

b)2√

c) 3

d) 4

9.HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce

任务读取该文件时input split大小为?

a)64MB

b)75MB√

c)一个map读取64MB,另外一个map读取11MB

10.HDFS有一个LZO(with index)文件大小75MB,客户端设置Block大小为64MB。当运

行mapreduce任务读取该文件时input split大小为?

a)64MB

b)75MB

c)一个map读取64MB,另外一个map读取11MB√

多选题:

11.下列哪项可以作为集群的管理工具

a)Puppet√

b)Pdsh√

c)Cloudera Manager√

d)Rsync + ssh + scp√

12.配置机架感知的下面哪项正确

a)如果一个机架出问题,不会影响数据读写√

b)写入数据的时候会写到不同机架的DataNode中√

c)MapReduce会根据机架获取离自己比较近的网络数据√

13.Client端上传文件的时候下列哪项正确

a)数据经过NameNode传递给DataNode

b)Client端将文件以Block为单位,管道方式依次传到DataNode√

c)Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作

d)当某个DataNode失败,客户端会继续传给其它DataNode √

14.下列哪个是Hadoop运行的模式

a)单机版√

b)伪分布式√

c)分布式√

15.Cloudera提供哪几种安装CDH的方法

a)Cloudera manager√

b)Tar ball√

c)Yum√

d)Rpm√

判断题:(全部错)

16.Ganglia不仅可以进行监控,也可以进行告警。()

17.Nagios不可以监控Hadoop集群,因为它不提供Hadoop支持。()

18.如果NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。()

19.Cloudera CDH是需要付费使用的。()

20.Hadoop是Java开发的,所以MapReduce只支持Java语言编写。()

21.Hadoop支持数据的随机写。()

Node负责管理metadata,client端每次读写请求,它都会从磁盘中读取或则会写

入metadata信息并反馈client端。()

Node本地磁盘保存了Block的位置信息。()

24.Slave节点要存储数据,所以它的磁盘越大越好。()

25.Hadoop默认调度器策略为FIFO,并支持多个Pool提交Job。()

26.集群内每个节点都应该配RAID,这样避免单磁盘损坏,影响整个节点运行。()

27.因为HDFS有多个副本,所以NameNode是不存在单点问题的。()

28.每个map槽就是一个线程。()

29.Mapreduce的input split就是一个block。()

30.Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有Hadoop守护线程的内存。它默

认是200MB。()

31.DataNode首次加入cluster的时候,如果log中报告不兼容文件版本,那需要

NameNode执行“hadoop namenode -format”操作格式化磁盘。()

32.Hadoop1.0和2.0都具备完善的HDFS HA策略。()

33.GZIP压缩算法比LZO更快。()

34.PIG是脚本语言,它与mapreduce无关。()

相关文档
最新文档