系统综合应用开发大作业
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2016-2017学年第一学期《系统综合应用开发》大作业课题名称:Hadoop集群搭建及MapReduce应用
班级:13级软工数据库1班
学号:123456
姓名:123456
成绩:
2016年10月
一、Hadoop集群的搭建与配置
1、节点准备
此部分主要描述节点的规划,包括IP的分配,NameNode和DataNode的配置。
1、设置IP
修改/etc/sysconfig/network-scripts/ifcfg-eth0文件:
DEVICE=eth0 --网卡名称
BOOTPROTO=static --获取静态IP
HW ADDR=00:E0:4C:F8:3B:CE --机器MAC地址 IPADDR=10.8.3.240 --IP
NETMASK=255.255.255.0 --子网掩码 NETWORK=10.8.3.254 --默认网关 ONBOOT=yes
2、设置hostname
在所有机器的/etc/hosts 文件下添加:
10.8.3.240 namenode
10.8.3.246 datanode1
10.8.3.239 datanode2
10.8.3.249 datanode3
10.8.3.238 datanode4
10.8.3.251 datanode5
注:为了使机器辨别到hostname,必须重启机器。
2、Java环境安装
1.进入安装目录
cd /home/magic/gshare/linux下构造java开发环境我的文件夹目录为:
2.赋予权限
sudo chmod u+x jdk-6u13-linux-i586.bin
3、执行安装
sudo ./jdk-6u13-linux-i586.bin,进行编译。
接着一直按回车键,直到出现选项:
输入yes,按回车键。就可以完成安装了。
3、SSH配置
hadoop控制脚本依赖ssh来执行针对整个集群的操作,因此为了支持无缝工作,此部分主要描述SSH的配置。
1、配置SSH
(1)在namenode下执行
ssh-keygen -t rsa (2)在namenode下执行
ssh-copy-id -i ~/.ssh/id_rsa.pub root@namenode ssh-copy-id -i ~/.ssh/id_rsa.pub root@datan ode1 ssh-copy-id -i ~/.ssh/id_rsa.pub root@datanode2 ssh-copy-id -i ~/.ssh/id_rsa.pub root@ datanode3 ssh-copy-id -i ~/.ssh/id_rsa.pub root@datanode4 ssh-copy-id -i ~/.ssh/id_rsa.pub r oot@datanode5
遇到输入提示时,,如果不是询问密码,可直接按回车进入下一步。执行完成后,实际上在namenode节点的~/.ssh目录下生成了三个文件: authorized_keys 、 id_rsa 、 id_rsa.pub,在datanode节点下分别生成了authorized_keys 文件,作为密钥实现无密码通信 (2)判断是否安装成功
在namenode节点执行 ssh datanode1,如果没有询问密码就进入datanode1的命令行界面,证明安装成功,其他节点类似。
2、安装JDK
(1)进入jdk-6u34-linux-i586-rpm.bin文件所在目录,执行以下命令进行安装: ./jdk-6u34-linux-i586-rpm.bin
(2)安装完成后在/etc/profile 文件下加入JDK环境变量:
#config java
export JA VA_HOME=/usr/java/jdk1.6.0_34
export CLASSPA TH=.:$JA V A_HOME/lib/tools.jar:$JA V A_HOME/lib/dt.jar export PATH=$J A V A_HOME/bin:$PA TH
(3)使设置生效
source /etc/profile
4、Hadoop配置
1)配置hadoop-env.sh 该"hadoop-env.sh"文件位于"/usr/hadoop/etc/hadoop"目录下。vim /usr/hadoop/etc/hadoop/hadoop-env.sh 在文件的末尾添加下面内容。# set java environment export JA VA_HOME=/usr/java/jdk1.8.0_05 2)配置yarn-env.sh 修改JA V A_HOME值export JA VA_HOME=/usr/java/jdk1.8.0_05 / 3)配置slaves文件添加以下内容:(为数据节点服务器相应的IP地址)192.168.1.3 192.168.1.4 并将原有的localhost行去掉。4)配置core-site.xml文件修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号。文件修改后的内容如下: