在最终部署的Hadoop上运行WordCount程序实验报告
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
XX 大学计算机学院、软件学院
实验报告
学号: 姓名:专业:班级:9 第15 周
装机的过程和下面的虚拟机装机是一样的。
2.然后我们在完成Linux下的基础软件安装的情况下进行程序的KVM虚拟机安装,首先使用如
下指令:$ egrep -o '(vmx|svm)' /proc/cpuinfo检查Linux是否支持安装KVM,结果显示是可以安装的,于是我们这里使用指令:$ apt-get install qemu-kvm libvirt-bin virt-manager bridge-utils安装KVM虚拟机,安装过程是自动完成的,如下图所示:
3.经验证我们发现KVM是安装成功并且正常运行的,安装成功的验证指令为:# lsmod | grep
kvm,到这里KVM的安装就基本完成了。
4.然后我们需要在KVM上创建一个虚拟机,具体操作步骤如下:在根下创建images目录,在
images下创建iso和test目录。
5.之后我们使用指令:virt-install --name ubuntutest --hvm --ram 1024 --vcpus 1 --disk
path=/images/test/disk.img,size=10 --network network:default --accelerate --vnc --vncport=5911 --cdrom /images/iso/ubuntu-15.04-server-amd64.iso –d创建虚拟机,至此我们基本完成了前期的基础性工作,操作流程图如下所示:
虚拟机装机界面:
6.虚拟机创建完成之后还可以使用# virsh list –all指令验证虚拟机是否存在,以及# virsh start
VMNAME指令启动虚拟机
三、SSH的创建及使用
首先创建Hadoop用户组,使用指令:$ sudo addgroup hadoop,然后创建一个Hadoop用户,使用如下指令:$ sudo adduser -ingroup hadoop hadoop,并且为用户添加权限,使用如下指令:$ sudo gedit /etc/sudoers,操作截图如下所示:
1.
(接上)
实验
内容(算法、
程
序、
步骤
和方法)
2.然后我们使用新增加的Hadoop用户登录Ubuntu系统,之后我们使用指令sudo apt-get
install openssh-server安装ssh,运行截图如下所示:
3.ssh安装完成之后我们使用指令:sudo /etc/init.d/ssh start启动服务,并且使用指令ps -e |
grep ssh查看服务是否启动正确,程序运行截图如下所示:
4.然后我们设置免密码登录并生成公钥和私钥,使用如下指令:ssh-keygen -t rsa -P "",程序
运行截图如下所示:
5.此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为
公钥。下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys,程序截图如下所
6.最后我们使用指令:ssh localhost来登录ssh,完成我们第二部分的前期准备工作,程序截图
如下所示:
四、JAVA环境变量配置
1.我们使用指令:sudo apt-get install openjdk-7-jdk来获取并安装java的jdk,并使用指令:
java –version来检测jdk是否安装成功,程序截图如下所示:
五、安装Hadoop
1.首先从官网下载Hadoop的安装包,然后使用指令:sudo tar xzf hadoop-
2.4.0.tar.gz将
hadoop解压,然后我们在命令窗口中输入指令:sudo mv hadoop-2.4.0 /usr/local/hadoop 拷贝到/usr/local/下,使用指令:sudo chmod 774 /usr/local/hadoop获取文件读写权限,步骤截图如下所示:
2.然后我们需要对~/.bashrc文件进行配置,需要知道JAVA——HOME环境变量,使用如下指令
查询:update-alternatives - -config java,然后利用指令:sudo gedit ~/.bashrc打开文本
编辑窗口,并如图所示编辑内容,保存后关闭,执行指令:source ~/.bashrc使更改生效,步骤截图如下所示:
3.最后我们进行目录为/usr/local/hadoop/etc/hadoop/hadoop-env.sh的文件更改,执行命令:
sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh打开文本编辑窗口,如图所示修改文本内容,保存后关闭,步骤截图如下所示:
六、WordCount实例测试
1.首先我们在/usr/local/hadoop路径下创建input文件夹,使用指令:mkdir input,然后使用指
令:cp README.txt input将README.txt拷贝到input文件夹下,步骤截图如下所示:
2.最后到现在我们已经基本实现了程序运行的初始化条件,然后我们输入如下指令:bin/hadoop
jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.0-sources.jar org.apache.hadoop.examples.WordCount input output完成程序的运行,运行截图如下所