在最终部署的Hadoop上运行WordCount程序实验报告

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

XX 大学计算机学院、软件学院

实验报告

学号: 姓名:专业:班级:9 第15 周

装机的过程和下面的虚拟机装机是一样的。

2.然后我们在完成Linux下的基础软件安装的情况下进行程序的KVM虚拟机安装,首先使用如

下指令:$ egrep -o '(vmx|svm)' /proc/cpuinfo检查Linux是否支持安装KVM,结果显示是可以安装的,于是我们这里使用指令:$ apt-get install qemu-kvm libvirt-bin virt-manager bridge-utils安装KVM虚拟机,安装过程是自动完成的,如下图所示:

3.经验证我们发现KVM是安装成功并且正常运行的,安装成功的验证指令为:# lsmod | grep

kvm,到这里KVM的安装就基本完成了。

4.然后我们需要在KVM上创建一个虚拟机,具体操作步骤如下:在根下创建images目录,在

images下创建iso和test目录。

5.之后我们使用指令:virt-install --name ubuntutest --hvm --ram 1024 --vcpus 1 --disk

path=/images/test/disk.img,size=10 --network network:default --accelerate --vnc --vncport=5911 --cdrom /images/iso/ubuntu-15.04-server-amd64.iso –d创建虚拟机,至此我们基本完成了前期的基础性工作,操作流程图如下所示:

虚拟机装机界面:

6.虚拟机创建完成之后还可以使用# virsh list –all指令验证虚拟机是否存在,以及# virsh start

VMNAME指令启动虚拟机

三、SSH的创建及使用

首先创建Hadoop用户组,使用指令:$ sudo addgroup hadoop,然后创建一个Hadoop用户,使用如下指令:$ sudo adduser -ingroup hadoop hadoop,并且为用户添加权限,使用如下指令:$ sudo gedit /etc/sudoers,操作截图如下所示:

1.

(接上)

实验

内容(算法、

序、

步骤

和方法)

2.然后我们使用新增加的Hadoop用户登录Ubuntu系统,之后我们使用指令sudo apt-get

install openssh-server安装ssh,运行截图如下所示:

3.ssh安装完成之后我们使用指令:sudo /etc/init.d/ssh start启动服务,并且使用指令ps -e |

grep ssh查看服务是否启动正确,程序运行截图如下所示:

4.然后我们设置免密码登录并生成公钥和私钥,使用如下指令:ssh-keygen -t rsa -P "",程序

运行截图如下所示:

5.此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为

公钥。下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys,程序截图如下所

6.最后我们使用指令:ssh localhost来登录ssh,完成我们第二部分的前期准备工作,程序截图

如下所示:

四、JAVA环境变量配置

1.我们使用指令:sudo apt-get install openjdk-7-jdk来获取并安装java的jdk,并使用指令:

java –version来检测jdk是否安装成功,程序截图如下所示:

五、安装Hadoop

1.首先从官网下载Hadoop的安装包,然后使用指令:sudo tar xzf hadoop-

2.4.0.tar.gz将

hadoop解压,然后我们在命令窗口中输入指令:sudo mv hadoop-2.4.0 /usr/local/hadoop 拷贝到/usr/local/下,使用指令:sudo chmod 774 /usr/local/hadoop获取文件读写权限,步骤截图如下所示:

2.然后我们需要对~/.bashrc文件进行配置,需要知道JAVA——HOME环境变量,使用如下指令

查询:update-alternatives - -config java,然后利用指令:sudo gedit ~/.bashrc打开文本

编辑窗口,并如图所示编辑内容,保存后关闭,执行指令:source ~/.bashrc使更改生效,步骤截图如下所示:

3.最后我们进行目录为/usr/local/hadoop/etc/hadoop/hadoop-env.sh的文件更改,执行命令:

sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh打开文本编辑窗口,如图所示修改文本内容,保存后关闭,步骤截图如下所示:

六、WordCount实例测试

1.首先我们在/usr/local/hadoop路径下创建input文件夹,使用指令:mkdir input,然后使用指

令:cp README.txt input将README.txt拷贝到input文件夹下,步骤截图如下所示:

2.最后到现在我们已经基本实现了程序运行的初始化条件,然后我们输入如下指令:bin/hadoop

jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.0-sources.jar org.apache.hadoop.examples.WordCount input output完成程序的运行,运行截图如下所

相关文档
最新文档