分布式开发环境的搭建
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
开发环境的搭建
1Windows平台下Hadoop的配置安装
1.1 下载Hadoop
登陆Hadoop的官网/,按照如下方式点击进行下载
1.2 安装Hadoop
下载后得到文件hadoop-2.7.3.tar.gz,需要在linux环境下解压,并放到指定目录,这里放到D:\hadoop-2.7.3
1.3 配置Hadoop环境变量
1.4 修改Hadoop配置文件
编辑文件D:\hadoop-2.7.3\etc\hadoop\core-site.xml,在 template重命名为mapred-site.xml,在 编辑文件D:\hadoop-2.7.3\etc\hadoop\yarn-site.xml,在 1.5 替换文件 下载到的hadooponwindows-master.zip,解压,将bin目录(包含以下.dll和.exe文件)文件替换原来hadoop目录下的bin目录 1.6 运行环境 运行cmd窗口,执行“hdfsnamenode -format”; 运行cmd窗口,切换到hadoop的sbin目录,执行“start-all.cmd”,它将会启动以下进程。 成功后,如图: 至此,hadoop服务已经搭建完毕。 2Hadoop2.7.3-eclipse-plugin插件 Hadoop2.x之后没有Eclipse插件工具,我们就不能在Eclipse上调试代码,我们要把写好的Java代码的MapReduce打包成jar然后在Linux上运行,所以这种不方便我们调试代码,所以我们自己编译一个Eclipse插件,方便我们在我们本地上调试,经过hadoop1.x的发展,编译hadoop2.x版本的eclipse插件比之前简单多了。接下来我们开始编译Hadoop-eclipse-plugin插件,并在Eclipse开发Hado op。 2.1 下载安装Ant 下载链接:/bindownload.cgi 2.2 配置Ant环境变量 2.3 下载hadoop-eclipse-plugin插件 登陆https:///winghc/hadoop2x-eclipse-plugin下载hadoop2的eclipse-plugins源代码,并解压到本地磁盘 2.4 编译hadoop-eclipse-plugin插件 打开cmd,切换到..\hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin目录,执行ant jar -Dversion=2.7.3 -Declipse.home=D:\eclipse -Dhadoop.home=D:\hadoop-2.7.3 会出现报错 此时需要结合D:\hadoop-2.7.3\share\hadoop\common\lib中jar包的版本 对.. \hadoop2x-eclipse-plugin-master\ivy\ libraries.properties文件中jar包的版本号进行修改 hadoop.version=2.7.3 commons-collections.version=3.2.2 commons-io.version=2.4 htrace.version=3.1.0-incubating slf4j-api.version=1.7.10 slf4j-log4j12.version=1.7.10 之后再次进行编译即可 编译生成的jar包在目录 ..\hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin下 2.5 eclipse配置hadoop-eclipse-plugin插件 将hadoop-eclipse-plugin-2.7.3.jar拷贝到D:\eclipse\plugins目录中,重启eclipse,打开Window-->Preferens,可以看到Hadoop Map/Reduc选项,然后点击,然后添加hadoop-2.7.3进来,如图所示: 点击Window-->Show View -->MapReduce Tools 点击Map/ReduceLocation;点击Map/ReduceLocation选项卡,点击右边小象图标,打开Hadoop Location配置窗口:输入Location Name,任意名称即可.配置Map/Reduce Master和DFS Mastrer,Host和Port配置成hdfs-site.xml与core-site.xml的设置一致即可。 2.6 查看连接是否成功 若出现如下问题failed on connection exception 应考虑是否开启Hadoop服务,启动D:\hadoop-2.7.3\sbin中的start-all.cmd 之后可以利用jps命令查看所有服务是否正常启动,如下为正常启动 此时出现如下界面,即为连接成功 可以通过如下步骤来实现上传文件,创建文件夹等操作 也可以使用命令行语句实现 hdfsdfs -mkdir –p /user/root/input hdfsdfs -mkdir -p /user/root/output hadoop fs -put file01 /input 创建结果如图所示: