Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13完全安装手册

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13

完全安装手册

前言: (3)

一. Hadoop安装(伪分布式) (4)

1. 操作系统 (4)

2. 安装JDK (4)

1> 下载并解压JDK (4)

2> 配置环境变量 (4)

3> 检测JDK环境 (5)

3. 安装SSH (5)

1> 检验ssh是否已经安装 (5)

2> 安装ssh (5)

3> 配置ssh免密码登录 (5)

4. 安装Hadoop (6)

1> 下载并解压 (6)

2> 配置环境变量 (6)

3> 配置Hadoop (6)

4> 启动并验证 (8)

前言:

网络上充斥着大量Hadoop1的教程,版本老旧,Hadoop2的中文资料相对较少,本教程的宗旨在于从Hadoop2出发,结合作者在实际工作中的经验,提供一套最新版本的Hadoop2相关教程。

为什么是Hadoop2.2.0,而不是Hadoop2.4.0

本文写作时,Hadoop的最新版本已经是2.4.0,但是最新版本的Hbase0.98.1仅支持到Hadoop2.2.0,且Hadoop2.2.0已经相对稳定,所以我们依然采用2.2.0版本。

一. Hadoop安装(伪分布式)

1. 操作系统

Hadoop一定要运行在Linux系统环境下,网上有windows下模拟linux环境部署的教程,放弃这个吧,莫名其妙的问题多如牛毛。

2. 安装JDK

1> 下载并解压JDK

我的目录为:/home/apple/jdk1.8

2> 配置环境变量

打开/etc/profile,添加以下内容:

export JAVA_HOME=/home/apple/jdk1.8

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar

执行source /etc/profile ,使更改后的profile生效。

执行以下命令,赋予JDK运行的权限:

chmod 777 /home/apple/jdk1.8/bin/*

chmod 777 /home/apple/jdk1.8/lib/*

3> 检测JDK环境

执行 java –version ,查看结果,如出现如下提示,则说明JDK已成功配置:

3. 安装SSH

1> 检验ssh是否已经安装

Ubuntu系统可以通过如下命令来查看ssh是否已经安装:

netstat -an| grep 22

如果已安装,可跳过第二步。

2> 安装ssh

Ubuntu系统可以通过如下命令来安装ssh:

sudo apt-get install ssh

3> 配置ssh免密码登录

通过如下命令来配置ssh免密码登录:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

输入如下命令验证免密码登录是否成功:

ssh localhost

如出现如下界面,则表示登录成功:

4. 安装Hadoop

1> 下载并解压

我的目录为:/home/apple/hadoop-2.2.0

2> 配置环境变量

打开/etc/profile,添加以下内容:

export HADOOP_HOME=/home/apple/hadoop-2.2.0

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

export YARN_HOME=$HADOOP_HOME

export

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 执行source /etc/profile ,使更改后的profile生效。

执行以下命令,赋予Hadoop运行的权限:

chmod 777 /home/apple/hadoop-2.2.0/bin/*

chmod 777 /home/apple/hadoop-2.2.0/sbin/*

3> 配置Hadoop

修改$HADOOP_HOME/etc/hadoop目录下的配置文件。

core-site.xml添加以下内容:

hdfs://localhost:9000

hadoop.native.lib

true

hadoop-env.sh修改以下内容:

export JAVA_HOME=/home/apple/jdk1.8

hdfs-site.xml添加以下内容:

dfs.replication

1

.dir

file:/home/apple/hadoop-2.2.0/hdfs/namenode

dfs.datanode.data.dir

file:/home/apple/hadoop-2.2.0/hdfs/datanode

相关文档
最新文档