spark standalone集群安装步骤总结

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

经过这两天的详细安装过程,总结Spark Standalone集群安装步骤如下:

环境准备:

1、⼀一台物理笔记本mac,8G内存;安装三个虚拟机(Virtualbox),虚拟机操作系统

ubuntu12-64bit;

2、三个虚拟机名称(修改主机名: vim /etc/hostname; 增加主机名与IP映射: vim /etc/hosts):

10.0.2.9 master

10.0.2.10 slave1

10.0.2.11 slave2

注意,Virtualbox虚拟机,在NAT模式下,三个节点的IP都是⼀一样的,能够访问mac主机(mac主机访问不了虚拟机节点);

如果想将三个节点作为集群,必须将⺴⽹网络模式设置为:内部模式(intnet),linux情况下,⼿手⼯工设置IP 地址和⼦子⺴⽹网掩码

3、为了避免权限⿇麻烦,⽤用户使⽤用root登录和使⽤用Ubuntu系统,⽽而Ubuntu在默认情况下并没有开启root ⽤用户,需要做如下设置:

sudo -s 进⼊入root⽤用户权限模式

vim /etc/lightdm/lightdm.conf

增加:

[SeatDefaults]

greeter-session=unity-greeter

user-session=ubuntu

greeter-show-manual-login=true #⼿手⼯工输⼊入登录系统的⽤用户名和密码

allow-guest=false #不允许guest登录

sudo passwd root

(⼀一)JDK安装配置:

1、下载JDK,并创建home⺫⽬目录,将安装包解压到home⺫⽬目录:

mkdir /usr/lib/java

tar zxf jdk-7u51-linux-x64.tar 根据你的操作系统选择jdk版本

2、设置环境变量:

vim ~/.bashrc

增加:

export JAVA_HOME=/usr/lib/java/jdk1.7.0_51

export JRE_HOME=${JAVA_HOME}/jre

export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:${PATH}

使变量⽣生效:

source ~/.bashrc

3、监测java运⾏行:

java -version

(⼆二)hadoop2.6.0安装脚本:

(2.1) 安装SSH

1、安装ssh

hadoop/spark是采⽤用ssh进⾏行通信的,此时我们需要设置密码为空,即不需要密码登录,这样免去每次通信时都输⼊入密码。

apt-get install ssh

/etc/init.d/ssh start #启动ssh服务

ps -e |grep ssh #验证ssh服务是否正常启动

2、设置免密码登录,⽣生成私钥和公钥

ssh-keygen -t rsa -P ""

上述命令⾏行在/root/.ssh中⽣生成两个⽂文件:id_rsa和id_rsa.pub,id_rsa为私钥,id_rsa.pub为公钥,我们将公钥id_rsa.pub追加到authorized_keys中,命令如下:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized.keys

ssh master #检查是否免密码登录ssh

3、同理,在slave1和slave2节点上安装ssh并设置免密码登录

4、集群三个节点间免密码ssh登录设置

将slave1、slave2节点上的id_rsa.pub分别传给master节点:

scp id_rsa.pub root@master:/root/.ssh/id_rsa.pub.slave1

scp id_rsa.pub root@master:/root/.ssh/id_rsa.pub.slave2

在Master节点上追加所有公钥:

cat id_rsa.pub >> authorized_keys

cat id_rsa.slave1 >> authorized_keys

cat id_rsa.slave2 >> authorized_keys

将master节点的公钥信息⽂文件authorized_keys复制到slave1和slave2:

scp authorized_keys root@slave1:/root/.ssh/authorized_keys

scp authorized_keys root@slave2:/root/.ssh/authorized_keys

5、相互验证ssh密码登录:

ssh master

ssh slave1

ssh slave2

(2.2)hadoop暂时可以先不装

(三)scala2.10.5安装:

1、下载安装包,并创建home⺫⽬目录,将安装包解压到home⺫⽬目录

mkdir /usr/local/scala

tar zxf scala-2.10.5.tgz

2、设置环境变量:

vim ~/.bashrc

增加:

export SCALA_HOME=/usr/local/scala/scala-2.10.5

export PATH=${SCALA_HOME}/bin:${PATH}

使变量⽣生效:

source ~/.bashrc

3、测试scala运⾏行:

scala -version

4、将环境变量设置及scala⽂文件夹copy到另外两个节点上:slave1,slave2

scp -r scala root@slave1:/usr/local/

scp -r scala root@slave2:/usr/local/

(四)spark1.4.0 standalone集群模式安装:

1、下载安装包,并创建home⺫⽬目录,将安装包解压到home⺫⽬目录

mkdir /usr/local/spark

tar -zxf spark-1.4.0-bin-hadoop2.6.tgz

2、设置环境变量:

vim ~/.bashrc

增加:

export SPARK_HOME=/usr/local/spark/spark-1.4.0-bin-hadoop2.6

export PATH=${SPARK_HOME}/bin:${PATH}

source ~/.bashrc

3、配置conf/spark-env.sh

进⼊入spark home⺫⽬目录下的conf⺫⽬目录,将spark-env.sh.template copy为spark-env.sh:

cp spark-env.sh.template spark-env.sh

vim spark-env.sh ,增加:

export JAVA_HOME=/usr/lib/java/jdk1.7.0_51

export SCALA_HOME=/usr/local/scala/scala-2.10.5

export SPARK_MASTER_IP=master

export SPARK_WORKER_MEMORY=2G 注意安装过程中,内存设置必须是整数,我设置了1.5G,报错;

export MASTER=spark://master:7077

相关文档
最新文档