Spark安装教程

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Spark安装教程

Spark安装教程Spark 安装教程

安装环境

Fedora 29

openjdk version "1.8.0_191"

安装步骤

下载 Spark 安装包

解压 Spark 安装包 /opt/spark ⽬录

修改 Spark 配置

修改 PySpark 配置

下载 Spark 安装包

解压 Spark 安装包 /opt/spark ⽬录

创建 /opt/spark ⽬录

sudo mkdir -p /opt/spark

解压到 /opt/spark ⽬录

cd /opt

sudo tar -zxvf ~/Downloads/spark-2.3.0-bin-hadoop2.7.tgz sudo mv /opt/spark-2.3.0-bin-hadoop2.7 /opt/spark

修改 Spark 配置

修改 Spark 环境变量

sudo vim ~/.bashrc

修改内容

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export SPARK_HOME=/opt/spark

export PATH=$SPARK_HOME/bin:$PATH

使环境变量⽬效

source ~/.bashrc

安装 PySpark

pip3 install pyspark

修改 PySpark 配置

修改 PySpark 环境变量

sudo vim ~/.bashrc

修改内容

export PYSPARK_PYTHON=python3 使环境变量⽬效

source ~/.bashrc

相关文档
最新文档