spark安装

## 下载并解压缩 去官网主页选择下载:https://spark.apache.org/ 我选择的3.3.0 下载后上传到主节点root用户的主目录/root,再使用tar命令解压缩 ```shell [root@hadoop-1 software]# tar -xvf spark-3.3.0-bin-hadoop3.tgz ``` 使用mv命令将解压后的目录重命名为spark,以去掉版本号等信息 ```shell [root@hadoop-1 software]# mv spark-3.3.0-bin-hadoop3 spark ``` 使用mv命令将spark目录移动到安装的目标目录/opt ```shell [root@hadoop-1 software]# mv spark /opt ``` ## 修改环境变量 使用vi命令打开并编辑/etc/profile文件 ```shell [root@hadoop-1 software]# vi /etc/profile ``` 增加如下配置信息 ```shell # SPARK export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin export SPARK_CONF_HOME=$SPARK_HOME/conf ``` 使用source命令使配置文件生效 ```shell [root@hadoop-1 software]# source /etc/profile ``` # 配置 #进入/spark/conf复制以下几个文件 ``` $ mv spark-defaults.conf.template spark-defaults.conf $ mv slaves.template slaves $ mv spark-env.sh.template spark-env.sh #修改spark-defaults.conf启用yarn模式 spark.master yarn ``` 启动 #进入/spark/sbin,启动spark,start-all.sh表示启动所有 ./start-all.sh