spark安装
## 下载并解压缩
去官网主页选择下载:https://spark.apache.org/
我选择的3.3.0
下载后上传到主节点root用户的主目录/root,再使用tar命令解压缩
```shell
[root@hadoop-1 software]# tar -xvf spark-3.3.0-bin-hadoop3.tgz
```
使用mv命令将解压后的目录重命名为spark,以去掉版本号等信息
```shell
[root@hadoop-1 software]# mv spark-3.3.0-bin-hadoop3 spark
```
使用mv命令将spark目录移动到安装的目标目录/opt
```shell
[root@hadoop-1 software]# mv spark /opt
```
## 修改环境变量
使用vi命令打开并编辑/etc/profile文件
```shell
[root@hadoop-1 software]# vi /etc/profile
```
增加如下配置信息
```shell
# SPARK
export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin
export SPARK_CONF_HOME=$SPARK_HOME/conf
```
使用source命令使配置文件生效
```shell
[root@hadoop-1 software]# source /etc/profile
```
# 配置
#进入/spark/conf复制以下几个文件
```
$ mv spark-defaults.conf.template spark-defaults.conf
$ mv slaves.template slaves
$ mv spark-env.sh.template spark-env.sh
#修改spark-defaults.conf启用yarn模式
spark.master yarn
```
启动
#进入/spark/sbin,启动spark,start-all.sh表示启动所有
./start-all.sh