# Centos7下Spark环境搭建(单机)
# 介绍
[TOC]
安装环境:
system:CentOS7
jdk:jdk-8u201
hadoop:hadoop-2.7.7
scala:scala-2.13.0
spark:spark-2.4.3-bin-hadoop2.7
# jdk安装
解压jdk包
tar -zvxf jdk-8u201-linux-x64.tar.gz
1配置环境变量
#修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效 #Java export JAVA_HOME=/apps/jdk1.8.0_201 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
1
2
3
4
5
6
# Spark安装
解压spark包
tar -zvxf spark-2.4.3-bin-hadoop2.7.tgz
1配置环境变量
#修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效 #Spark export SPARK_HOME=/apps/spark-2.4.3-bin-hadoop2.7 export PATH=$PATH:${SPARK_HOME}/bin
1
2
3
4配置Spark
进入 ${SPARK_HOME}/conf 目录
执行如下命令
cp spark-env.sh.template spark-env.sh cp slaves.template slaves
1
2编辑 spark-env.sh (opens new window),在末尾添加
#JAVA_HOME:指定的是 Java 的安装目录 export JAVA_HOME=/apps/jdk1.8.0_201 #SPARK_MASTER_IP:指定的是 Spark 集群的 Master 节点的 IP 地址 export SPARK_MASTER_IP=localhost #SPARK_WORKER_MEMOERY:指定的 Worker 节点能够最大分配给 Excutors 的内存大小 export SPARK_WORKER_MEMORY=2g
1
2
3
4
5
6
启动Spark
进入${SPARK_HOME}/sbin 目录,执行如下命令
./start-all.sh
1
浏览器访问http://localhost:8080/