# Centos7下Spark环境搭建(伪分布)
# 介绍
[TOC]
安装环境:
system:CentOS7
jdk:jdk-8u201
hadoop:hadoop-2.7.7
scala:scala-2.13.0
spark:spark-2.4.3-bin-hadoop2.7
# jdk安装
解压jdk包
tar -zvxf jdk-8u201-linux-x64.tar.gz
1配置环境变量
#修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效 #Java export JAVA_HOME=/apps/jdk1.8.0_201 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
1
2
3
4
5
6
# Spark安装
解压spark包
tar -zvxf spark-2.4.3-bin-hadoop2.7.tgz
1配置环境变量
#修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效 #Spark export SPARK_HOME=/apps/spark-2.4.3-bin-hadoop2.7 export PATH=$PATH:${SPARK_HOME}/bin
1
2
3
4配置Spark
进入 ${SPARK_HOME}/conf 目录
执行如下命令
cp spark-env.sh.template spark-env.sh cp slaves.template slaves
1
2slaves
localhost
1spark-env.sh
#JAVA_HOME:指定的是 Java 的安装目录 export JAVA_HOME=/apps/jdk1.8.0_201 #SPARK_MASTER_IP:指定的是 Spark 集群的 Master 节点的 IP 地址 export SPARK_MASTER_IP=localhost #SPARK_WORKER_MEMOERY:指定的 Worker 节点能够最大分配给 Excutors 的内存大小 export SPARK_WORKER_MEMORY=2g export SCALA_HOME=/apps/scala-2.13.0 export HADOOP_HOME=/apps/hadoop-3.1.2 export HADOOP_CONF_DIR=/apps/hadoop-3.1.2/etc/hadoop
1
2
3
4
5
6
7
8
9
10
11
12
13
启动Spark
进入${SPARK_HOME}/sbin 目录,执行如下命令
./start-all.sh
1
浏览器访问http://localhost:8080/
提交yarn任务
./spark-submit --class com.loong.MyJavaWordCount --master yarn --deploy-mode cluster /apps/wordcount.jar /user/hive/warehouse/stu/stu.txt /out
1