# Centos7下Spark环境搭建(单机)

# 介绍

[TOC]

安装环境:

system:CentOS7

jdk:jdk-8u201

hadoop:hadoop-2.7.7

scala:scala-2.13.0

spark:spark-2.4.3-bin-hadoop2.7

# jdk安装

  1. 解压jdk包

    tar -zvxf jdk-8u201-linux-x64.tar.gz
    
    1
  2. 配置环境变量

    #修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效
    
    #Java
    export JAVA_HOME=/apps/jdk1.8.0_201
    export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 
    export PATH=$PATH:$JAVA_HOME/bin
    
    1
    2
    3
    4
    5
    6

# Spark安装

  1. 解压spark包

    tar -zvxf spark-2.4.3-bin-hadoop2.7.tgz
    
    1
  2. 配置环境变量

    #修改/etc下profile文件,加入以下配置并使用source /etc/profile命令使之生效
    #Spark
    export SPARK_HOME=/apps/spark-2.4.3-bin-hadoop2.7
    export PATH=$PATH:${SPARK_HOME}/bin
    
    1
    2
    3
    4
  3. 配置Spark

    • 进入 ${SPARK_HOME}/conf 目录

    • 执行如下命令

      cp spark-env.sh.template spark-env.sh
      cp slaves.template slaves
      
      1
      2
    • 编辑 spark-env.sh (opens new window),在末尾添加

      #JAVA_HOME:指定的是 Java 的安装目录
      export JAVA_HOME=/apps/jdk1.8.0_201
      #SPARK_MASTER_IP:指定的是 Spark 集群的 Master 节点的 IP 地址
      export SPARK_MASTER_IP=localhost
      #SPARK_WORKER_MEMOERY:指定的 Worker 节点能够最大分配给 Excutors 的内存大小
      export SPARK_WORKER_MEMORY=2g
      
      1
      2
      3
      4
      5
      6
  4. 启动Spark

    • 进入${SPARK_HOME}/sbin 目录,执行如下命令

      ./start-all.sh
      
      1
  5. 浏览器访问http://localhost:8080/