santaclaus 发表于 2019-1-30 12:54:45

spark安装配置

  在装spark之前先装ScalaScala 的安装在hadoop安装配置中已经介绍了
  

  1、下载spark安装包 下载地址如下
  http://spark.apache.org/downloads.html
  我选择的是
  spark-1.4.1-bin-hadoop2.6.tgz放在/root/software
  解压
  tar zxvfspark-1.4.1-bin-hadoop2.6.tgz
  2、配置系统环境变量
  vim /etc/profile
  

  export SPARK_HOME=/root/sherry/spark-1.4.1
  export PATH=$SPARK_HOME/bin:$PATH
  

  source /etc/profile
  3、配置spark文件
  1)# cd spark-1.4.1-bin-hadoop2.6/
  # cd conf
  # vim spark-env.sh
  添加如下内容

  

  export SCALA_HOME=/root/sherry/scala-2.10.4
  export JAVA_HOME=/usr/java/jdk1.7.0_45
  export SPARK_WORKER_MEMORY=1g
  export SPARK_MASTER_IP=10.118.46.22
  

  2)配置slave
  我自己没有配置
  4、启动集群
  # ./sbin/start-all.sh
  关闭
  # ./sbin/stop-all.sh
  检查是否安装成功
  jps
  

  




页: [1]
查看完整版本: spark安装配置