设为首页 收藏本站
查看: 1309|回复: 0

[经验分享] Apache Spark-1.0.1集群搭建

[复制链接]

尚未签到

发表于 2015-7-31 12:26:25 | 显示全部楼层 |阅读模式
  
  欢迎经验交流!本文Blog地址:http://www.iyunv.com/fesh/p/3866791.html
    Apache Spark   a fast and general engine for large-scale data processing
    Spark是一个高效的分布式计算系统,相比Hadoop,它在性能上比Hadoop要高100倍。Spark是发源于美国加州大学伯克利分校AMPLab的集群计算平台,它克服了MapReduce在迭代式计算和交互式计算方面的不足,通过引入RDD(Resilient Distributed Datasets)数据表示模型,能够很好地解决MapReduce不易解决的问题。相比于MapReduce,Spark能够充分利用内存资源提高计算效率。
  一、基本环境
  包含三个节点:
  master(Ubuntu Desktop版本) 192.168.145.128
  slave1(Ubuntu Server版本)    192.168.145.129
  slave2(Ubuntu Server版本)    192.168.145.130
  
  操作系统:Ubuntu14.04 x64
  JDK版本:jdk1.8.0_11
  Hadoop版本:Hadoop-2.2.0  
  Scala版本:2.10.4(官网要求2.10.X)
  Spark版本:1.0.1
  取得《Spark-1.0.1 的make-distribution.sh编译、SBT编译、Maven编译 三种编译方法》中编译好的 spark-1.0.1-bin-2.2.0.tgz
  Hadoop-2.2.0集群的安装见http://www.iyunv.com/fesh/p/3766656.html
  Scala的安装见 http://www.iyunv.com/fesh/p/3805611.html   
  (注:Scala在master节点上安装好后,直接用scp命令分发到slave1、slave2,并在slave1和slave2配置环境变量即可)
  在master节点和slave1节点分别配置/etc/hosts和/etc/hostname:(下面这些应该在安装Hadoop集群时已经配置好了)
  /etc/hosts



192.168.145.128 master
192.168.145.129 slave1
192.168.145.130 slave2
  /etc/hostname  (master)



master
  /etc/hostname  (slave1)



slave1
  /etc/hostname  (slave2)



slave2
  二、Spark配置
  1、master节点文件配置
  在master节点:
  解压spark-1.0.1-bin-2.2.0.tgz



tar -zxvf spark-1.0.1-bin-2.2.0.tgz
  在/etc/profile中配置环境变量



#Set SPARK_HOME
export SPARK_HOME=/home/fesh/spark-1.0.1-bin-2.2.0
export PATH=$PATH:$SPARK_HOME/bin
  在spark-1.0.1-bin-2.2.0/conf下配置文件spark-env.sh和slaves:



cp spark-env.sh.template spark-env.sh
sudo gedit spark-env.sh
  在文件spark-env.sh末尾添加:



export HADOOP_CONF_DIR=/home/fesh/hadoop-2.2.0/etc/hadoop
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_11
export SCALA_HOME=/home/fesh/scala-2.10.4
export SPARK_MASTER_IP=master
export SPARK_WORKER_MEMORY=512M
export SPARK_EXECUTOR_MEMORY=512M
export SPARK_EXECUTOR_INSTANCES=2   (下面这几项可以不配置,采用默认就可以了)
export SPARK_EXECUTOR_CORES=1
export SPARK_DRIVER_MEMORY=512M
export SPARK_YARN_APP_NAME="spark 1.0.1"
  在文件slaves中去掉localhohst并设置



master
slave1
slave2
  2、分发文件
  分发spark-1.0.1-bin-2.2.0文件到slave1节点



scp -r spark-1.0.1-bin-2.2.0 slave1:~/
  分发spark-1.0.1-bin-2.2.0文件到slave2节点



scp -r spark-1.0.1-bin-2.2.0 slave2:~/
  三、启动Spark集群
  首先启动Hadoop-2.2.0集群,然后在spark-1.0.1-bin-2.2.0根目录下启动Spark集群



sbin/start-all.sh

DSC0000.jpg
  对于slave1节点
DSC0001.jpg
  对于slave2节点
DSC0002.jpg
  四、查看信息
  1、进入Spark集群的Web页面
  在master节点上,浏览器访问: http://master:8080
   DSC0003.jpg
  
  2、控制台查看
  进入{SPARK_HOME}/bin目录,使用 spark-shell 控制台
DSC0004.jpg
DSC0005.jpg
  3、Web查看SparkUI
  在master节点,浏览器进入 http://master:4040
DSC0006.jpg
  五、停止Spark集群



sbin/stop-all.sh
DSC0007.jpg
  参考:
  1、http://spark.apache.org/docs/latest/running-on-yarn.html
  2、http://spark.apache.org/docs/latest/configuration.html
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-92735-1-1.html 上篇帖子: 搭建简易的c语言CGI和Apache服务器的开发环境 下篇帖子: Apache Commons 工具类介绍及简单使用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表